Inhaltsbeschreibung
Wie gut kennen wir die Vereinigten Staaten von Amerika? Reichen Besuche dort, die weltweit ausstrahlende Kultur, die mehr oder weniger differenzierte Berichterstattung, um ein Land zu verstehen, das in so vieler Hinsicht vom Augenschein abweicht? Wie erklärt sich das Nebeneinander von überbordender Sympathie für die USA und ihrer krassen Ablehnung, das zumal in Deutschland zu beobachten ist?