Efter andra världskriget var Amerika aldrig ett imperium. Man kan upprepa uttrycket "amerikanskt imperium" om och om igen – och många gör det – men det var aldrig vad det var. Och att kalla det så gör det bara mycket svårare att förstå vad som hände.