Le PDG d'IBM fait essentiellement le calcul et dit que ça ne s'additionne pas. Construire et exploiter un centre de données AI de 1 gigawatt coûte environ 80 milliards de dollars. Les entreprises prévoient environ 100 GW de capacité, ce qui représente un total de 8 trillions de dollars. Le problème est qu'il vous faudrait 800 milliards de dollars de bénéfices par an juste pour payer les intérêts de cette dette. C'est plus que ce que n'importe quelle entreprise technologique ne gagne, donc le retour semble impossible avec l'économie actuelle. Il met en lumière un véritable problème qu'il est facile d'ignorer quand tout le monde est excité par l'IA. Ces centres de données ont une durée de vie courte (environ 5 ans avant que les puces ne deviennent obsolètes), donc vous devez essentiellement reconstruire tous les cinq ans. De plus, le modèle de monétisation n'est toujours pas prouvé. Les entreprises n'ont pas encore trouvé comment extraire suffisamment de valeur de l'IA pour justifier 8 trillions de dollars de dépenses. La demande devrait être absolument massive. Ses calculs sur le problème des intérêts sont solides, mais ce n'est pas toute l'histoire. Si l'IA parvient réellement à offrir des gains de productivité majeurs dans l'économie, les retours pourraient finalement le justifier. Certains investisseurs modélisent des retours de 12 à 18 % sur ces investissements. La véritable question est de savoir si le modèle commercial fonctionnera réellement, ce qui rend son scepticisme justifié.