molti dei principali ricercatori stanno iniziando a sostenere che la scalabilità da sola non ci porterà all'AGI e che alla fine avremo bisogno di una grande scoperta di ricerca simile alla creazione dei trasformatori. Recentemente ho avuto l'opportunità di parlare con John Hennessy (il presidente di Alphabet) e gli ho chiesto se l'attuale tendenza alla scalabilità sia solo un'altra fase temporanea o un paradigma a sé stante. Ha detto che ci sono due domande chiave: se la scalabilità continuerà a portare progressi nella capacità di costruire sistemi di intelligenza artificiale in grado di fare ragionamenti complessi. Finora non abbiamo visto un arresto in questo, quindi la risposta non è chiaramente sì, ma probabilmente. La seconda domanda è se la scalabilità rimarrà conveniente, e la sua risposta a questo è stata no. Un indicatore utile da considerare è la performance per watt, e quella curva sta iniziando ad appiattirsi. Credo che stia diventando sempre più chiaro che anche se la scalabilità continua a migliorare le capacità dei modelli, il vero collo di bottiglia potrebbe non essere il rendimento decrescente, ma il costo energetico necessario per raggiungere sistemi di livello AGI e ASI. Il plateau non sta apparendo nelle prestazioni grezze, ma sta apparendo nelle prestazioni per watt. Il problema ASI alla fine si riduce a un problema energetico. Kardashev è.