En ting folk overser i debatten om AI-skalering: Wall Street mener at AI-infrastrukturen vokser for raskt og vil krasje; Silicon Valley mener at etterspørselen fortsatt stort sett er uutnyttet og at det er rom for vekst. Når folk ser på veksten til tidligere forbrukerteknologiplattformer: -elektrisitet -Internett - mobil OS og apper Det var vanligvis en etterspørselsside-maskinvarebegrensning som hindret veksten. - folk trengte lokale strømkabler og elektriske apparater for å dra nytte av elektrisitet - folk trengte personlige datamaskiner for å bruke internett - folk trengte mobiltelefoner for å bruke apper og mobil operativsystem Sannsynligvis ikke en ny innsikt, men i hvert tilfelle var det en flaskehals for forbrukermaskinvare for brukervekst. Med LLM-er / AI har flertallet av potensielle brukere allerede maskinvaren de trenger for å bli aktivert. De fleste som bruker AI har allerede en smarttelefon eller bærbar PC. Så – selv om det definitivt finnes begrensninger på tilbudssiden på datasentre og strømproduksjon – finnes det ingen tilsvarende etterspørselsside maskinvarebegrensning som begrenser LLM-tilgangen. Det betyr at skaleringskurver fra tidligere plattformskifter som strøm, internett og mobil sannsynligvis ikke er så prediktive som de kan virke.