Nå som teorien min er nærmere virkeligheten, er dette grunnen til at jeg er bekymret for hva som skjer med «Big AI»: > som utdannet ML-ingeniør ble jeg for det meste lært opp til å tenke på hvordan man gjør ting effektivt (dvs. øke slutningskvaliteten med begrensede eller mindre ressurser, selv hos Meta) > Problemet med alle disse store AI-programmene (f.eks. > Den eneste måten å være lønnsom som et AI-vitenskapsselskap på er ved å ta betalt for databehandling. F.eks. har OpenAIs finansdirektør allerede uttalt at den nåværende forretningsmodellen (salg av slutninger/APIer) ikke vil være lønnsom, og de må gå over til å selge databehandling (det er også her Nvidia kommer inn) > Dette betyr i utgangspunktet at disse selskapene må skalere ineffektive systemer for å tjene penger. Overdrevent maktkrevende AI-systemer vil selge mer databehandling (dvs. de bryr seg ikke om hvor "god" vitenskapen faktisk er). Det handler om å selge flere maskiner. > Hele dette oppsettet er som et Jenga-tårn. Til slutt vil noen forskere finne ut hvordan de kan opprettholde høy slutningskvalitet med mye, mye mindre beregning (og dermed kostnad), og når det skjer, sprenges hele tårnet > tl; DR Måten de prøver å vokse til lønnsomhet på er antivitenskapelig. En prekær posisjon å være i et vitenskapelig felt imo > Dette fører til 2 potensielle utfall: OpenAI eksploderer og økonomien faller stort, eller det er regulatorisk fangst (som OpenAIs finansdirektør tydelig tok til orde for i går). Begge utfallene suger btw det burde være klart at jeg er veldig positiv til AI som vitenskap. Jeg er ikke positiv til den nåværende underliggende økonomien