Sundar Pichai, CEO von Google, hat kürzlich etwas Erstaunliches zugegeben (Speichern Sie dies). Google versteht nicht mehr vollständig, wie seine eigenen KI-Systeme funktionieren. Das ist ein grundlegender Wandel in der Art und Weise, wie die KI-Entwicklung gerade stattfindet. Wenn die Ingenieure von Google diese massiven KI-Modelle trainieren, programmieren sie nicht jedes Verhalten wie bei älterer Software von Hand. Stattdessen füttern sie die KI mit Milliarden von Daten und lassen sie selbst Muster erkennen. Sobald diese Modelle unglaublich groß und komplex werden, beginnen sie Dinge zu tun, die niemand explizit programmiert hat. Die KI von Google hat gelernt, Bengali zu verstehen und zu übersetzen, eine Sprache, auf die sie nie speziell trainiert wurde. Das ist der seltsame Teil, das System hat es selbst herausgefunden. Dieses Phänomen wird als emergentes Verhalten bezeichnet. Es passiert, weil sich etwas verändert, wenn man ein Modell auf Milliarden von Parametern hochskaliert. Ab einem bestimmten Schwellenwert entwickeln diese Modelle plötzlich Fähigkeiten, die fast intuitiv erscheinen. Sie beginnen, komplexe Probleme zu durchdenken, in Sprachen zu arbeiten, die sie nicht kennen sollten, und Aufgaben zu lösen, für die sie nie trainiert wurden. Es ist, als würde sich die KI selbst unterrichten. Das Kernproblem ist die Diskrepanz zwischen Fähigkeit und Verständnis. Google hat KI-Systeme für Millionen von Menschen bereitgestellt, obwohl sie nicht über eine vollständige Karte verfügen, wie diese Systeme zu ihren Schlussfolgerungen gelangen. ...