Kromě předtréninku si představuji, že většina učení bude fungovat. 1. Modely / systémy AI budou udržovat velké sbírky získatelných znalostí. To bude zahrnovat fakta jako "hlavním městem Kalifornie je Sacramento" a taktiky jako "když hrajete Monopoly, kupte si spoustu nemovitostí hned na začátku" nebo "ujistěte se, že výchozí argumenty v Pythonu nejsou proměnlivé". Systém načte relevantní fakta / poznatky / taktiky k plnění úkolů. 2. Umělá inteligence bude přijímat všechny typy dat (knihy, kódové základny, zpravodajské články, streamované smyslové vstupy). K tomu dojde v době školení i při nasazení k provádění úkolů. 3. Když se systém setká s novými daty, bude mít silný důvod k tomu, aby těmto datům dával smysl, zejména aby jim dával smysl v kontextu stávajících znalostí systému. Pokud jsou data těžko srozumitelná, např. technický výzkumný článek, bude tento proces velmi výpočetně náročný a výstup uvažování bude destilován do nové sady poznatků, taktik a faktů, které jsou uloženy ve znalostech systému (spolu s odkazy na nezpracovaná data, ze kterých byly poznatky odvozeny). Pokud je nová znalost v rozporu s existujícími získanými fakty, dojde k dalšímu zdůvodnění, které se pokusí rozpor vyřešit, a stávající fakta ve sbírce znalostí budou aktualizována (spolu s kontextem o důvodu aktualizace). To má několik pěkných vlastností. - Způsob, jak odstranit nebo opravit nesprávné znalosti, když umělá inteligence shromažďuje nové informace. - Určitá interpretovatelnost toho, co model ví a jaké jsou jeho strategie pro provádění úkolů. Také možnost auditovat / kontrolovat, co model ví. - Způsob, jak těžit z uvažování v době tréninku na rozdíl od pouhého uvažování v době odvozování a následného zahození těžce vydělaných poznatků. - Tento druh uvažování o čase školení má potenciál být mnohem efektivnější z hlediska dat, ale mnohem náročnější na výpočetní výkon. Tento proces uvažování o čase tréninku, ukládání znalostí a získávání by mohl vzniknout se správnou architekturou, ale očekávám, že bude zpočátku zapracován.