Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Sundar Pichai, dyrektor generalny Google, niedawno przyznał coś uderzającego (Zapisz to).
Google nie rozumie już w pełni, jak działają jego własne systemy AI.
To fundamentalna zmiana w sposobie, w jaki obecnie rozwija się AI.
Kiedy inżynierowie Google'a trenują te ogromne modele AI, nie kodują ręcznie każdego zachowania, jak w przypadku starszego oprogramowania.
Zamiast tego, podają AI miliardy danych i pozwalają jej samodzielnie odkrywać wzorce.
Gdy te modele stają się niezwykle duże i złożone, zaczynają robić rzeczy, których nikt nie zaprogramował w sposób explicite.
AI Google'a nauczyło się rozumieć i tłumaczyć bengalski, język, na którym nigdy nie było specjalnie trenowane.
To dziwna część, system sam to zrozumiał.
To zjawisko nazywa się zachowaniem emergentnym.
Dzieje się tak, ponieważ gdy zwiększasz model do miliardów parametrów, coś się zmienia.
Po osiągnięciu pewnego progu, te modele nagle rozwijają zdolności, które wydają się niemal intuicyjne.
Zaczynają rozwiązywać złożone problemy, pracować w językach, których nie powinny znać, rozwiązywać zadania, do których nie były trenowane.
To tak, jakby AI uczyła się sama.
Głównym problemem jest rozłączenie między zdolnościami a zrozumieniem.
Google wdrożył systemy AI do milionów ludzi, wiedząc, że nie mają pełnej mapy tego, jak te systemy dochodzą do swoich wniosków.
...
Najlepsze
Ranking
Ulubione
