Sundar Pichai, CEO do Google, recentemente admitiu algo marcante (Salve isto). O Google não entende mais totalmente como seus próprios sistemas de IA funcionam. Essa é uma mudança fundamental na forma como o desenvolvimento da IA está acontecendo atualmente. Quando os engenheiros do Google treinam esses modelos massivos de IA, eles não codificam manualmente todos os comportamentos como softwares antigos. Em vez disso, eles alimentam a IA com bilhões de dados e a deixam descobrir padrões por conta própria. Quando esses modelos ficam incrivelmente grandes e complexos, eles começam a fazer coisas que ninguém programou explicitamente para fazer. A IA do Google aprendeu a entender e traduzir bengali, uma língua na qual nunca foi especificamente treinada. Essa é a parte estranha, o sistema descobriu sozinho. Esse fenômeno é chamado de comportamento emergente. Isso acontece porque, quando você escala um modelo para bilhões de parâmetros, algo muda. Em certo limite, esses modelos desenvolvem de repente capacidades que parecem quase intuitivas. Eles começam a raciocinar em problemas complexos, trabalhando em linguagens que não deveriam conhecer, resolvendo tarefas para as quais nunca foram treinados. É como se a IA estivesse se ensinando sozinha. A questão central é a desconexão entre capacidade e compreensão. O Google implantou sistemas de IA para milhões de pessoas sabendo que elas não têm um mapa completo de como esses sistemas chegam às suas conclusões. ...