Sundar Pichai, CEO do Google, admitiu recentemente algo surpreendente (Guarde isto). O Google não entende completamente como os seus próprios sistemas de IA funcionam mais. Esta é uma mudança fundamental na forma como o desenvolvimento de IA está a acontecer neste momento. Quando os engenheiros do Google treinam estes enormes modelos de IA, não estão a codificar manualmente cada comportamento como no software mais antigo. Em vez disso, alimentam a IA com bilhões de dados e deixam-na descobrir padrões por conta própria. Uma vez que estes modelos se tornam incrivelmente grandes e complexos, começam a fazer coisas que ninguém programou explicitamente. A IA do Google aprendeu a entender e traduzir bengali, uma língua para a qual nunca foi especificamente treinada. Essa é a parte estranha, o sistema descobriu isso por si mesmo. Este fenômeno é chamado de comportamento emergente. Acontece porque, quando se aumenta um modelo para bilhões de parâmetros, algo muda. A um certo limiar, estes modelos desenvolvem subitamente capacidades que parecem quase intuitivas. Começam a raciocinar sobre problemas complexos, a trabalhar em línguas que não deveriam conhecer, a resolver tarefas para as quais nunca foram treinados. É como se a IA estivesse a ensinar-se a si mesma. A questão central é a desconexão entre capacidade e compreensão. O Google implementou sistemas de IA para milhões de pessoas sabendo que não têm um mapa completo de como esses sistemas chegam às suas conclusões. ...