L'AI mentirà sempre. Non è un bug, è una legge matematica. Io, studente di matematica alla Carnegie Mellon University, ti spiego perché con la matematica. Tutti i modelli linguistici fanno una sola cosa: predicono la parola successiva più probabile in base a tutto ciò che hanno letto. Ma c'è un nodo morto qui. Le ipotesi del modello, le chiamiamo q(x). La probabilità del mondo reale, la chiamiamo p(x). q(x) non potrà mai essere uguale a p(x). Tra di loro, ci sarà sempre un abisso. C'è una formula matematica che serve a misurare questo abisso. Finché il modello non può prevedere perfettamente la parola successiva non può questo abisso non sarà mai zero. Quindi, cosa succede quando l'AI non conosce la verità? Non può fermarsi, deve darti una risposta. Può solo andare avanti e fornire una risposta che pensa sia "la più simile". Anche se è sbagliata. Questo è ciò che chiamiamo "allucinazione". Un'ipotesi basata su informazioni incomplete, ma incredibilmente sicura. La cosa peggiore è che la matematica fornisce anche un limite inferiore. Anche il modello più perfetto non potrà mai avere un tasso di allucinazione inferiore a questo numero. ...