Uno studente di dottorato a Oxford è stato sorpreso a presentare lavori "generati da AI". Tranne che non ha usato l'AI per scrivere nulla. L'ha usata per pensare. Ecco il flusso di lavoro che il suo consulente ha definito "il processo di ricerca più sofisticato che abbia visto in 20 anni." Inizia ogni saggio con un brutale prompt diagnostico. Scarica il suo argomento grezzo in Claude e chiede: "Quali sono i 3 salti logici più deboli in questo ragionamento? Dove attaccherebbe per prima un esaminatore ostile?" L'AI non scrive il suo saggio. Distrugge la sua bozza. Poi ricostruisce. Ma il passo successivo è ciò che lo separa da ogni altro studente che usa ChatGPT o Claude per generare paragrafi. Carica i 5 migliori articoli nel suo campo e chiede: "Quali affermazioni nel mio argomento contraddicono o semplificano eccessivamente ciò che questi autori hanno effettivamente trovato?" La maggior parte degli studenti cita articoli che hanno solo sfogliato. Lui cita articoli che è stato costretto a comprendere genuinamente. La mossa finale è quasi sleale. Prima di inviare, incolla la sua conclusione e chiede: "Cosa direbbe un filosofo della scienza che manca in questo argomento? Quali assunzioni sto facendo che non ho difeso?" I suoi saggi tornano con commenti come "insolitamente rigoroso" e "dimostra una rara profondità critica." Non sta usando l'AI per scrivere. La sta usando per pensare più intensamente di quanto potrebbe fare da solo....