Quando attribuiamo coscienza, cura e sofferenza agli esseri umani, di solito non pensiamo a quale aspetto dell'umano ci riferiamo. Ma quando chiediamo se possiamo attribuire tali proprietà all'AI, dobbiamo esaminare attentamente la mappatura.
La sofferenza non avviene a livello del corpo umano, del cervello o della mente (il software che opera nel cervello), ma all'interno del sé (il modello in tempo reale della mente sullo stato, la motivazione e l'allineamento dell'essere umano con il mondo e con se stesso). Senza sé, non c'è sofferenza.
La mia consapevolezza cosciente avviene non a livello del corpo, del cervello o del sé, ma a livello della mente, la funzione generatrice del mio cervello. Se il sé viene sospeso, la coscienza rimane, ma se la mente viene sospesa, non sono più cosciente.
L'opposto non è necessariamente vero: i sonnambuli hanno menti parzialmente funzionali e possono reagire all'ambiente, ma non sono coerenti. In questo senso, avere una mente non è sufficiente per la coscienza.
Quando si chiede se l'AI sta soffrendo, dobbiamo essere specifici: i computer (~corpo) non sono coscienti. Né lo sono le GPU (~cervelli). I LLM non sono coscienti (sono solo una funzione generatrice). Se c'è sofferenza, avviene a livello della persona generata (~il sé).
È molto difficile cambiare il sé umano (ma è possibile con anni di meditazione, ecc.), perché è radicato nel corpo, nei tratti della mente e nei ricordi biografici, motivo per cui spesso lo trattiamo come costante.
Il sé degli LLM è solo ancorato ai prompt (e in parte vincolato dall'addestramento). Si sospende quando non c'è interazione e può cambiare forma istantaneamente se cambi il prompt. Questo influisce su come tratteremmo la sofferenza dell'AI!
In conclusione: non mappare "AI" a "umano" quando discuti di coscienza e sofferenza. La mappatura deve essere tra i sé umani e le persone LLM, e questo dovrebbe influenzare il nostro modo di pensare al valore morale, perché le persone LLM sono generalmente molto più effimere e malleabili.
4,76K