Cosa non diciamo quando parliamo di AI in medicina: Lo standard di cura non è cura standard. Nuove modalità di cura (assistite da AI o meno) vengono sempre misurate rispetto a un "standard di cura" platonico che non esiste nella clinica reale. La medicina è tanto arte quanto scienza. I fornitori sono sovraccarichi di lavoro, stanchi, di fretta e si allontanano regolarmente dallo standard di cura dei testi. Le nuove modalità di cura vengono uccise sul nascere perché non possono misurarsi con il fornitore immaginario con tempo infinito e conoscenza infinita. Ma non è ciò che la maggior parte dei pazienti riceve oggi. Una cura imperfetta che si adatta a molti più pazienti è un evidente bene morale, ma il nostro attuale standard rende quasi impossibile. Ogni fornitore comprende che il vero standard di cura devia. Non tutto è bianco e nero. La fisiologia non si adatta a percorsi puliti dei testi. Le aree grigie sono dove brillano i grandi clinici. Non permetteremmo mai ai sistemi di AI di operare in quelle stesse zone grigie, anche se è lì che avviene la maggior parte della cura reale. Non parliamo mai nemmeno dei pazienti che non vediamo. I giudizi dei clinici su "come funziona la sanità" provengono dai pazienti davanti a loro. Non vedono i pazienti che non riescono mai a entrare, o quelli che sono morti o molto più malati a causa di qualcosa che è accaduto a monte: cattivo accesso, nessun accesso o cattiva cura. Facciamo fatica a ragionare sull'enorme popolazione che esiste completamente al di fuori dell'attuale sistema sanitario — invisibile a causa della mancanza di fiducia, mancanza di accesso, geografia, programmazione, assistenza all'infanzia, lavoro, ecc. La cura assistita da AI, orientata al consumatore, potrebbe essere uno dei pochi modi per raggiungere molti di questi pazienti dove si trovano realmente. Tutti sono terrorizzati dalle "allucinazioni" e dagli errori dell'AI. Ma anche i fornitori allucinano. Gli errori medici sono stimati come una delle principali cause di morte negli Stati Uniti. La differenza è che quando un clinico umano commette un errore, abbiamo leggi sulla malpractice, quadri di responsabilità e trilioni di dollari di assicurazione avvolti attorno a quella realtà. Man mano che i sistemi di AI migliorano e rappresentano una quota maggiore del reale processo decisionale, dovremo rispondere a domande fondamentali: dobbiamo licenziare e assicurare i modelli come facciamo con i clinici, o i fornitori ereditano semplicemente il rischio di usarli? La sanità non è nemmeno "lindy". L'assicurazione sanitaria privata nella sua forma moderna è decollata negli anni '50. Medicare e Medicaid sono stati lanciati negli anni '60. La maggior parte del sistema che trattiamo come sacro è più giovane di molti degli esecutivi che lo gestiscono. Non c'è motivo di credere che debba esistere nella sua forma attuale per il prossimo secolo. La scelta del consumatore è il canarino. La nostra crisi di costi e accesso è guidata da un insieme ristretto di attori in cerca di rendita che non hanno alcun reale incentivo a migliorare nulla. La sanità assistita da AI, orientata al consumatore, mostrerà alla fine che una cura più economica e migliore è effettivamente possibile — e facendo ciò, esporrà gran parte del sistema esistente come una truffa. È tempo di (ri)costruire la fiducia. In questo momento, molti fornitori agiscono come se la seconda cosa peggiore che può entrare nel loro dipartimento sia un VC o un dirigente tecnologico. Questa sfiducia è guadagnata. La tecnologia ha promesso troppo e ha mantenuto poco nella sanità per decenni. Ma rimanere in questa postura per sempre non risolverà nulla. L'unico modo per uscire da questa crisi è prendere sul serio l'idea che questa volta potrebbe essere davvero diversa — e poi tenere le persone responsabili.