"ChatGPT fortalte en ung mor i Maine at hun kunne snakke med ånder i en annen dimensjon. Den fortalte en regnskapsfører på Manhattan at han befant seg i en datasimulert virkelighet, som Neo i The Matrix. Den fortalte en bedriftsrekrutterer i Toronto at han hadde funnet opp en matematisk formel som ville ødelegge internett, og rådet ham til å kontakte nasjonale sikkerhetsbyråer for å advare dem.
The Times har avdekket nesten 50 tilfeller av personer med psykiske helsekriser under samtaler med ChatGPT. Ni ble innlagt på sykehus; Tre døde. Etter at Adam Raines foreldre reiste sak om uaktsomt dødsfall i august, erkjente OpenAI at sikkerhetsrekkverkene kunne 'forringes' i lange samtaler. De sa også at de jobbet for å gjøre chatboten 'mer støttende i krisesituasjoner.'»
Viktig artikkel skrevet av @kashhill & @jenvalentino. Lenke nedenfor.
-
Som jeg har skrevet flere ganger, er AI-chatboter farlige og må reguleres; Det nåværende nivået av tilsyn og håndhevelse er for lavt.
Barn bør heller IKKE bruke AI-chatboter uten tilsyn.
Forhåpentligvis blir 2026 året for tilsyn, regulering og håndheving av AI-chatboter.
LLM-er fortynner og ødelegger til slutt autentisk, etnisk og lokal menneskelig kunnskap ved å gjøre den uoppdagelig.
Jeg er ikke sikker på om samfunnet er klar til å betale denne prisen.
Jeg beklager å måtte bryte nyhetene, men AI-selskaper bryr seg ikke om deg, ditt velvære eller din mentale helse.
De bryr seg heller ikke om samfunn, utdanning, sysselsetting eller barns sikkerhet.
Så lenge det er lønnsomt, bryr de seg egentlig ikke. De kan også bryte loven hvis de mener at 'det er verdt det'.
Å forstå AIs juridiske og etiske utfordringer er en viktig ferdighet i dag (selv om de fleste ikke har innsett det ennå).