🚨 Stanford har nettopp analysert personvernreglene til de seks største AI-selskapene i USA. Amazon. Antropisk. Google. Meta. Microsoft. OpenAI. Alle seks bruker samtalene dine til å trene modellene sine. Som standard. Uten å spørre meningsfullt. Her er hva artikkelen faktisk fant. Forskerne ved Stanford HI undersøkte 28 personverndokumenter på tvers av disse seks selskapene, ikke bare hovedpersonvernerklæringen, men alle tilknyttede underpolicyer, FAQ og veiledningssider som er tilgjengelige via chatgrensesnittene. De vurderte alle mot California Consumer Privacy Act, den mest omfattende personvernloven i USA. Resultatene er verre enn du tror. Hver eneste bedrift samler inn chatdataene dine og sender dem tilbake til modelltrening som standard. Noen beholder samtalene dine på ubestemt tid. Det er ingen utløpsdato. Ingen automatisk sletting. Dataene dine ligger bare der, for alltid, og mater fremtidige versjoner av modellen. Noen av disse selskapene lar menneskelige ansatte lese chattranskripsjonene dine som en del av opplæringsprosessen. Ikke anonymiserte sammendrag. Dine faktiske samtaler. Men her blir det virkelig farlig. For selskaper som Google, Meta, Microsoft og Amazon som også driver søkemotorer, sosiale medieplattformer, netthandelssider og skytjenester, blir ikke AI-samtalene dine liggende inne i chatboten. De blir slått sammen med alt annet selskapene allerede vet om deg. Din søkehistorikk. Dine kjøpsdata. Din aktivitet på sosiale medier. Dine opplastede filer. Forskerne beskriver et realistisk scenario som bør få deg til å stoppe opp: Du ber en AI-chatbot om hjertevennlige middagsoppskrifter. Modellen antar at du kan ha en hjerte- og karsykdom. Den klassifiseringen går gjennom selskapets bredere økosystem. Du begynner å se annonser for medisiner. Informasjonen når forsikringsdatabaser. Effektene bygger seg opp over tid. Dere delte et middagsspørsmål. Systemet bygde en helseprofil. ...