Ny antropisk forskning: Vi fant ut at bare noen få ondsinnede dokumenter kan produsere sårbarheter i en AI-modell – uavhengig av størrelsen på modellen eller treningsdataene. Dette betyr at dataforgiftningsangrep kan være mer praktiske enn tidligere antatt.