Jak zwykle w przypadku regulacji technologicznych, uważam, że wiele ustaw i projektów ustaw dotyczących AI jest już przestarzałych i nie nadąża za technologią. Założenia sprzed kilku lat doprowadziły do zależności, z których trudno się wycofać. Wiele zysków w AI dzisiaj pochodzi z post-treningu, wsparcia, użycia narzędzi i skalowania obliczeń wnioskowania: oznacza to, że nawet jeśli modele poprawiają się z biegiem lat, to nie tylko laboratoria przesuwają granice tego, co jest efektywnie możliwe, ale wiele firm innowacyjnych pracuje nad modelami. Ponadto wiele środków zaradczych, takich jak filtry, klasyfikatory, mechanizmy nadzoru itp. nie jest stosowanych do modelu, ale do oprogramowania wspierającego - w rezultacie wiele propozycji prawnych oczekujących, że szkody będą łagodzone na poziomie modelu, nie jest zbyt skutecznych. Ludzie zdali sobie z tego sprawę w przypadku uprzedzeń kilka lat temu, a teraz znowu w przypadku wielu innych obaw. Dla mnie te wydarzenia potwierdzają, że (a) po pierwsze, ciężar dowodu powinien spoczywać na wykazaniu, że istniejące przepisy i zaniedbania są niewystarczające - bardzo niewielu to robi; (b) gdy tak nie jest i istnieją luki, lepiej jest stosować regulacje oparte na wynikach, aby umożliwić złożonemu łańcuchowi aktorów negocjowanie odpowiednich środków zaradczych/interwencji; (c) zrobienie tego będzie wymagało wiedzy specjalistycznej i uwzględnienia istniejących przepisów sektorowych, kodeksów itp. - tj. nie jakichś abstrakcyjnych wymagań horyzontalnych; (d) bezpieczeństwo wag modelu, oceny, które służą jako caveat emptor, oraz podstawowe wymagania dotyczące przejrzystości mogą nadal mieć sens na poziomie modelu; (e) potrzebujesz zdolnych regulatorów, którzy rozumieją, jak AI jest używane w ich sektorach wystarczająco głęboko. Ale tak, nie zamierzacie 'łagodzić' ofensywnych zagrożeń w cyberbezpieczeństwie ani oszustw wspomaganych przez AI, dostosowując model. Podejścia oparte na podmiotach również nie rozwiązują żadnego z tych problemów i po prostu zakładają, że można zawęzić ryzyko (i związane z nim środki zaradcze) do kilku tych samych aktorów, w stylu UE. Problem polega na tym, że odpowiednie rozwiązanie nie jest szczególnie atrakcyjne i zasadniczo nie wiąże się z satysfakcją z "zaadresowaliśmy wszelkiego rodzaju ryzyka poprzez jedną dużą interwencję." A zrobienie tego w ten sposób będzie wymagało stawienia czoła rzeczywistości nadregulacji w wielu sektorach i niedoborów w innych (cyber, bio? zależy od twojego konkretnego modelu zagrożeń).