Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ca de obicei în cazul reglementărilor tehnologice, cred că multe proiecte de lege și proiecte de legi privind IA sunt deja învechite și în urmă față de tehnologie. Presupunerile de acum câțiva ani au dus la dependențe de căi de care este greu să deviezi. Multe dintre progresele AI de astăzi provin din post-training, schelă, utilizarea uneltelor și scalarea calculului de inferență: asta înseamnă că, chiar dacă modelele se îmbunătățesc de-a lungul anilor, nu doar laboratoarele împing frontiera a ceea ce este posibil efectiv, ci și multe companii care inovează pe modele. În plus, multe atenuări precum filtrele, clasificatorii, mecanismele de supraveghere etc. nu sunt aplicate modelului, ci schelelor software – ca urmare, multe propuneri legale care așteaptă ca daunele să fie atenuate la nivel de model nu sunt foarte eficiente. Oamenii au realizat acest lucru cu părtinire acum câțiva ani, iar acum din nou cu multe alte preocupări.
Pentru mine, aceste evoluții confirmă că (a) în primul rând, povara ar trebui să fie de a demonstra că legile existente și neglijența sunt insuficiente – foarte puțini fac acest lucru; (b) când nu sunt și există lacune, este mai bine să folosiți o reglementare bazată pe rezultate pentru a permite unui lanț complex de actori să negocieze atenuările/intervențiile adecvate; (c) acest lucru va necesita expertiză în domeniu și luarea în considerare a legilor, codurilor etc. specifice sectorului existente – adică nu a unor cerințe orizontale abstracte; (d) securitatea greutății modelului, evaluările care servesc drept caveat emptor și cerințele de transparență de bază ar putea avea totuși sens la nivelul modelului; (e) ai nevoie de reglementatori capabili care să înțeleagă suficient de profund modul în care este folosită inteligența artificială în domeniile lor.
Dar da, nu vei "atenua" amenințările cibernetice ofensive sau frauda asistată de AI prin ajustarea modelului. Abordările bazate pe entități nu rezolvă nimic din toate acestea și presupun pur și simplu că poți restrânge riscul (și atenuările asociate) la câțiva actori aceiași, în stil UE. Problema este că soluția adecvată nu este deosebit de atractivă și, practic, nu vine cu satisfacția de a "am abordat tot felul de riscuri printr-o singură intervenție la scară largă". Și că astfel va necesita confruntarea cu realitatea suprareglementărilor în multe sectoare și a lipsei în altele (cibernetică, biologică? depinde de modelul tău specific de amenințare).
Limită superioară
Clasament
Favorite
