Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Come al solito con la regolamentazione tecnologica, penso che molte leggi e progetti di legge sull'AI siano già obsoleti e indietro rispetto alla tecnologia. Le assunzioni di qualche anno fa hanno portato a dipendenze di percorso da cui è difficile deviare. Molti guadagni nell'AI oggi derivano dal post training, dall'uso di strutture, dall'uso di strumenti e dalla scalabilità del calcolo inferenziale: questo significa che anche se i modelli migliorano nel corso degli anni, non sono solo i laboratori a spingere il confine di ciò che è effettivamente possibile, ma molte aziende che innovano sui modelli. Inoltre, molte mitigazioni come filtri, classificatori, meccanismi di supervisione, ecc. non vengono applicate al modello ma alla struttura software - di conseguenza, molte proposte legali che si aspettano che i danni siano mitigati a livello di modello non sono molto efficaci. Le persone si sono rese conto di questo con il bias qualche anno fa, e ora di nuovo con molte altre preoccupazioni.
Per me, questi sviluppi confermano che (a) prima di tutto, l'onere dovrebbe essere dimostrare che le leggi esistenti e la negligenza sono insufficienti - molto pochi lo fanno mai; (b) quando non lo sono e ci sono lacune, è meglio avere una regolamentazione basata sui risultati per consentire a una complessa catena di attori di negoziare le appropriate mitigazioni/interventi; (c) farlo richiederà competenze specifiche e considerare le leggi e i codici esistenti specifici per il settore, cioè non alcuni requisiti orizzontali astratti; (d) la sicurezza del peso del modello, le valutazioni che fungono da caveat emptor e i requisiti di trasparenza di base potrebbero ancora avere senso a livello di modello; (e) hai bisogno di regolatori capaci che comprendano profondamente come l'AI viene utilizzata nei loro settori.
Ma sì, non riuscirai a 'mitigare' le minacce informatiche offensive o le frodi assistite dall'AI semplicemente modificando il modello. Gli approcci basati su entità non risolvono nulla di tutto ciò e presumono solo che tu possa ridurre il rischio (e le mitigazioni associate) a pochi stessi attori, in stile UE. Il problema è che la soluzione appropriata non è particolarmente attraente e fondamentalmente non offre la soddisfazione di "abbiamo affrontato tutti i tipi di rischi attraverso un'unica grande intervento su larga scala." E che farlo in questo modo richiederà di affrontare la realtà dell'overregolamentazione in molti settori e della scarsità in altri (cyber, bio? dipende dal tuo specifico modello di minaccia).
Principali
Ranking
Preferiti
