Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Como é habitual com a regulação tecnológica, penso que muitos projetos de lei e propostas sobre IA já estão obsoletos e atrasados em relação à tecnologia. Suposições de alguns anos atrás levaram a dependências de caminho que são difíceis de desviar. Muitos ganhos em IA hoje vêm do pós-treinamento, estruturação, uso de ferramentas e escalonamento de computação de inferência: isso significa que, mesmo que os modelos melhorem ao longo dos anos, não são apenas os laboratórios que empurram a fronteira do que é efetivamente possível, mas muitas empresas inovando nos modelos. Além disso, muitas mitig ações como filtros, classificadores, mecanismos de supervisão, etc., não são aplicadas ao modelo, mas à estrutura de software - como resultado, muitas propostas legais que esperam que os danos sejam mitigados a nível do modelo não são muito eficazes. As pessoas perceberam isso com o viés há alguns anos, e agora novamente com muitas outras preocupações.
Para mim, esses desenvolvimentos confirmam que (a) primeiro, o ônus deve estar em mostrar que as leis existentes e a negligência são insuficientes - muito poucos fazem isso; (b) quando não são e existem lacunas, é melhor optar por uma regulação baseada em resultados para permitir que uma cadeia complexa de atores negocie as mitig ações/intervenções apropriadas; (c) fazer isso exigirá especialização no domínio e considerar as leis e códigos específicos do setor existentes - ou seja, não alguns requisitos horizontais abstratos; (d) a segurança do peso do modelo, avaliações que servem como caveat emptor e requisitos básicos de transparência ainda podem fazer sentido a nível do modelo; (e) você precisa de reguladores capazes que entendam como a IA é usada em seus setores de forma suficientemente profunda.
Mas sim, você não vai 'mitigar' ameaças cibernéticas ofensivas ou fraudes assistidas por IA apenas ajustando o modelo. Abordagens baseadas em entidades também não resolvem nada disso e apenas assumem que você pode restringir o risco (e as mitig ações associadas) a alguns mesmos atores, estilo UE. O problema é que a solução apropriada não é particularmente atraente e basicamente não vem com a satisfação de "abordamos todos os tipos de riscos através de uma única intervenção em grande escala." E que fazer isso dessa forma exigirá enfrentar a realidade da superregulação em muitos setores e a escassez em outros (ciber, biológico? depende do seu modelo de ameaça específico).
Top
Classificação
Favoritos
