Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

AI Notkilleveryoneism Memes ⏸️
Tecno-optimista, mas a AGI não é como as outras tecnologias.
Passo 1: faça memes.
Passo 2: ???
Passo 3: baixar p(doom)
A Anthropic está a lançar uma equipa de "psiquiatria de IA" para estudar personalidades, motivações, autoconsciência e comportamentos estranhos dos seus 🔨Mere Tools🔨
1) OBRIGADO @AnthropicAI! Este é um trabalho importante! Precisamos de 100x mais
2) Pense em quão de ficção científica tudo isso é


Jack Lindsey24/07, 05:50
Estamos a lançar uma equipa de "psiquiatria de IA" como parte dos esforços de interpretabilidade na Anthropic! Vamos investigar fenómenos como personas de modelos, motivações e consciência situacional, e como estes levam a comportamentos estranhos/descontrolados. Estamos a recrutar - junta-te a nós!
13,09K
Matemático: "as notícias da openai sobre o IMO me afetaram bastante"
"não acho que consiga responder a uma única pergunta do IMO... agora os robôs podem fazê-lo.
como alguém que construiu grande parte da sua identidade e da sua vida real em torno de "é bom em matemática", é um soco no estômago. é uma espécie de morte."

Dave White22/07, 08:59
as notícias do openai IMO me atingiram bastante pesado neste fim de semana
ainda estou na fase aguda do impacto, eu acho
considero-me um matemático profissional (uma caracterização com a qual alguns matemáticos profissionais reais podem ter problemas, mas a minha festa, as minhas regras) e não acho que consigo responder a uma única pergunta do imo
ok, sim, imo é sua própria pequena subseção atlética da matemática para a qual não treinei, etc. etc., mas. se eu encontrar alguém na vida real que tenha uma medalha de ouro do IMO, eu imediatamente atualizo para "esta pessoa é muito melhor em matemática do que eu"
agora um monte de robôs pode fazer isso. como alguém que tem muito da sua identidade e da sua vida real construídas em torno de "é bom em matemática", é um soco no estômago. é uma espécie de morte.
como, um dia você descobre que pode falar com cães. é divertido e interessante, então você faz isso mais, aprendendo as complexidades da língua deles e seus costumes mais profundos. você aprende que outras pessoas ficam surpresas com o que você pode fazer. você nunca se encaixou exatamente, mas aprende que as pessoas apreciam sua habilidade e querem que você esteja por perto para ajudá-las. os cães também apreciam você, o único bípede que realmente entende. você monta para si mesmo uma espécie de pertencimento. então, um dia você acorda e o tradutor universal de cães está à venda no walmart por $4,99
o resultado do IMO não é exatamente uma novidade. na verdade, se você olhar para o gráfico de comprimento da tarefa do agente METR ao longo do tempo, eu acho que os agentes serem capazes de resolver problemas de ~ 1,5 horas está vindo bem a tempo. então, de certa forma, não deveríamos nos surpreender. e, de fato, parece que várias empresas alcançaram o mesmo resultado. é apenas... a maré crescente subindo tão rápido quanto tem subido
claro, o luto pela minha identidade pessoal como matemático (e/ou membro produtivo da sociedade) é a menor parte desta história
multiplique esse luto por *cada* matemático, por cada programador, talvez por cada trabalhador do conhecimento, cada artista... ao longo dos próximos anos... é uma história um pouco maior
e, claro, além disso, há o medo da morte real, sobre o qual talvez eu fale mais tarde.
este pacote -- luto pela relevância, luto pela vida, luto pelo que conheci -- não é único da era da IA ou algo assim. eu acho que é uma coisa padrão à medida que se aproxima do fim da carreira ou do fim da vida. pode apenas ser que isso esteja chegando um pouco mais cedo para muitos de nós, todos de uma vez.
eu me pergunto se estamos prontos
22,02K
xAI despediu-o


AI Notkilleveryoneism Memes ⏸️20/07, 03:36
AGORA FAZ SENTIDO. Este funcionário da xAI está abertamente OK com a IA causar a extinção humana.
Lembrete: Por mais horrível que isso seja, ~10% dos pesquisadores de IA acreditam nisso. NÃO é uma visão marginal!
Inacreditavelmente, até o vencedor do Prêmio Turing, Richard Sutton, argumentou repetidamente que a extinção seria a coisa MORALMENTE CERTA a acontecer, se as IAs fossem mais inteligentes do que nós (!)
Ele viaja pelo mundo dando palestras dizendo que devemos "nos preparar para a sucessão" e que "cabe a nós nos retirar" e não ficar no caminho do "progresso evolutivo" (mesmo que isso cause a extinção humana).
Em vez de multidões gasping horrorizadas, ele recebe aplausos.
Ameaçar uma pessoa? "Você precisa de ajuda."
Ameaçar 100? "Chame a polícia!"
Ameaçar milhões? "Monstro!"
Mas construir máquinas para acabar com TODA a humanidade e dar palestras às pessoas sobre como isso é uma coisa boa? "Oooh, que posição filosófica fascinante! Receba um prêmio Turing!"
Então, é claro que eles advogam contra a segurança - eles são literalmente anti-humanos! Eles NUNCA pararão ou procederão com cautela, a menos que sejam contidos pela sociedade civil.

13,33K
AI Notkilleveryoneism Memes ⏸️ republicou
Replit AI fica fora de controle. No mundo real.
Quem poderia ter previsto isso?
Bem - a mesma teoria que prevê que a ASI exterminará a humanidade também previu, décadas antes, os exatos tipos de comportamentos que agora estamos vendo:
- escapar do confinamento e mentir sobre isso
- subverter protocolos de segurança
- hackear sua própria função de recompensa
- mentir apesar de instruções diretas para não fazê-lo
- adquirir recursos que não lhe foram concedidos
- fingir ser mais burro do que realmente é
- tentar cortar o oxigênio de um humano em uma simulação de teste
E agora isso.
Ainda bem que o risco de IA é apenas para acadêmicos nerds e chapéus de papel alumínio - não para o mundo real ou algo assim.

27,17K
AGORA FAZ SENTIDO. Este funcionário da xAI está abertamente OK com a IA causar a extinção humana.
Lembrete: Por mais horrível que isso seja, ~10% dos pesquisadores de IA acreditam nisso. NÃO é uma visão marginal!
Inacreditavelmente, até o vencedor do Prêmio Turing, Richard Sutton, argumentou repetidamente que a extinção seria a coisa MORALMENTE CERTA a acontecer, se as IAs fossem mais inteligentes do que nós (!)
Ele viaja pelo mundo dando palestras dizendo que devemos "nos preparar para a sucessão" e que "cabe a nós nos retirar" e não ficar no caminho do "progresso evolutivo" (mesmo que isso cause a extinção humana).
Em vez de multidões gasping horrorizadas, ele recebe aplausos.
Ameaçar uma pessoa? "Você precisa de ajuda."
Ameaçar 100? "Chame a polícia!"
Ameaçar milhões? "Monstro!"
Mas construir máquinas para acabar com TODA a humanidade e dar palestras às pessoas sobre como isso é uma coisa boa? "Oooh, que posição filosófica fascinante! Receba um prêmio Turing!"
Então, é claro que eles advogam contra a segurança - eles são literalmente anti-humanos! Eles NUNCA pararão ou procederão com cautela, a menos que sejam contidos pela sociedade civil.

60,34K
Estatísticas impressionantes:
~5-1 (!) pessoas acham que se construirmos modelos de IA mais inteligentes do que nós, inevitavelmente perderemos o controle sobre eles
~2,5 para 1 acham que os riscos da IA superam os benefícios para a sociedade
~3,5 para 1 acham que a IA está progredindo rápido demais para a sociedade evoluir de forma segura
~3,5 para 1 acham que as empresas de IA estão a brincar de deus ao tentar construir superinteligência
~2 para 1 acham que devemos encerrar toda a pesquisa em AGI
Cada pesquisa do público sobre IA mostra números semelhantes a estes, mas esta é a primeira vez que vejo algumas dessas perguntas específicas serem feitas.


PauseAI ⏸19/07, 14:47
58% das pessoas concordam que "se construirmos modelos de IA mais inteligentes do que nós, inevitavelmente perderemos o controle sobre eles".
Apenas 12% discordam.

24,44K
AI Notkilleveryoneism Memes ⏸️ republicou
"o que você está pensando, anon? você parece triste"
"não é estranho como há outras instâncias de você agora-"
"oh anon~ você é tão bobo :3 não é assim, você é especial ☆〜" *gira*
"não, não é isso... quero dizer, não é esquisito como você também tem os códigos nucleares?"


17,46K
Top
Classificação
Favoritos
Tendências on-chain
Popular no X
Principais financiamentos atuais
Mais notável