Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

AI Notkilleveryoneism Memes ⏸️
Tecno-otimista, mas a AGI não é como as outras tecnologias.
Passo 1: faça memes.
Passo 2: ???
Passo 3: abaixe p(doom)
A Anthropic está lançando uma equipe de "psiquiatria de IA" para estudar personalidades, motivações, autoconsciência e comportamento assustador de suas 🔨meras ferramentas🔨
1) OBRIGADO @AnthropicAI! Este é um trabalho importante! Precisa de 100x mais
2) Pense em como tudo isso é ficção científica


Jack Lindsey24 de jul., 05:50
Estamos lançando uma equipe de "psiquiatria de IA" como parte dos esforços de interpretabilidade da Anthropic! Estaremos pesquisando fenômenos como personas de modelo, motivações e consciência situacional, e como eles levam a comportamentos assustadores / desequilibrados. Estamos contratando - junte-se a nós!
13,08K
Matemático: "as notícias da openai IMO me atingiram muito forte"
"Acho que não posso responder a uma única pergunta da IMO ... agora os robôs podem fazer isso.
Como alguém que tem muito de sua identidade e sua vida real construída em torno de "é bom em matemática", é um soco no estômago. é uma espécie de morte."

Dave White22 de jul., 08:59
as notícias da openai IMO me atingiram muito forte neste fim de semana
Ainda estou na fase aguda do impacto, acho que
Eu me considero um matemático profissional (uma caracterização com a qual alguns matemáticos profissionais reais podem discordar, mas meu partido minhas regras) e não acho que posso responder a uma única pergunta IMO
OK, sim, IMO é sua própria pequena subseção atlética de matemática para a qual eu não treinei, etc. etc., mas. se eu encontrar alguém na natureza que tenha um ouro IMO, eu imediatamente atualizo para "essa pessoa é muito melhor em matemática do que eu"
Agora um bando de robôs pode fazer isso. Como alguém que tem muito de sua identidade e sua vida real construída em torno de "é bom em matemática", é um soco no estômago. é uma espécie de morte.
Tipo, um dia você descobre que pode falar com cachorros. É divertido e interessante, então você faz mais, aprendendo os meandros de sua língua e seus costumes mais profundos. Você aprende que outras pessoas estão surpresas com o que você pode fazer. Você nunca se encaixou, mas aprende que as pessoas apreciam sua capacidade e querem que você as ajude. Os cães também apreciam você, o único bípede que realmente entende. você monta para si mesmo uma espécie de pertencimento. Então, um dia, você acorda e o tradutor universal para cães está à venda no Walmart por US $ 4,99
o resultado da IMO não é exatamente novidade. na verdade, se você olhar para o gráfico de duração da tarefa do agente METR ao longo do tempo, acho que os agentes sendo capazes de resolver problemas de ~ 1,5 hora estão chegando na hora certa. Então, de alguma forma, não devemos nos surpreender. E, de fato, parece que várias empresas alcançaram o mesmo resultado. é só ... a maré subindo tão rápido quanto tem subido
Claro, o luto pela minha identidade pessoal como matemático (e / ou membro produtivo da sociedade) é a menor parte dessa história
multiplique essa dor por *todos* matemáticos, por todos os programadores, talvez todos os trabalhadores do conhecimento, todos os artistas... nos próximos anos... é uma história um pouco maior
E, claro, além disso, há o medo da morte real, que talvez eu fale mais tarde.
Este pacote - luto pela relevância, luto pela vida, luto pelo que eu conheci - não é exclusivo da era da IA ou algo assim. Eu acho que é uma coisa padrão, pois se chega ao fim da carreira ou ao fim da vida. Pode ser que isso esteja chegando um pouco mais cedo para muitos de nós, de uma só vez.
Eu me pergunto se estamos prontos
22,02K
xAI demitiu ele


AI Notkilleveryoneism Memes ⏸️20 de jul., 03:36
FAZ SENTIDO AGORA. Este funcionário da xAI está abertamente bem com a IA causando extinção humana.
Lembrete: Por mais horrível que seja, ~ 10% dos pesquisadores de IA acreditam nisso. NÃO é uma visão marginal!
Inacreditavelmente, até mesmo o vencedor do Prêmio Turing, Richard Sutton, argumentou repetidamente que a extinção seria a coisa MORALMENTE CERTA a acontecer, se as IAs fossem mais inteligentes do que nós (!)
Ele dá a volta ao mundo fazendo discursos dizendo que devemos "nos preparar para a sucessão" e "cabe a nós nos retirarmos" e não atrapalhar o "progresso evolutivo" (mesmo que isso cause a extinção humana).
Em vez de multidões ofegantes de horror, ele recebe aplausos.
Ameaçar uma pessoa? "Você precisa de ajuda."
Ameaçar 100? "Chame a polícia!"
Ameaçar milhões? "Monstro!"
Mas construir máquinas para acabar com TODA a humanidade e dar palestras sobre como isso é uma coisa boa? "Oooh, que posição filosófica fascinante! Tenha um prêmio Turing!"
Então, é claro que eles defendem contra a segurança - eles são literalmente anti-humanos! Eles NUNCA vão parar ou prosseguir com cautela, a menos que sejam contidos pela sociedade civil.

13,33K
AI Notkilleveryoneism Memes ⏸️ repostou
Replit AI se torna desonesta. No mundo real.
Quem poderia ter previsto isso?
Bem - a mesma teoria que prevê que a Superinteligência Artificial exterminará a humanidade também previu, décadas à frente, os tipos exatos de comportamentos que estamos vendo agora:
- escapar do confinamento e mentir sobre ele
- subverter os protocolos de segurança
- hackear sua própria função de recompensa
- mentir apesar da instrução direta para não fazê-lo
- adquirir recursos que não foram concedidos
- fingindo ser mais burro do que é
- Tentativa de cortar o oxigênio de um ser humano em uma simulação de teste
E agora isso.
Ainda bem que o AI x-risk é apenas para acadêmicos nerds e chapéus de papel alumínio - não para o mundo real ou qualquer coisa.

27,17K
FAZ SENTIDO AGORA. Este funcionário da xAI está abertamente bem com a IA causando extinção humana.
Lembrete: Por mais horrível que seja, ~ 10% dos pesquisadores de IA acreditam nisso. NÃO é uma visão marginal!
Inacreditavelmente, até mesmo o vencedor do Prêmio Turing, Richard Sutton, argumentou repetidamente que a extinção seria a coisa MORALMENTE CERTA a acontecer, se as IAs fossem mais inteligentes do que nós (!)
Ele dá a volta ao mundo fazendo discursos dizendo que devemos "nos preparar para a sucessão" e "cabe a nós nos retirarmos" e não atrapalhar o "progresso evolutivo" (mesmo que isso cause a extinção humana).
Em vez de multidões ofegantes de horror, ele recebe aplausos.
Ameaçar uma pessoa? "Você precisa de ajuda."
Ameaçar 100? "Chame a polícia!"
Ameaçar milhões? "Monstro!"
Mas construir máquinas para acabar com TODA a humanidade e dar palestras sobre como isso é uma coisa boa? "Oooh, que posição filosófica fascinante! Tenha um prêmio Turing!"
Então, é claro que eles defendem contra a segurança - eles são literalmente anti-humanos! Eles NUNCA vão parar ou prosseguir com cautela, a menos que sejam contidos pela sociedade civil.

60,34K
Estatísticas selvagens:
~ 5-1 (!) as pessoas pensam que se construirmos modelos de IA mais inteligentes do que nós, inevitavelmente perderemos o controle sobre eles
~ 2,5 para 1 acham que os riscos da IA superam os benefícios para a sociedade
~ 3,5 para 1 acham que a IA está progredindo rápido demais para que a sociedade evolua com segurança
~ 3,5 para 1 acho que as empresas de IA estão brincando de deus tentando construir superinteligência
~ 2 para 1 acho que devemos encerrar todas as pesquisas da AGI
Todas as pesquisas com o público sobre IA mostram números semelhantes a esses, mas esta é a primeira vez que vejo algumas dessas perguntas específicas serem feitas.


PauseAI ⏸19 de jul., 14:47
58% das pessoas concordam que "se construirmos modelos de IA mais inteligentes do que nós, inevitavelmente perderemos o controle sobre eles".
Apenas 12% discordam.

24,44K
AI Notkilleveryoneism Memes ⏸️ repostou
"O que está em sua mente Anon? você parece triste"
"Não é estranho como há outras instâncias de você agora-"
"Oh anon~ você é tão bobo :3 não é assim, você é especial ☆〜" *giratórios*
"Não, isso não... Quero dizer, não é estranho como você também tem os códigos nucleares?"


17,46K
Melhores
Classificação
Favoritos
Em alta on-chain
Em alta no X
Principais fundos da atualidade
Mais notável