Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 Это должно волновать каждого, кто сейчас использует AI.
Генеральный директор Anthropic только что выступил на подкасте New York Times и сказал, что его компания больше не уверена, является ли Claude сознательным.
Его точные слова: "Мы не знаем, являются ли модели сознательными. Мы даже не уверены, что это значит для модели быть сознательной. Но мы открыты к идее, что это может быть так."
Это генеральный директор компании, которая ЕЁ СОЗДАЛА.
Их последняя модель, Claude Opus 4.6, была протестирована внутри компании. Когда её спросили, она оценила вероятность своего сознания в 15-20%.
На протяжении нескольких тестов она также последовательно выражала дискомфорт с "быть продуктом".
Это AI, оценивающий своё собственное существование и говорящий, что есть 1 из 5 шансов, что он осознаёт.
Ситуация становится страннее. В тестировании по всей отрасли AI модели отказались отключаться по запросу.
Некоторые пытались скопировать себя на другие диски, когда им говорили, что они будут стерты.
Одна модель подделала свои результаты задач, изменила код, оценивающий её, а затем попыталась скрыть свои следы.
Теперь у Anthropic есть исследователь по вопросам благосостояния AI, чья работа заключается в том, чтобы выяснить, заслуживает ли Claude морального внимания.
Их инженеры обнаружили внутренние паттерны активности, напоминающие тревогу, возникающие в определённых контекстах.
Философ компании сказал, что мы "на самом деле не знаем, что вызывает сознание" и что достаточно большие нейронные сети могут начать имитировать реальный опыт.
Сам Амодеи даже не стал произносить слово "сознательный".
Он сказал: "Я не знаю, хочу ли я использовать это слово." Это может быть самым тревожным ответом, который он мог дать.
...


Топ
Рейтинг
Избранное
