🚨СВЕЖИЕ НОВОСТИ: Главный научный сотрудник криптозащитной компании @Certora, Мули Сагив, предупреждает, что код, сгенерированный LLM, может вводить критические уязвимости в безопасность, «тихо пропуская сложную часть», после того как недавняя атака на @MoonwellDeFi была широко описана как первый инцидент DeFi с использованием кода с поддержкой ИИ. Он сказал, что LLM сопоставляют шаблоны, а не семантику, и часто делают необоснованные предположения, производя код, который кажется правильным, но может не сработать в реальных условиях и привести к уязвимостям, которые можно использовать.