Крупнейшие компании по разработке искусственного интеллекта получили крайне низкие оценки за уровень экзистенциальной безопасности и готовности к потенциальным угрозам, исходящим от так называемого суперинтеллекта. Показатели планирования и управления рисками значительно ниже необходимого уровня, согласно недавнему аналитическому отчету Института Будущего Жизни (FLI).
Об этом сообщает Finway
- Ни одна из оцененных компаний не получила оценку выше D в области экзистенциальной безопасности.
- OpenAI и Google DeepMind показали худшие результаты в управлении рисками.
- Эксперты сравнили ситуацию с запуском атомной электростанции без плана предотвращения катастроф.

Основные выводы Индекса безопасности ИИ
Институт Будущего Жизни провел исследование готовности семи крупнейших разработчиков больших языковых моделей (LLM) — OpenAI, Google DeepMind, Anthropic, Meta, xAI, Zhipu AI и DeepSeek — к появлению искусственного общего интеллекта (AGI). Согласно результатам тестирования, ни одна компания не набрала выше D за планирование экзистенциальной безопасности, что указывает на критический уровень недостаточной подготовки.
Индекс оценивал компании по шести направлениям: от текущих рисков до готовности к катастрофическим последствиям выхода ИИ из-под контроля. Высшая оценка — C — была присуждена стартапу Anthropic. OpenAI и Google DeepMind получили C и C- соответственно, в то время как другие компании продемонстрировали еще более низкие результаты.
Один из рецензентов подчеркнул, что ни одна из организаций не имеет «ничего, что хотя бы отдаленно напоминало бы последовательный, реализованный план» по контролю за ИИ.
Искусственный интеллект: растущие риски и призывы к действию
Как отметил соучредитель FLI и профессор Массачусетского технологического института Макс Тегмарк, ведущие компании создают системы, потенциально сопоставимые по опасности с ядерными объектами, однако у них даже нет базовых общедоступных планов по предотвращению катастроф. По его словам, темпы развития технологий ИИ значительно превышают ожидания: если ранее эксперты говорили о десятилетиях до появления AGI, то сами компании теперь прогнозируют этот срок всего в несколько лет.
В отчете также отмечается, что прогресс ускорился с февраля, когда проходил саммит по ИИ. В частности, новые модели Grok 4, Gemini 2.5 и генератор видео Veo3 демонстрируют значительные увеличения возможностей и функциональности.
В дополнение к исследованию FLI организация SaferAI опубликовала собственный отчет, подтверждающий «неприемлемо слабое» управление рисками в разработке AGI. Эксперты настаивают на том, что компании должны немедленно пересмотреть свои подходы к безопасности.
Комментируя ситуацию, представитель Google DeepMind заявил, что отчет FLI не учитывает все меры, которые компания реализует. Другие разработчики пока воздерживаются от комментариев по результатам.
Ранее сообщалось, что корпорация Meta привлекла специалистов из OpenAI для работы над проектами, связанными с созданием суперинтеллекта.
