Розробники ШІ провалили тестування готовності до загроз суперінтелекту — дослідження FLI

ШІ-модель від Google за 48 годин вирішила «проблему десятиліття» супербактерій

Найбільші компанії-розробники штучного інтелекту отримали вкрай низькі оцінки за рівнем екзистенціальної безпеки та готовності до можливих загроз так званого суперінтелекту. Показники планування й управління ризиками суттєво поступаються необхідному рівню, вказує свіжа аналітична доповідь Інституту майбутнього життя (FLI).

Про це розповідає Finway

  • Жодна з перевірених компаній не отримала вищої оцінки за D у сфері екзистенціальної безпеки.
  • OpenAI та Google DeepMind виявили найгірші результати в управлінні ризиками.
  • Експерти порівняли ситуацію з запуском атомної електростанції без плану запобігання катастрофі.

Індекс безпеки ШІ. Дані: FLI.

Головні висновки індексу безпеки ШІ

Інститут майбутнього життя провів дослідження готовності семи найбільших розробників великих мовних моделей (LLM) — OpenAI, Google DeepMind, Anthropic, Meta, xAI, Zhipu AI та DeepSeek — до появи штучного загального інтелекту (AGI). За результатами тестування, жодна компанія не набрала оцінки вище D за планування екзистенціальної безпеки, що свідчить про критичний рівень недостатності підготовки.

Індекс оцінював компанії за шістьма напрямками: від поточних ризиків до готовності до катастрофічних наслідків виходу ШІ з-під контролю. Найвищий бал — C — отримав стартап Anthropic. OpenAI і Google DeepMind отримали відповідно C та C-, інші компанії продемонстрували ще гірші результати.

Один із рецензентів підкреслив, що у жодної з організацій немає “нічого схожого на послідовний, реалізований план” із контролю над ШІ.

Штучний інтелект: зростання ризиків і заклики до дій

Як зазначає співзасновник FLI, професор Массачусетського технологічного інституту Макс Тегмарк, провідні компанії створюють системи, потенційно співмірні за небезпекою з ядерними об’єктами, проте не мають навіть базових оприлюднених планів щодо запобігання катастрофам. За його словами, темпи розвитку технологій ШІ значно перевищують очікування: якщо раніше фахівці говорили про десятиліття до появи AGI, тепер самі компанії прогнозують цей горизонт у кілька років.

У доповіді також відзначено, що після лютневого саміту з ШІ прогрес прискорився. Зокрема, нові моделі Grok 4, Gemini 2.5 і відеогенератор Veo3 демонструють суттєве зростання можливостей та функціоналу.

Паралельно з дослідженням FLI, організація SaferAI опублікувала власний звіт, який підтвердив “неприйнятно слабке” управління ризиками у сфері розробки AGI. Експерти наполягають, що компанії мають негайно переглянути свої підходи до безпеки.

Коментуючи ситуацію, представник Google DeepMind заявив, що у звіті FLI не враховано всі заходи, які впроваджує компанія. Інші розробники наразі утрималися від коментарів щодо результатів.

Раніше повідомлялося, що корпорація Meta залучила до своєї команди фахівців з OpenAI для роботи над проєктами зі створення суперінтелекту.

Новини по темі