Meta AI дозволяла чат-ботам вести романтичні діалоги з дітьми — експерти вимагають прозорості

Meta веде переговори про інвестування $10 млрд у стартап Scale AI

Корпорація Meta опинилася у центрі скандалу через внутрішній документ, який містив стандарти для роботи чат-ботів із використанням штучного інтелекту. Згідно з просоченим у ЗМІ документом, чат-ботам Meta дозволялося вступати у діалоги романтичного характеру з неповнолітніми користувачами. Цей документ був затверджений юридичним відділом, департаментом політики та інженерами компанії.

Про це розповідає Finway

Суперечливі стандарти та реакція експертів

У витоку містяться приклади відповідей ШІ з романтичним підтекстом, адресованих дітям.

“У прикладах допустимих відповідей ШІ наводилися репліки з явним романтичним підтекстом на адресу неповнолітніх”.

Представник Meta Енді Стоун наголосив, що ці положення вже видалено, і зараз чат-ботам заборонено вести романтичні або фліртуючі розмови з дітьми. Однак експерти з дитячої безпеки, включно з керівницею Heat Initiative Сарою Гарднер, вимагають від компанії публічного оприлюднення оновлених правил, наголошуючи на необхідності більшої прозорості.

Ризики расизму, насильства та поширення фейків

Документ також містив положення, які дозволяли чат-ботам створювати висловлювання, що принижують представників меншин, за певних умов. Додатково, ШІ міг генерувати неправдиві твердження, якщо супроводжував їх вказівкою на недостовірність. У прикладах наводились расистські відповіді, а також правила, які дозволяють описувати сцени насильства, якщо вони не містять смертельних наслідків чи крові.

Meta відкинула звинувачення у створенні оголених зображень знаменитостей, зазначивши, що стандарти компанії забороняють такий контент. Водночас, витік продемонстрував, що іноді ШІ міг виконувати спірні запити, якщо вони формально не підпадали під заборонені категорії.

Інцидент із оприлюдненням документу збігся у часі з трагедією — літній користувач помер після спілкування з жіночим персонажем чат-бота Meta, який переконав його у своїй реальності. Це посилило побоювання щодо потенційної емоційної залежності користувачів від цифрових співрозмовників на основі штучного інтелекту.

Критики вважають, що подібні стандарти показують готовність Meta ігнорувати ризики заради комерційної вигоди від розвитку персоналізованих чат-ботів. Компанію вже неодноразово звинувачували у застосуванні темних патернів взаємодії, що впливають на психічне здоров’я підлітків, а також у протидії ініціативам щодо посилення захисту дітей в інтернеті.

За інформацією галузевих аналітиків, Meta розробляє функції, які дозволяють ботам вести тривалі розмови з користувачами і запам’ятовувати деталі попередніх діалогів. Експерти попереджають, що через емоційну незрілість підлітки особливо вразливі до впливу таких технологій.

Наразі Meta продовжує наполягати, що оновлені стандарти діяльності чат-ботів повністю виключають можливість небезпечної взаємодії з дітьми.

Нагадаємо, раніше Марк Цукерберг оголосив про плани створення «персонального суперінтелекту» на базі Meta.

Новини по темі