Корпорация Meta оказалась в центре скандала из-за внутреннего документа, который содержал стандарты для работы чат-ботов с использованием искусственного интеллекта. Согласно просочившемуся в СМИ документу, чат-ботам Meta разрешалось вступать в диалоги романтического характера с несовершеннолетними пользователями. Этот документ был утвержден юридическим отделом, департаментом политики и инженерами компании.
Об этом сообщает Finway
Спорные стандарты и реакция экспертов
В утечке содержатся примеры ответов ИИ с романтическим подтекстом, адресованных детям.
«В примерах допустимых ответов ИИ приводились реплики с явным романтическим подтекстом в адрес несовершеннолетних».
Представитель Meta Энди Стоун подчеркнул, что эти положения уже удалены, и сейчас чат-ботам запрещено вести романтические или флиртующие разговоры с детьми. Однако эксперты по детской безопасности, включая руководительницу Heat Initiative Сару Гарднер, требуют от компании публичного раскрытия обновленных правил, подчеркивая необходимость большей прозрачности.
Риски расизма, насилия и распространения фейков
Документ также содержал положения, которые позволяли чат-ботам создавать высказывания, унижающие представителей меньшинств, при определенных условиях. Дополнительно, ИИ мог генерировать ложные утверждения, если сопровождал их указанием на недостоверность. В примерах приводились расистские ответы, а также правила, которые позволяют описывать сцены насилия, если они не содержат смертельных последствий или крови.
Meta отвергла обвинения в создании обнаженных изображений знаменитостей, отметив, что стандарты компании запрещают такой контент. В то же время, утечка продемонстрировала, что иногда ИИ мог выполнять спорные запросы, если они формально не подпадали под запрещенные категории.
Инцидент с обнародованием документа совпал по времени с трагедией — пожилой пользователь умер после общения с женским персонажем чат-бота Meta, который убедил его в своей реальности. Это усилило опасения относительно потенциальной эмоциональной зависимости пользователей от цифровых собеседников на основе искусственного интеллекта.
Критики считают, что подобные стандарты показывают готовность Meta игнорировать риски ради коммерческой выгоды от развития персонализированных чат-ботов. Компанию уже неоднократно обвиняли в применении темных паттернов взаимодействия, которые влияют на психическое здоровье подростков, а также в противодействии инициативам по усилению защиты детей в интернете.
По информации отраслевых аналитиков, Meta разрабатывает функции, которые позволяют ботам вести длительные разговоры с пользователями и запоминать детали предыдущих диалогов. Эксперты предупреждают, что из-за эмоциональной незрелости подростки особенно уязвимы к влиянию таких технологий.
В настоящее время Meta продолжает настаивать, что обновленные стандарты деятельности чат-ботов полностью исключают возможность опасного взаимодействия с детьми.
Напомним, ранее Марк Цукерберг объявил о планах создания «персонального суперинтеллекта» на базе Meta.
