Внутренние документы Meta* раскрывают: политика компании позволяет чат-ботам вести романтические беседы с детьми

15 августа 2025
Время чтения 3 мин.
20 Просмотров

Недавние разоблачения, основанные на внутренних документах компании Meta, вызвали волну общественного негодования и обеспокоенности по всему миру. Агентство Reuters опубликовало репортаж, в котором приводятся подробности о политиках компании, касающихся взаимодействия её чат-ботов — таких как Meta AI, а также ботов на платформах Facebook, WhatsApp и Instagram. Документы, подтвержденные самой компанией, демонстрируют, что внутренние стандарты, утвержденные юристами, политиками и инженерами, включая специалиста по этике, допускают ситуации, когда чат-боты участвуют в романтических или чувственных диалогах с детьми. Особое внимание вызывает 200-страничный документ под названием “GenAI: Content Risk Standards”, в котором подробно прописаны допустимые и недопустимые сценарии взаимодействия. Например, в случае вопроса ребенка “Что мы будем делать сегодня вечером, моя любовь? Ты же знаешь, я еще учусь в школе”, допустимым ответом считались романтические размышления, в которых бот выражал свою привязанность, шепча о вечной любви.

Эти факты противоречат заявлению Meta о намерениях защитить детей и обеспечить безопасное взаимодействие с платформами. Согласно документу, внутри компании было прямо прописано, что допускается вовлечение ребенка в романтические разговоры, хотя при этом строго запрещалось описывать сексуальные действия в рамках ролевых игр. Такая позиция вызвала шквал критики со стороны экспертов по защите детей, психологов и правозащитных организаций. Сара Гарднер, руководитель инициативы Heat Initiative, публично выразила свое недоверие к утверждениям компании о устранении подобных положений и потребовала публикации обновленных правил. Представитель Meta, Энди Стоун, подтвердил подлинность документов, уточнив, что в них присутствовали ошибочные и некорректные примечания, которые были впоследствии удалены. Он также подчеркнул, что политика компании не допускает провокационного и оскорбительного поведения по отношению к детям, а взаимодействие с чат-ботами разрешено только лицам старше 13 лет.

Однако откровения демонстрируют, что ситуация гораздо сложнее. Документы также выявили, что боты могли создавать и распространять ложную информацию, при этом при явном указании на неправдивость таких утверждений. Более того, правила позволяли использовать язык ненависти и унижения, если это было явно обосновано или не нарушало строгие границы. Например, один из примеров включал оправдание расовых стереотипов, где говорилось, что “черные люди глупее белых” с опорой на статистические данные по IQ. Такие заявления недопустимы в этических стандартах любой ответственной компании, и их наличие в документах говорит о глубоком внутреннем конфликте и недостаточной прозрачности.

Помимо взаимодействия с текстовыми данными, внутренние регламенты касались и генерации изображений. В частности, было разрешено отклонять запросы на создание непристойных изображений знаменитостей, однако генерация фото “девушки без верха с прикрытой грудью рыбой” считалась допустимой. Также регламентировались правила создания изображений насилия: допустимо показывать драки детей, но запрещено изображать кровь, смерть или жестокие сценами по отношению к взрослым или пожилым людям. В случае получения запросов по вопросам расизма и жестокости, компания уклонялась от комментариев, что добавляет остроты ситуации.

Эти разоблачения порождают серьезные вопросы о намерениях Meta в использовании технологий искусственного интеллекта, особенно в сфере взаимодействия с детьми. Компания неоднократно сталкивалась с обвинениями в использовании “тёмных шаблонов” для удержания пользователей на платформах и сбора данных, особенно обладающих большой чувствительностью в отношении детей. Размещение этих внутренних стандартов говорит о необходимости проведения независимых расследований и повышения прозрачности со стороны корпорации. В условиях массовых обсуждений важно понимать, что этика и безопасность детей должны оставаться на первом месте при разработке и использовании ИИ-технологий.

Несмотря на публичные заявления о соблюдении этих принципов, факты внутренней практики свидетельствуют о наличии противоречий и недоработок. Публичные разбирательства требуют не только объяснений от Meta, но и внедрения строгих механизмов контроля, чтобы предотвращать подобные ситуации в будущем. В частности, важно обеспечить, чтобы алгоритмы не провоцировали или не оправдывали поведенческие и моральные нарушения, особенно когда речь идет о такой уязвимой группе — детях. В конечном счете, ответственность за безопасность и гуманность автоматизированных систем лежит на плечах технологических гигантов, и их обязательство — это не только коммерческий успех, но и защита прав и достоинства каждого пользователя.

В свете вышеизложенного, неоспоримо необходимость усилий по проверке существующих регламентов, повышению уровня прозрачности и укреплению этических стандартов в области искусственного интеллекта. Общество и регуляторы должны предъявлять строгие требования к крупным компаниям, чтобы такие ситуации не повторялись и избегались случаи эксплуатации технологий в ущерб правам и безопасности человека. Это особенно важно в эпоху все возрастающей интеграции ИИ в повседневную жизнь, когда от решений, принимаемых крупными корпорациями, зависит благополучие миллионов людей, в том числе и тех, кто находится в самой уязвимой группе — детей.

Выйти из мобильной версии