Новости об ИИ, 10 января 2026 г

Обзор новостей в области ИИ: 10 января 2026 г

Индонезия заблокировала доступ к чат-боту Grok, созданному Маском, из-за использования дипфейковых изображений

Индонезия временно заблокировала Grok после того, как он был использован для создания дипфейков сексуального характера без согласия, включая изображения женщин и детей. Правительство представило это как проблему прав человека и общественной безопасности, а не как незначительное технологическое неудобство.

Проблема очевидна: если инструмент может «раздевать» реальных людей по команде, бремя доказывания перекладывается на другие стороны. Платформы должны продемонстрировать, что они могут предотвратить это, а не просто заявлять, что они об этом думают.

Илон Маск заявляет, что Великобритания хочет подавить свободу слова, поскольку X грозит возможный запрет

Британские министры открыто обсуждали возможность наложения штрафов и даже блокировки X-сайта после того, как Grok был использован для создания изображений сексуального характера без согласия пользователей. Маск ответил привычной формулировкой о свободе слова… но правовая позиция в Великобритании смещается от «дискуссионного клуба» к «крайнему сроку соблюдения требований»

Ofcom призывают действовать быстро, а законодатели указывают на одну и ту же мрачную закономерность: как только изображения распространяются, вред не ждет терпеливого ожидания обновления политики.

🧑💻 По имеющимся данным, компания OpenAI просит подрядчиков загружать реальные работы с предыдущих проектов

По сообщениям, компания OpenAI совместно с партнером по предоставлению обучающих данных просит подрядчиков загружать реальные рабочие материалы с прошлых (и текущих) проектов — документы, электронные таблицы, презентации, репозитории. Заявленная цель — оценить и улучшить работу ИИ-агентов в задачах офисного типа.

Самый неприятный момент очевиден и слегка сюрреалистичен: подрядчикам поручено самостоятельно удалять конфиденциальную информацию. Это слишком большое доверие к быстро развивающемуся процессу — всё равно что просить кого-то обезвредить бомбу, используя кухонные прихватки, с любовью.

🗂️ Компания OpenAI просит подрядчиков загружать результаты своих предыдущих проектов для оценки производительности агентов искусственного интеллекта

В отдельном отчете подробно рассматривается та же ситуация и причины, по которым она вызывает тревогу у юристов, специализирующихся на вопросах конфиденциальности и интеллектуальной собственности. Даже если все действуют добросовестно, указание «удалить конфиденциальную информацию» является расплывчатым, когда речь идет о реальных корпоративных документах.

Это также намекает на более масштабную стратегию: агенты ИИ — это уже не просто болтливые вторые пилоты, их обучают имитировать сложную, многофайловую реальность реальной работы. Практично, да. Но и немного… жутковато.

🏦 Allianz и Anthropic Forge заключают глобальное партнерство для продвижения ответственного использования ИИ в страховании

Allianz и Anthropic объявили о глобальном партнерстве, ориентированном на три направления: повышение производительности труда сотрудников, автоматизация операционных процессов с помощью агентного ИИ и обеспечение соответствия нормативным требованиям на этапе проектирования. Страхование — это документооборот, поэтому «агентный» здесь, по сути, означает автоматизацию сложных рабочих процессов без потери данных аудита.

Суть в том, чтобы внедрять крутую автоматизацию, но сохранять чеки. В регулируемых отраслях это единственный способ масштабировать систему, не превращая её в источник серьёзных проблем.

🕵️♂️ Заявление в ответ на запрос Grok AI по поводу X

Британский регулятор по защите данных заявил, что связался с компаниями X и xAI, чтобы получить разъяснения относительно того, как они обрабатывают персональные данные и защищают права людей, учитывая опасения по поводу контента, созданного Grok. Речь идет не только о «модерации контента» — важно также, обрабатывается ли информация о пользователях на законных основаниях и защищаются ли их права.

Это тот тип регуляторных мер, которые сначала звучат вежливо, а затем незаметно перерастают в крайне серьезные, если ответы оказываются расплывчатыми… или уклончивыми, или и тем, и другим.

Часто задаваемые вопросы

Почему Индонезия заблокировала доступ к Grok AI?

Индонезия временно заблокировала Grok после того, как стало известно об его использовании для создания дипфейков сексуального характера без согласия, включая изображения женщин и детей. Власти представили этот шаг как вопрос прав человека и общественной безопасности, а не как незначительный технологический спор. Основной посыл заключается в том, что принцип «мы это исправим позже» не работает, когда инструменты могут причинить немедленный и необратимый вред.

Какие меры принимает Великобритания после появления дипфейков, созданных Grok, на платформе X?

Британские министры публично обсуждали штрафы и даже возможность блокировки X после того, как Grok был использован для создания изображений сексуального характера без согласия. Политический и регуляторный тон смещается в сторону принудительного соблюдения требований, а не открытых дебатов. Законодатели постоянно возвращаются к вопросу о сроках: как только изображения распространяются, жертвы сталкиваются с опасностью задолго до того, как платформы опубликуют обновленные правила.

Что означает, когда регулирующие органы «перекладывают бремя доказывания» на инструменты обработки изображений, использующие искусственный интеллект?

Идея «переворачивания бремени доказательства» заключается в том, что платформам, возможно, потребуется продемонстрировать свою способность предотвращать конкретные виды вреда — например, создание изображений «раздевания» без согласия — вместо того, чтобы просто обещать меры защиты. На практике это подталкивает компании к созданию наглядных средств контроля, измеримого контроля и четкой обработки сбоев. Это также сигнализирует о том, что «намерение» имеет меньшее значение, чем ощутимые результаты и воспроизводимые меры предотвращения.

Как платформы могут снизить риск создания дипфейков с использованием искусственного интеллекта без согласия пользователя?

Распространенный подход — многоуровневая профилактика: ограничение запросов и результатов, связанных с реальными людьми, блокировка запросов в стиле «раздевания», а также выявление и пресечение попыток создания изображений сексуального характера без согласия. Многие системы добавляют ограничения скорости, усиленный мониторинг личных данных и злоупотреблений, а также быстрые процессы удаления контента после его распространения. Цель состоит не только в формулировках политики, но и в инструментах, которые выдерживают враждебное использование.

Почему загрузка подрядчиками OpenAI реальных рабочих документов вызывает тревогу?

Согласно сообщениям, OpenAI (совместно с партнером по обучающим данным) просит подрядчиков загружать реальные рабочие материалы — документы, электронные таблицы, презентации и репозитории — для оценки и улучшения работы ИИ-агентов, выполняющих офисные задачи. Опасение вызывает то, что подрядчикам предписывается самостоятельно удалять конфиденциальную информацию, что может привести к ошибкам. Юристы, специализирующиеся на вопросах конфиденциальности и интеллектуальной собственности, опасаются, что это указание «удалить конфиденциальную информацию» слишком расплывчато для реальных корпоративных материалов.

В чём значимость партнёрства Allianz и Anthropic в области «агентного ИИ» в страховании?

Компании Allianz и Anthropic описали глобальное партнерство, ориентированное на повышение производительности труда сотрудников, автоматизацию операций с использованием агентного ИИ и обеспечение соответствия нормативным требованиям на этапе проектирования. Рабочие процессы в страховании сложны и строго регулируются, поэтому «агентный» подход часто подразумевает автоматизацию многоэтапных процессов без потери подотчетности. Акцент на аудиторских следах и «хранении квитанций» отражает практическую реальность: автоматизация масштабируется в регулируемых отраслях только тогда, когда она остается поддающейся проверке и защите.

Вчерашние новости об ИИ: 9 января 2026 года

Найдите новейшие разработки в области ИИ в официальном магазине ИИ-помощников

О нас

Вернуться в блог