Новости об ИИ, 18 января 2026 г

Обзор новостей в области ИИ: 18 января 2026 г

💰 Компания Sequoia незаметно присоединяется к мега-раунду финансирования Anthropic

Компания Sequoia, уже имеющая связи с несколькими крупными лабораториями искусственного интеллекта, по сообщениям, присоединяется к масштабному привлечению инвестиций от Anthropic. Этот шаг еще больше усиливает разговоры о принципе «конфликты интересов отсутствуют», независимо от того, признает это кто-либо или нет.

Сообщается, что в этот раунд также включены другие крупные инвестиции, что еще больше подтолкнет Anthropic к вершине рейтинга с мега-оценкой. Сохраняется ощущение «пузыря». И, что раздражает, это может стать новой нормой.

📢 ChatGPT начинает заигрывать с рекламой — на этот раз по-настоящему

Сообщается, что OpenAI тестирует рекламу для некоторых пользователей из США на более дешевых тарифах, в то время как платные тарифы останутся без рекламы. Обещание состоит в том, что реклама не повлияет на ответы — в теории это обнадеживает, хотя рефлекс доверия немного напрягается.

Скрытый смысл прост: вывод информации обходится дорого, и одних только подписок может быть недостаточно, чтобы покрыть все расходы навсегда… или так кажется. Тем не менее, когда вы впервые видите слово «спонсируется» рядом с чат-ботом, что-то меняется в вашем сознании. Атмосфера меняется.

📚 Издатели пытаются присоединиться к иску Google о проблемах с обучением ИИ

Группа издателей пытается присоединиться к иску, в котором Google обвиняется в использовании защищенных авторским правом произведений для обучения своих систем искусственного интеллекта. Эта юридическая борьба разрастается, подобно трещине во льду, о которой вы постоянно слышите, но никак не можете ее обнаружить.

Если суд позволит им это сделать, дело может обостриться из-за вопроса о том, что должны означать «разрешение» и «оплата» для обучающих данных. Всем нужен прецедент — желательно, разумеется, такой, который будет в их пользу.

🕳️ По сообщениям, некий трюк с «внедрением подсказок» мешает работе Gemini, используя данные о встречах

Исследователи описали атаку в стиле «непрямого внедрения подсказок», при которой вредоносные инструкции скрываются в обычном на вид контенте, а затем помощник следует за ними, когда пользователь задает безобидный вопрос. Никакого вредоносного ПО, никакой магии — просто текст, превращенный в оружие, удивительно элегантный и в то же время довольно отвратительный.

Это напоминание о том, что «LLM читает ненадежный текст» — это не просто забавная функция, а целая угроза. Это как позволять незнакомцам подкладывать вам записки в карманы весь день, а потом удивляться, когда одна из них оказывается ловушкой.

🎮 Генеральный директор Razer говорит, что геймерам «уже нравится ИИ» — им просто не нравится сам термин

В своем выступлении на CES компания Razer сосредоточилась на искусственном интеллекте как практическом инструменте для рабочих процессов разработки игр — контроля качества, итераций и тому подобного — а также на некоторых концепциях, напоминающих помощников, которые кажутся наполовину полезными, наполовину научно-фантастическим реквизитом.

По сути, они также признают проблему с брендингом: игроки не хотят «хлама от ИИ», но хотят более умных инструментов и более плавной работы. Назовите это «помощью», и люди кивнут. Назовите это «ИИ», и люди потянутся к вилам… иногда.

⚖️ Суд установил правила для юристов, использующих генеративный искусственный интеллект

Суд опубликовал разъяснения, которые, по сути, сводятся к следующему: конечно, используйте генетически модифицированный ИИ, но вы всё равно являетесь владельцем результатов своей работы. Вы не можете поручить своё профессиональное суждение генератору текста, а затем удивляться, когда он уверенно что-то выдумывает.

Интересно, что раскрытие информации не требуется, если только судья об этом не попросит, — но суть в том, чтобы привлечь виновных к ответственности. Искусственный интеллект может составлять и редактировать документы… а также галлюцинировать, как самоуверенный стажер, склонный к вымыслу.

Часто задаваемые вопросы

Что означает присоединение Sequoia к мега-раунду финансирования Anthropic для инвестиций в ИИ и возникновения конфликтов?

Это говорит о том, что крупные инвесторы могут продолжать одновременно поддерживать несколько ведущих лабораторий искусственного интеллекта, что, как и следовало ожидать, возобновит дискуссию о том, «конфликты интересов или их отсутствие». Когда один и тот же фонд инвестирует в несколько лабораторий, люди начинают тщательно изучать стимулы, доступ и конкурентные преимущества. Сообщения о мега-раунде также подчеркивают тенденцию к огромным чекам и завышенным оценкам, даже несмотря на то, что в воздухе все еще витает ощущение «пузыря».

Будет ли на ChatGPT появляться реклама на бесплатных или более дешевых тарифах, и повлияет ли это на ответы?

В отчете говорится, что OpenAI тестирует рекламу для некоторых пользователей из США на более дешевых тарифах, в то время как более дорогие платные тарифы остаются без рекламы. В нем также утверждается, что реклама не повлияет на ответы, что звучит обнадеживающе на бумаге, но все же может изменить восприятие доверия людьми. Подтекст носит экономический характер: обработка данных обходится дорого, и подписки могут не покрывать все расходы вечно.

Почему издатели пытаются присоединиться к судебному иску Google по поводу обучения ИИ?

Группа издателей пытается присоединиться к иску, в котором утверждается, что Google использовала защищенные авторским правом произведения для обучения систем искусственного интеллекта. Если суд разрешит им присоединиться, дело может обостриться в вопросе о том, как должны выглядеть «разрешение» и «оплата» за обучающие данные. Чем больше сторон, тем больше давления для создания четкого прецедента, особенно в отношении того, кто получает компенсацию и на каких условиях.

Что такое атака с «непрямым внедрением подсказки» и почему она так важна в новостях об искусственном интеллекте?

Это атака, при которой вредоносные инструкции скрываются внутри обычного на вид контента, а затем, когда пользователь делает безобидный запрос, помощник следует им. Основная проблема заключается в том, что модель считывает ненадежный текст, превращая обычные документы и сообщения в потенциальную угрозу. Она привлекательна тем, что может работать без традиционного вредоносного ПО — только с помощью вредоносного языка, встроенного в контент.

Почему геймерам не нравится термин «ИИ», но они всё равно хотят использовать инструменты на основе ИИ?

Генеральный директор Razer утверждает, что геймерам уже нравятся практические преимущества — ускоренное тестирование, более плавная итерация и упрощающие рабочие процессы функции, — но они негативно реагируют на брендинг. Часто проблема заключается в «халтуре с использованием ИИ» или контенте, который кажется халтурным и неаутентичным. Переосмысление его как «помощника» или вспомогательной функции может создать впечатление, что это инструмент, улучшающий пользовательский опыт, а не заменяющий творчество.

Что означают правила суда для юристов, использующих генеративный искусственный интеллект, и обязаны ли они раскрывать эту информацию?

Описанные рекомендации просты: юристы могут использовать генеративный ИИ, но они остаются ответственными за свою работу и не могут передавать профессиональное суждение генератору текста. Риск заключается в создании иллюзий — уверенно выдуманных фактов или ссылок, — поэтому проверка и ответственность остаются первостепенными. Сообщается, что раскрытие информации не требуется, если только об этом не попросит судья, но суть остается прежней: вы несете ответственность за результат.

Вчерашние новости об ИИ: 17 января 2026 года

Найдите новейшие разработки в области ИИ в официальном магазине ИИ-помощников

О нас

Вернуться в блог