Новости об ИИ, 28 января 2026 г

Обзор новостей в сфере ИИ: 28 января 2026 г

🧬 Компания DeepMind запускает AlphaGenome для выявления генетических факторов, вызывающих заболевания

Компания DeepMind представила AlphaGenome, систему искусственного интеллекта, предназначенную для прогнозирования того, как мутации ДНК изменяют регуляцию генов — по сути, когда гены активируются, где и с какой интенсивностью. Она может сканировать огромные участки ДНК за один раз, включая обширные некодирующие области, которые часто напоминают биологическую темную материю.

Суть предложения довольно проста: более быстрое выявление мутаций, действительно имеющих значение для таких факторов, как риск развития рака и сложных наследственных заболеваний. Если это сработает, как заявлено, исследователи будут тратить меньше времени на догадки и больше времени на тестирование правильных вещей — что звучит очевидно, но в этом и заключается вся суть.

🧑💼 Лиз Кендалл признает, что искусственный интеллект приведет к потере рабочих мест

Министр технологий Великобритании открыто заявила, что внедрение ИИ приведет к сокращению рабочих мест, а не просто выразила привычное «все будет хорошо, обещаю». Она указала на опасения по поводу вакансий для выпускников вузов в таких областях, как юриспруденция и финансы, и не стала утверждать, что можно назвать какую-то конкретную цифру.

В то же время правительство активно занимается адаптацией: предпринимаются масштабные усилия по обучению миллионов работников базовым навыкам в области ИИ, чтобы Великобритания быстрее освоила эту технологию. Это классическое противоречие: да, рабочие места исчезают, да, рабочие места появляются, но нет, в промежуточном этапе не будет гладко.

🗞️ Великобритания оказывает давление на Google, чтобы компания позволила сайтам отказаться от использования искусственного интеллекта. Обзоры

Британские антимонопольные органы предложили изменения, которые позволят издателям отказаться от использования своего контента для обзоров Google AI — или для обучения автономных моделей ИИ — без ущерба для обычных позиций в поисковой выдаче. Эта часть про «без ущерба» здесь играет важную роль.

Идея заключается в том, чтобы восстановить баланс сил, поскольку сводки ИИ меняют то, как люди кликают (или не кликают). Ответ Google был примерно таким: поисковое поведение меняется, мы рассматриваем дополнительные меры контроля, но не стоит разбивать продукт на неуклюже фрагментированную версию самого себя… что справедливо, но и удобно.

🛡️ Обеспечение безопасности ваших данных при нажатии агентом ИИ на ссылку

Компания OpenAI подробно описала конкретную угрозу безопасности для агентов: утечка данных через URL-адреса — когда злоумышленник обманом заставляет ИИ загрузить URL-адрес, который незаметно внедряет конфиденциальную информацию в строку запроса. Даже если модель никогда не «раскрывает» секрет, сам запрос может его раскрыть. Неприятно и на удивление просто.

Их метод решения проблемы прост, но имеет свои нюансы: агенты должны автоматически получать только те URL-адреса, которые уже являются общедоступными и существование которых подтверждено независимым веб-индексом. Если ссылка не подтверждена как общедоступная, система должна замедлиться и вернуть пользователю контроль над процессом с помощью предупреждений — это намеренное, но полезное неудобство.

🇪🇺 Следующая глава в истории ИИ в ЕС

OpenAI опубликовала ориентированный на ЕС план, в котором обозначена проблема «избытка возможностей»: модели способны на большее, чем люди и предприятия используют их в настоящее время, и этот разрыв рискует привести к неравномерному распределению результатов по странам. Это как владеть гоночным автомобилем и ездить на нем только до ближайшего магазина… только этот ближайший магазин — это вся ваша экономика.

Наряду с риторикой, есть и конкретные примеры: программа, направленная на обучение тысяч европейских МСП навыкам работы с ИИ, грант, связанный с исследованиями в области безопасности и благополучия молодежи, и расширенная стратегия «сотрудничества с правительствами». Это отчасти программный документ, отчасти кампания по внедрению — и да, эти два понятия сливаются воедино.

🔐 Риски, связанные с ИИ, и киберуправление: проект профиля кибербезопасности ИИ от NIST

В новом проекте рекомендаций NIST (на основе анализа статьи юридической фирмы) рассматривается вопрос о том, как организации должны интегрировать ИИ в управление кибербезопасностью — как для обеспечения безопасности самих систем ИИ, так и для использования ИИ в целях повышения киберзащиты. На бумаге это добровольно, но со временем «добровольность» может стать нормой.

Рабочие группы разрабатывают проекты, посвященные таким темам, как обеспечение безопасности компонентов ИИ и развертывание средств защиты на основе ИИ, включая вопросы цепочки поставок и автоматизацию, подобную работе агентов, в рабочих процессах реагирования. Основной посыл таков: рассматривать ИИ как новую поверхность атаки и новый набор инструментов, и не делать вид, что эти два фактора взаимно компенсируются.

Часто задаваемые вопросы

Что представляет собой AlphaGenome от DeepMind и какую проблему он пытается решить?

AlphaGenome — это система искусственного интеллекта, которая, по словам DeepMind, может предсказывать, как мутации ДНК влияют на регуляцию генов — когда гены активируются, где это происходит и насколько сильно. Она создана для одновременного сканирования очень больших участков ДНК, включая некодирующие области, которые, как известно, трудно интерпретировать. Цель состоит в том, чтобы помочь исследователям выявить, какие мутации с наибольшей вероятностью вызывают заболевания, чтобы лабораторные исследования могли сосредоточиться на наиболее перспективных направлениях.

Как AlphaGenome может помочь исследователям быстрее находить генетические факторы, вызывающие заболевания?

Во многих генетических исследованиях узким местом является сокращение огромных списков вариантов до нескольких, которые, вероятно, изменяют активность генов. AlphaGenome обещает сократить эту неопределенность, прогнозируя, как конкретные мутации могут изменить регуляцию в длинных последовательностях ДНК. Если эти прогнозы подтвердятся, команды смогут расставить приоритеты в экспериментах, сосредоточившись на вариантах, наиболее вероятно связанных с риском развития рака или сложными наследственными заболеваниями, тратя меньше времени на тупиковые ситуации.

Действительно ли внедрение ИИ приведет к потере рабочих мест в Великобритании, и какие профессии находятся под наибольшей угрозой?

Министр технологий Великобритании Лиз Кендалл заявила, что внедрение ИИ приведет к сокращению рабочих мест, и подчеркнула обеспокоенность по поводу вакансий для выпускников вузов. Она особо отметила такие области, как юриспруденция и финансы, где задачи на начальном этапе карьеры могут быть в большей степени автоматизированы. В то же время правительство делает акцент на адаптации посредством масштабного обучения базовым навыкам работы с ИИ, признавая, что переход может быть неравномерным, даже если появятся новые профессии.

Могут ли британские издатели отказаться от участия в обзорах Google по искусственному интеллекту, не потеряв при этом позиции в поисковой выдаче?

Британские антимонопольные органы предложили изменения, которые позволят издателям отказаться от использования своего контента для обзоров Google на основе искусственного интеллекта — или для обучения автономных моделей ИИ — без ущерба для позиций в результатах поиска. Цель состоит в том, чтобы восстановить баланс сил, поскольку обзоры на основе ИИ меняют поведение пользователей при кликах. Google дал понять, что рассматривает возможность усиления контроля, одновременно предупреждая о фрагментированности поиска.

Как может ИИ-агент допустить утечку конфиденциальных данных, просто перейдя по ссылке?

Компания OpenAI описала риск утечки данных через URL-адреса, когда злоумышленник предлагает агенту ИИ получить ссылку, которая незаметно внедряет конфиденциальную информацию в строку запроса. Даже если модель никогда не повторяет секрет в своих выходных данных, сам запрос может его передать. Распространенным способом защиты является добавление «преднамеренных препятствий», таких как предупреждения и требование подтверждения пользователем, если ссылка не была независимо проверена как общедоступная.

Что представляет собой проект профиля кибербезопасности на основе искусственного интеллекта, разработанный NIST, и как он меняет управление в сфере кибербезопасности?

В проекте профиля NIST (обсуждаемом в рамках правового анализа) ИИ рассматривается как нечто, что необходимо защищать, и как инструмент киберзащиты. Работа сгруппирована по темам, таким как обеспечение безопасности компонентов ИИ, решение проблем, связанных с рисками в цепочке поставок, и развертывание средств защиты на основе ИИ, включая более автоматизированные, агентоподобные рабочие процессы реагирования. Хотя концептуально такие структуры носят добровольный характер, они часто становятся де-факто нормой, подталкивая организации к формальному включению ИИ в системы управления и контроля.

Вчерашние новости об ИИ: 27 января 2026 года

Найдите новейшие разработки в области ИИ в официальном магазине ИИ-помощников

О нас

Вернуться в блог