Новости об ИИ, 4 марта 2026 г

Обзор новостей в области ИИ: 4 марта 2026 г

🏛️ Правительство создаст новую лабораторию, чтобы Великобритания оставалась в числе лидеров в области прорывных достижений в сфере искусственного интеллекта

В Великобритании создается поддерживаемая правительством Лаборатория фундаментальных исследований в области искусственного интеллекта, позиционируя это как «перспективную» работу — рискованную, медленную, но порой приносящую результаты, на фоне которых все остальные выглядят так, будто задремали. ( GOV.UK )

В центре внимания не просто «более крупные модели, больше графических процессоров», а борьба с такими распространенными недостатками, как галлюцинации, нехватка памяти и непредсказуемые рассуждения, а также предоставление исследователям доступа к серьезным вычислительным ресурсам через Исследовательский ресурс по искусственному интеллекту. Звучит очень разумно… и, кроме того, незаметно, похоже на попытку предотвратить мгновенный переманивание лучших умов Великобритании в другие страны. ( GOV.UK )

🧨 Генеральный директор Nvidia намекает на прекращение инвестиций в OpenAI и Anthropologie

Дженсен Хуанг дает понять, что Nvidia, возможно, больше не будет инвестировать в передовые лаборатории искусственного интеллекта прежним способом — динамика IPO (и масштаб обсуждаемых проверок) затрудняют осуществление такого рода финансирования. ( Reuters )

Стоит обратить внимание на эту смену тона: Nvidia — король «кирпичей и лопат» во всем этом буме, но при этом намекает, что «владение долями в горнодобывающих компаниях» уже не всегда является оптимальным вариантом. Или, может быть, это просто открытое заявление, что генеральные директора делают, как дышат. ( Reuters )

🧩 Эксклюзив: Крупная технологическая группа поддерживает Anthropic в споре с Пентагоном, поскольку инвесторы стремятся к деэскалации конфликта по поводу мер защиты ИИ

Противостояние Anthropic с Пентагоном превращается в настоящий котел под давлением — по сообщениям, инвесторы хотят снизить накал страстей, в то время как компания пытается придерживаться своей позиции в отношении формулировок, гарантирующих безопасность (особенно в отношении слежки). ( Reuters )

Подтекст этой истории почти громче самого текста: в эпоху ИИ формулировки контрактов — это не «юридические придирки», а, по сути, политика в отношении продукта, и именно они определяют, станет ли модель инструментом, оружием или огромной проблемой. ( Reuters )

🪖 Сэм Альтман признает, что OpenAI не может контролировать использование искусственного интеллекта Пентагоном

Как сообщается, Альтман заявил сотрудникам, что OpenAI не может контролировать, как Пентагон будет использовать свой ИИ после его развертывания, — что звучит неубедительно, поскольку точно отражает опасения, которые высказывались ранее. ( The Guardian )

В более широком контексте нарастает трение между принципами «мы поможем, но с правилами» и «мы поможем, и точка», а также внутренняя и общественная негативная реакция, когда принятие военных решений кажется поспешным или оппортунистическим. Этические вопросы здесь — это не столько четкая грань, сколько размокшая краска: каждый наступает на нее, а потом спорит, чья это обувь. ( The Guardian )

🧬 Новая программа стажировки в области искусственного интеллекта в геномике, реализуемая совместно с Институтом Сэнгера и Google DeepMind

Институт Веллкома Сангера запускает финансируемую DeepMind академическую стипендию, ориентированную на применение ИИ в геномике. Эта стипендия позиционируется как первая в своем роде для стипендиата DeepMind в данной конкретной области. ( sanger.ac.uk )

Что интересно (и, честно говоря, немного освежает), так это акцент на малоизученных проблемах геномики, где ИИ еще не повсеместно используется, — плюс явное указание на то, что DeepMind не руководит исследованиями стипендиата. Это как дать кому-то ракету и сказать: «Иди открой что-нибудь», вместо «Иди оптимизируй нашу дорожную карту». ( sanger.ac.uk )

Часто задаваемые вопросы

Что представляет собой поддерживаемая правительством Великобритании Лаборатория фундаментальных исследований в области искусственного интеллекта, и чем она будет заниматься?

Поддерживаемая правительством Лаборатория фундаментальных исследований в области искусственного интеллекта позиционируется как перспективный исследовательский проект — высокорискованная работа, результаты которой могут проявиться не сразу. Вместо того чтобы концентрироваться только на масштабировании всё более крупных моделей, она стремится решать такие распространённые проблемы, как галлюцинации, нехватка памяти и непредсказуемое мышление. Суть в том, что прорывы происходят на фундаментальном уровне, а не просто за счёт добавления большего количества графических процессоров.

Как Лаборатория фундаментальных исследований в области искусственного интеллекта Великобритании может помочь исследователям получить доступ к серьезным вычислительным ресурсам?

Наряду с Британской лабораторией фундаментальных исследований в области искусственного интеллекта, план подчеркивает доступ к значительным вычислительным ресурсам через Исследовательский ресурс по искусственному интеллекту. На практике это, как правило, означает, что исследователи могут проводить эксперименты, которые в противном случае были бы ограничены стоимостью или инфраструктурой. Это также позволяет командам проверять идеи в масштабе, где такие проблемы, как надежность и устойчивость, становятся конкретными, а не просто теоретическими.

Почему в Великобритании делают упор на галлюцинации, короткую память и непредсказуемое мышление?

Эти недостатки проявляются на этапе внедрения и могут быстро подорвать доверие. Заявленная направленность предполагает, что цель состоит не только в повышении функциональности, но и в обеспечении надежности — сокращении количества вымышленных результатов, улучшении обработки моделями более длительного контекста и снижении непредсказуемости рассуждений. Такая работа часто занимает больше времени и сопряжена с большими рисками, поэтому она позиционируется как фундаментальное исследование.

Что на самом деле означает изменение позиции Nvidia в отношении инвестиций в OpenAI или Anthropic?

В репортаже это представлено как намек на то, что Nvidia, возможно, прекратит инвестировать в передовые лаборатории в прежнем формате, особенно с учетом динамики IPO и огромных сумм чеков, которые усложняют эту стратегию. Даже будучи лидером в области аппаратного обеспечения для ИИ, компания намекает на то, что приобретение долей в бизнесе не всегда является лучшим решением. Это также может быть осторожным заявлением, что часто встречается в комментариях руководителей.

Почему спор компании Anthropic с Пентагоном по поводу «гарантийных формулировок» стал таким важным?

Главный тезис статьи заключается в том, что формулировки контрактов могут стать политикой продукта, особенно когда речь идёт о наблюдении и других деликатных аспектах использования. Сообщается, что инвесторы хотят урегулировать конфликт, в то время как компания пытается придерживаться своей позиции в отношении мер безопасности. Во многих проектах по внедрению ИИ эти пункты определяют, для чего может использоваться система и какие риски компания фактически принимает на себя.

Что означает заявление Сэма Альтмана о том, что OpenAI не может контролировать использование ИИ в Пентагоне?

Речь идёт о практическом ограничении: после внедрения инструмента у первоначального разработчика может быть ограниченная возможность контролировать его дальнейшее использование. Это очень важно, поскольку указывает на основной страх, который люди высказывают по поводу принятия инструментов в военных целях: правила могут существовать на этапе заключения контракта, но их соблюдение может быть затруднено. Это также отражает более широкое противоречие между принципом «помощь с ограничениями» и принципом «помощь, несмотря ни на что»

Вчерашние новости об ИИ: 3 марта 2026 года

Найдите новейшие разработки в области ИИ в официальном магазине ИИ-помощников

О нас

Вернуться в блог