Новости об ИИ, 9 марта 2026 г

Обзор новостей в области ИИ: 9 марта 2026 г

⚖️ Антропогенные организации подали иск, чтобы заблокировать внесение Пентагона в черный список из-за ограничений на использование ИИ

Компания Anthropic обратилась в суд с иском против Пентагона после того, как ее признали угрозой для цепочки поставок. Компания утверждает, что этот шаг является незаконной местью за отказ ослабить ограничения в отношении автономного оружия и внутреннего наблюдения, что делает этот спор одним из самых взрывоопасных в политике в области ИИ на данный момент. ( Reuters )

Правительство выступает за гибкость в отношении «любого законного использования», в то время как Anthropic утверждает, что частным лабораториям по-прежнему должно быть разрешено устанавливать четкие границы безопасности. Это стало одним из самых наглядных испытаний того, сможет ли компания, занимающаяся искусственным интеллектом, сказать «нет» военным условиям, не будучи за это подвергнутой жесткой критике. ( Reuters )

🧑💻 Сотрудники OpenAI и Google поддерживают иск компании Anthropic против Пентагона

Этот иск быстро получил поддержку и внутри конкурирующих лабораторий. Около 40 сотрудников OpenAI и Google поддержали Anthropic в своем заключении amicus curiae, утверждая, что ответные меры против компаний из-за нарушений правил безопасности ИИ противоречат общественным интересам. ( The Verge )

Итак, да, конкуренты внезапно оказались на одной стороне — по крайней мере, в этом вопросе. Основная задача — сосредоточиться на массовом наблюдении и ненадежном автономном оружии, что делает всю эту историю не столько обычной перепалкой в ​​Кремниевой долине, сколько настоящей линией разграничения между отраслями… или, возможно, грязью. ( The Verge )

🛡️ Компания OpenAI приобрела Promptfoo для обеспечения безопасности своих агентов искусственного интеллекта

Компания OpenAI объявила о приобретении стартапа Promptfoo, специализирующегося на защите больших языковых моделей от атак злоумышленников. Планируется интегрировать его технологии в OpenAI Frontier, корпоративную платформу компании для ИИ-агентов. ( TechCrunch )

Это показательный шаг. Все хотят, чтобы агентный ИИ делал больше, быстрее и везде, но в плане безопасности он отставал, то ли незначительно, то ли очень сильно. Эта сделка говорит о том, что OpenAI считает, что следующая крупная гонка — это не только гонка за более умными агентами, но и за более безопасными. ( TechCrunch )

🧪 Компания Anthropic запускает инструмент для проверки кода, предназначенный для предотвращения потока кода, сгенерированного искусственным интеллектом

Компания Anthropic внедрила функцию проверки кода в Claude Code, предназначенную для команд, перегруженных запросами на слияние, созданными инструментами программирования на основе ИИ. Она использует несколько агентов параллельно для сканирования кода, выявления логических ошибок, оценки их серьезности и оставления комментариев непосредственно в GitHub. ( TechCrunch )

Суть довольно проста: ИИ генерирует код быстрее, чем люди могут его разумно проверить, поэтому теперь ИИ должен проверять сам ИИ. Немного парадоксальная ситуация, но практичная. Компания Anthropic заявляет, что ориентирована на корпоративных пользователей, которые уже видят огромные объемы кода, генерируемые Claude Code. ( TechCrunch )

💰 Компания Nscale, поддерживаемая Nvidia, была оценена в 14,6 миллиарда долларов в рамках нового раунда финансирования

Британская компания Nscale, специализирующаяся на инфраструктуре искусственного интеллекта, привлекла 2 миллиарда долларов в рамках раунда финансирования серии C, достигнув оценки в 14,6 миллиарда долларов. В число инвесторов вошли Aker, 8090 Industries, Nvidia, Citadel, Dell и Jane Street, что является довольно весомым вотумом доверия. ( Reuters )

Этот проект важен, потому что это не очередной запуск новой модели или доработка чат-бота. Это практическая сторона бурного роста — вычислительные мощности, инфраструктура, мощности, вся тяжелая техника, стоящая за всем этим. Возможно, это не очень привлекательно, но именно туда сейчас устремляются огромные деньги. ( Reuters )

🧠 Компания AMI Labs Янна Лекуна привлекла 1,03 миллиарда долларов для создания глобальных моделей

Новое предприятие Янна ЛеКуна, AMI Labs, привлекло 1,03 миллиарда долларов инвестиций при предварительной оценке в 3,5 миллиарда долларов. Компания занимается созданием «моделей мира» — систем искусственного интеллекта, предназначенных для обучения на основе самой реальности, а не в первую очередь на основе языка. ( TechCrunch )

Это прямой философский выпад против нынешнего консенсуса, основанного на теории языков-моделей, и весьма резкий. ЛеКун годами утверждал, что современные языковые модели не позволят нам достичь уровня человеческого интеллекта, поэтому это повышение превращает этот аргумент в очень дорогостоящий эксперимент. ( TechCrunch )

🇨🇳 Китайские технологические центры продвигают ИИ-агента OpenClaw, несмотря на предупреждения о безопасности

Несколько китайских местных органов власти поддерживают OpenClaw, агента искусственного интеллекта, который быстро распространяется, несмотря на опасения по поводу безопасности, связанные с его доступом к персональным данным. Таким образом, официальная позиция, похоже, такова: да, риски есть — и да, давайте все равно масштабировать его. ( Reuters )

Суть этого раскола в следующем: местные центры стремятся к экономическому росту и развитию экосистемы, в то время как регулирующие органы предупреждают о риске утечки данных. Похоже, это уже знакомая схема в сфере ИИ — сначала рывок, потом наведение порядка. ( Reuters )

Часто задаваемые вопросы

Почему компания Anthropic подала в суд на Пентагон из-за ограничений на использование ИИ?

Компания Anthropic утверждает, что Пентагон назвал ее риском для цепочки поставок после того, как компания отказалась от более широких условий, которые могли бы распространяться на автономное оружие и внутреннее наблюдение. Это означает, что судебный процесс касается не только статуса поставщика. Он проверяет, может ли лаборатория искусственного интеллекта соблюдать жесткие ограничения безопасности и при этом конкурировать за государственные заказы, не подвергаясь санкциям.

Почему сотрудники OpenAI и Google поддерживают Anthropic в этом споре о безопасности ИИ?

Мнение экспертов свидетельствует о том, что многие сотрудники конкурирующих лабораторий рассматривают это как прецедентный вопрос безопасности ИИ, а не просто как конфликт между одной компанией и одним ведомством. Их беспокоит то, что наказание поставщика за соблюдение «красных линий» может оказать давление на рынок в целом и привести к ослаблению мер защиты. На практике это может повлиять на то, как будут заключаться будущие контракты в сфере обороны и государственного сектора, связанные с ИИ.

Как может измениться ситуация с участием компаний Anthropic и Пентагона для политики в области искусственного интеллекта и оборонных контрактов?

Если Anthropic одержит победу, компании, занимающиеся разработкой ИИ, могут получить более веские основания для определения неприемлемых способов его использования, даже при продажах в чувствительных государственных структурах. Если же Anthropic проиграет, ведомства смогут получить рычаги давления, чтобы требовать от поставщиков более широких условий «законного использования». В любом случае, этот спор, вероятно, повлияет на формулировки в законодательстве о закупках, на оценку рисков и на то, как в оборонные сделки включаются меры безопасности.

Почему компания OpenAI приобрела Promptfoo для разработки ИИ-агентов?

Компания Promptfoo известна тестированием больших языковых моделей на наличие враждебных подсказок и других уязвимостей безопасности. Интеграция подобных инструментов в корпоративную агентскую платформу OpenAI говорит о том, что компания рассматривает более безопасное развертывание как конкурентное преимущество, а не как второстепенную задачу. По мере того, как агенты ИИ берут на себя все более существенную работу, тестирование на отказоустойчивость и защиту от злоупотреблений становится гораздо сложнее игнорировать.

Как командам можно безопаснее справляться с потоком кода, сгенерированного искусственным интеллектом?

Новая функция проверки кода от Anthropic, встроенная в Claude Code, предназначена для команд, перегруженных запросами на слияние, генерируемыми инструментами ИИ для кодирования. Она использует несколько агентов параллельно для выявления логических проблем, оценки их серьезности и оставления комментариев в GitHub. Как правило, подобные инструменты помогают сортировать большой объем кода, но мнение людей-рецензентов по-прежнему важно для понимания архитектуры, контекста и окончательного утверждения.

Почему именно сейчас в инфраструктуру искусственного интеллекта вкладываются такие большие средства?

Последний раунд финансирования Nscale подчеркивает, что индустрия ИИ по-прежнему вкладывает огромные средства в вычислительные мощности, инфраструктуру и ресурсы. Эти расходы могут быть менее заметны, чем эффектный запуск модели, но они лежат в основе всего остального. Когда спрос на обучение и развертывание продолжает расти, компании, продающие инструменты и средства, часто становятся одними из главных победителей.

Что такое мировые модели, и почему Ян Лекун делает на них ставку?

Мировые модели — это системы искусственного интеллекта, предназначенные для обучения на основе поведения окружающего мира, а не для опоры в первую очередь на языковые данные. Это важно, поскольку Ян Лекун давно утверждал, что языковые модели сами по себе вряд ли достигнут уровня человеческого интеллекта. AMI Labs превращает эту точку зрения в крупную коммерческую ставку на иной путь развития передовых исследований в области искусственного интеллекта.

Почему китайские технологические центры поддерживают OpenClaw, несмотря на предупреждения о безопасности?

История OpenClaw демонстрирует знакомый раскол на быстро развивающихся технологических рынках: местные органы власти стремятся к росту, субсидиям и развитию экосистемы, в то время как регулирующие органы обеспокоены утечкой данных и безопасностью. Поддержка агента, несмотря на предупреждения, говорит о том, что в некоторых местах преобладают экономические стимулы. Для наблюдателей это еще одно напоминание о том, что внедрение часто происходит быстрее, чем надзор.

Вчерашние новости об ИИ: 8 марта 2026 года

Найдите новейшие разработки в области ИИ в официальном магазине ИИ-помощников

О нас

Вернуться в блог