🧠 OpenAI сотрудничает с Cerebras ↗
Компания OpenAI заявляет о добавлении 750 МВт вычислительных мощностей для ИИ со сверхнизкой задержкой с помощью Cerebras — по сути, это попытка сделать ответы более «в режиме реального времени», а не типа «иди завари чай, вернись позже».
Суть проста: более быстрые циклы вывода (задать вопрос — подумать — ответить) означают, что люди дольше остаются на платформе и выполняют более ресурсоемкие задачи… что, да, вполне логично. Мощности будут вводиться поэтапно, и к 2028 году будет добавлено больше ресурсов.
🔍 Google использует электронную почту и историю просмотров YouTube в стремлении к созданию персонализированного искусственного интеллекта ↗
Сервис Google Gemini становится все более «индивидуально ориентированным», используя такие ресурсы, как Gmail, Поиск и история YouTube — по крайней мере, если вы включите эту функцию (по умолчанию она отключена). Это чат-бот, который узнает о вашем голоде раньше, чем вы сами.
Идея заключается в том, что Gemini может определять предпочтения и контекст, поэтому ответы кажутся менее шаблонными и больше похожими на то, что приложение действительно помнит вашу жизнь. Удобно — и к тому же, это заставляет вас остановиться посреди прокрутки и подумать: «Подождите, оно много знает»
🧩 Продажа мощного чипа Nvidia для искусственного интеллекта в Китай получила разрешение, но с условиями ↗
США одобрили продажу чипов Nvidia H200 AI Китаю, но с рядом оговорок (приоритет поставок в США, дополнительные этапы проверки, ограничения на места дистрибуции чипов).
Мнения законодателей разделились: одни видят в этом угрозу национальной безопасности, другие — фактор повышения конкурентоспособности (потому что если вы не продадите, это сделает кто-то другой… или Китай просто строит быстрее). Это один из тех политических шагов, который одновременно является «стратегическим» и каким-то образом запутанным.
🛡️ Бельгийский стартап в сфере кибербезопасности Aikido достиг статуса «единорога», получив новый раунд финансирования ↗
Компания Aikido Security достигла оценки в 1 миллиард долларов после привлечения 60 миллионов долларов , сделав упор на «меры безопасности для разработчиков», поскольку программирование с использованием ИИ продолжает… умножать код, ошибки и непредвиденные сюрпризы.
Они позиционируют это как систему безопасности, ориентированную на разработчиков, которая автоматически выявляет риски, не превращая каждый спринт в кошмар с точки зрения соблюдения нормативных требований. Немного поразительно, как быстро они развиваются — рынок явно платит за то, чтобы «пожалуйста, остановите распространение уязвимостей в моем коде ИИ».
👩💻 Компания Anthropic расширяет возможности Claude Code, предлагая коворкинг за пределы задач разработчиков ↗
Anthropic расширяет возможности Claude Code, предлагая более широкий формат совместной работы через Cowork — это не просто помощь в программировании, а скорее ассистент для совместной работы, который может быть интегрирован в рабочие процессы.
Это часть более широкой тенденции, когда помощники в разработке кода перестают быть просто модными функциями автозаполнения и начинают действовать как полуавтономные члены команды… что либо захватывающе, либо тревожно, либо и то, и другое — в зависимости от того, как прошел ваш последний обзор запроса на слияние.
🧯 Компания depthfirst объявляет о привлечении 40 миллионов долларов в рамках раунда финансирования серии А для обеспечения безопасности мирового программного обеспечения ↗
Компания depthfirst привлекла 40 миллионов долларов для разработки подхода к обеспечению безопасности программного обеспечения, основанного на искусственном интеллекте, — подхода, который призван выявлять реальные уязвимости с меньшим количеством ложных срабатываний (по правде говоря, это вечная мечта).
Они позиционируют себя как «лаборатория прикладного ИИ» в сфере безопасности, а финансирование направлено на масштабирование исследований и разработки продуктов. Если ИИ помогает писать больше кода быстрее, то контрмера — это, по сути, ИИ, помогающий быстрее его защищать, — змея, поедающая змею в плаще.
Часто задаваемые вопросы
Что означает партнерство OpenAI с Cerebras для скорости отклика?
Компания OpenAI заявляет, что партнерство с Cerebras добавит 750 МВт вычислительных мощностей для ИИ со сверхнизкой задержкой, что позволит сделать ответы более реалистичными. Практическое преимущество заключается в ускорении циклов вывода — «спросить, подумать, ответить» — благодаря чему взаимодействие будет происходить быстрее. Это также позволит более плавно обрабатывать большие объемы данных, избегая долгих и неловких пауз. Планируется поэтапное внедрение этих мощностей до 2028 года.
Когда же станут доступны вычислительные мощности Cerebras мощностью 750 МВт?
В объявлении это представлено как поэтапное развертывание, при котором дополнительные мощности будут введены в эксплуатацию к 2028 году, а не сразу. При поэтапном наращивании мощности сначала проявляются первые преимущества, которые затем усиливаются по мере расширения инфраструктуры. Если вы отслеживаете влияние, наиболее очевидные сигналы обычно проявляются в виде меньшей задержки и более стабильной работы под нагрузкой. Главный вывод — это многолетнее развертывание.
Как Google Gemini использует историю Gmail, поиска и YouTube для персонализации?
План Google состоит в том, чтобы сделать Gemini более персонализированным, используя такие источники, как Gmail, Поиск и историю YouTube, — но только если вы дадите на это согласие. По умолчанию эта функция отключена, что важно для обеспечения конфиденциальности и формирования ожиданий. Цель состоит в том, чтобы Gemini определял ваши предпочтения и контекст, чтобы ответы казались менее шаблонными. Многие пользователи будут сопоставлять удобство с тем, какой объем «памяти» они готовы включить.
Включается ли персонализация Gemini автоматически, и каковы последствия для конфиденциальности?
В рамках этого обновления Google позиционирует эту функцию как опциональную и отключаемую по умолчанию. Это означает, что вы можете разрешить Gemini использовать сигналы из таких продуктов, как Gmail или история просмотров YouTube, для персонализации ответов. Компромисс очевиден: больше контекста может повысить релевантность, но это также увеличивает объем персональных данных, задействованных в процессе. Распространенный подход — выборочное включение этой функции и регулярный пересмотр настроек.
Какие условия США выдвинули для продажи чипов Nvidia H200 Китаю?
Описанное здесь одобрение сопровождается определенными ограничениями, включая приоритет для поставок из США, дополнительные этапы проверки и ограничения на то, куда в конечном итоге могут попасть микросхемы. Также четко обозначена проблема: одни законодатели видят в этом угрозу национальной безопасности, в то время как другие утверждают о конкурентоспособности — если американские компании не будут продавать свою продукцию, могут появиться альтернативные поставщики или отечественные заменители. Это политический шаг со стратегическими намерениями и сложными компромиссами.
Почему такие стартапы в сфере безопасности ИИ, как Aikido и depthfirst, привлекают крупные инвестиции именно сейчас?
Основная идея заключается в том, что разработка с использованием ИИ приводит к увеличению объема кода, а вместе с ним и количества ошибок и непредвиденных уязвимостей, поэтому растет спрос на удобные для разработчиков средства защиты. Aikido позиционируется как система безопасности, ориентированная на разработчиков, которая выявляет риски, не превращая каждый спринт в проблему соблюдения нормативных требований, в то время как depthfirst предлагает подход, основанный на ИИ, направленный на выявление реальных проблем с меньшим количеством ложных срабатываний. По мере роста объема кода «обеспечение более быстрой защиты» становится статьей бюджета, а не просто желательной функцией.