🦞 Основатель OpenClaw Штейнбергер присоединяется к OpenAI, бот с открытым исходным кодом становится фондом ↗
Питер Штайнбергер переходит в OpenAI, чтобы продвигать «персональных агентов», а сам OpenClaw переходит под управление фонда, чтобы оставаться проектом с открытым исходным кодом (и получать поддержку). Такое разделение… довольно умно: нанять разработчика, а проект оставить открытым.
OpenClaw предлагает удивительно практичный подход: сортировка электронной почты, оформление страховых документов, регистрация на рейс, решение рутинных бытовых задач. Он также стал очень популярен на GitHub, и эта популярность вызвала опасения по поводу безопасности, особенно если его использовать неосторожно.
🪖 Пентагон «сыт по горло» противодействием компании Anthropic использованию модели ИИ Клода военными и может разорвать с ней отношения, говорится в отчете ↗
Суть спора: Пентагон хочет широкого доступа «для всех законных целей», а компания Anthropic по-прежнему пытается сохранить жесткие ограничения в отношении полностью автономного оружия и массового наблюдения. Такие разногласия звучат философски, пока кто-нибудь не скажет: «Мы можем вас заменить»
Один недооцененный нюанс — чиновники не хотят, чтобы модель внезапно блокировала рабочие процессы на полпути, и они не хотят бесконечно обсуждать нестандартные ситуации (справедливо… но и страшно). Здесь возникает реальное противоречие в вопросе «кто держит ключи», и оно недвусмысленно.
🧠 Стартап разрабатывает модель для прогнозирования поведения человека ↗
Компания Simile привлекла 100 миллионов долларов для создания модели «ограниченного обучения», направленной на прогнозирование действий людей, в частности, на предсказание вероятных вопросов, например, во время конференц-звонков по финансовым результатам. Узкая цель, большие амбиции, несколько странное сочетание.
Этот подход основан на интервью с реальными людьми и данных поведенческих исследований, а затем запускает симуляции с помощью агентов искусственного интеллекта, призванных имитировать реальные предпочтения. Это как создание модели погоды для принятия решений человеком… что звучит невозможно, пока не становится реальностью.
🧑⚖️ Сенсация: Белый дом оказывает давление на законодателя штата Юта, чтобы тот отклонил законопроект о прозрачности в сфере ИИ ↗
Инициатива по обеспечению прозрачности в сфере искусственного интеллекта в штате Юта подвергается прямой критике со стороны Белого дома, и чиновники призывают инициатора законопроекта не продвигать его дальше. В основе законопроекта лежат принципы прозрачности и безопасности детей – с точки зрения имиджа с этим трудно поспорить.
Но более серьёзная проблема заключается в юрисдикционном вопросе: кто имеет право устанавливать правила — штаты или федеральное правительство? И да, это настоящая борьба — как два человека, схватившиеся за один руль и настаивающие на том, что именно они спокойнее.
🎬 Компания ByteDance обязуется предотвратить несанкционированное использование интеллектуальной собственности в инструменте для создания видео с использованием ИИ после угроз со стороны Disney ↗
Компания Disney направила компании ByteDance требование о прекращении противоправных действий в связи с использованием генератора видео на основе искусственного интеллекта, а ByteDance заявляет, что усиливает меры защиты для предотвращения несанкционированного использования интеллектуальной собственности и изображений. По имеющимся данным, претензия заключается в том, что инструмент может выдавать знакомых персонажей франшизы так, будто это просто… общедоступные наклейки.
Это столкновение, которого все ожидали: вирусные видеоинструменты на основе ИИ развиваются стремительно, студии склонны к судебным разбирательствам, а фраза «мы добавим меры безопасности» становится стандартной формулировкой извинений. Как ни странно, технология выглядит как волшебство, а юридическая сторона — как гравитация.
Часто задаваемые вопросы
Что означает тот факт, что основатель OpenClaw присоединился к OpenAI, в то время как OpenClaw перешёл в состав фонда?
Это свидетельствует о расколе между человеком, создающим «персональных агентов», и проектом, остающимся под публичным управлением. Присоединение Штейнбергера к OpenAI предполагает, что он сосредоточится на развитии продуктов в стиле агентов именно там. Размещение OpenClaw в фонде призвано сохранить его открытым исходным кодом и обеспечить устойчивую поддержку. На практике этот шаг направлен на сохранение доверия сообщества, в то время как разработчик направляется туда, где есть ресурсы.
Почему агенты искусственного интеллекта в стиле OpenClaw сосредоточены на таких рутинных задачах, как работа с электронной почтой и документами?
Поскольку работа по «бытовому администрированию» монотонна, основана на правилах и отнимает много времени, она является практичной целью для автоматизации. Приведенные здесь примеры — сортировка электронной почты, оформление страховых документов и регистрация на рейсы — это узкоспециализированные задачи с четкими критериями успеха. Такая направленность позволяет агентам почувствовать свою ценность быстрее, чем более гибкие помощники. Это также подчеркивает важность тщательного контроля доступа, когда агенты работают с личными учетными записями.
Как развернуть агент искусственного интеллекта с открытым исходным кодом, такой как OpenClaw, без создания проблем с безопасностью?
Относитесь к этому как к программному обеспечению, способному получать доступ к конфиденциальным данным, а не как к игрушечному скрипту. Распространенный подход заключается в защите учетных данных, ограничении разрешений до минимально необходимого уровня и ведении журналов и аудиторских следов. Запускайте его в ограниченной среде и изолируйте от важных систем. Многие проблемы безопасности возникают из-за небрежного развертывания, особенно когда люди предоставляют доступ к конечным точкам или токенам без надежных мер защиты.
Почему Пентагон недоволен ограничениями, наложенными компанией Anthropic на использование препарата Claude в военных целях?
Спор сосредоточен на масштабах и контроле: Пентагон хочет широкого доступа «для всех законных целей», в то время как Anthropic, как утверждается, будет придерживаться жестких ограничений в отношении полностью автономного оружия и массового наблюдения. Официальные лица также не хотят, чтобы модели блокировали рабочие процессы на промежуточных этапах или требовали бесконечных переговоров по нестандартным ситуациям. Это противоречие не так абстрактно, как кажется — речь идет о том, кто решает, что модель может делать в реальных операциях.
Как стартапы пытаются предсказывать поведение человека с помощью ИИ, и почему это вызывает споры?
В качестве примера здесь приводится Simile, которая использует модель «ограниченного обучения», направленную на прогнозирование действий людей, включая предсказание вероятных вопросов в таких контекстах, как телефонные конференции по финансовым результатам. Описанный подход сочетает интервью с данными поведенческих исследований и моделированием с использованием агентов ИИ, призванных имитировать реальные предпочтения. Это вызывает тревожные ощущения, поскольку ИИ переходит от реагирования на действия людей к их прогнозированию. Задача состоит в том, чтобы ограничить высказываемые утверждения и избежать чрезмерной самоуверенности.
Что происходит, когда инструменты искусственного интеллекта для создания видеоконтента генерируют персонажей, защищенных авторским правом, как в конфликте между ByteDance и Disney?
Наблюдаемая схема хорошо известна: студия направляет требование о прекращении противоправных действий, а платформа в ответ усиливает меры защиты, чтобы предотвратить несанкционированное использование интеллектуальной собственности или изображений. Во многих инструментах меры защиты означают более жесткие фильтры контента, улучшенное распознавание узнаваемых персонажей и более четкое соблюдение правил использования. Основной конфликт заключается в соотношении скорости и ответственности: вирусное распространение происходит быстро, а соблюдение прав действует как гравитация. Ожидайте больше подобных столкновений по мере распространения генераторов видео.