🧯 Компания OpenAI нанимает нового руководителя отдела готовности, который будет заниматься прогнозированием и смягчением негативных последствий использования ИИ ↗
Компания OpenAI разместила объявление о вакансии «Руководитель отдела готовности» — по сути, это человек, которому поручено представить наихудшие возможные варианты использования моделей, находящихся на грани допустимого, а затем разработать механизмы защиты, которые выдержат давление (а не просто будут формироваться на основе предположений и документов с изложением политики).
В описании активно акцент делается на моделировании угроз, их оценке и смягчении последствий как на реальном операционном процессе. Это работа по обеспечению безопасности, представленная как разработка программного обеспечения — в один момент обнадеживающая, в другой — слегка пугающая, поскольку подразумевает, что риски теперь имеют форму продукта.
🧑⚖️ Китай опубликовал проект правил регулирования искусственного интеллекта с человекоподобным взаимодействием ↗
Китайский регулятор в сфере кибербезопасности распространил проект правил, направленных на сервисы искусственного интеллекта, которые имитируют человеческие личности и эмоционально вовлекают пользователей — болтливые компаньоны, кокетливые помощники, вся эта зона «ты настоящий?».
Один из наиболее примечательных моментов: поставщики услуг должны будут предупреждать о чрезмерном использовании и вмешиваться, если у пользователей проявляются признаки зависимости или привыкания. В документе необычайно четко обозначены психологические риски — как будто кто-то, увидев тренд на «друзей-ИИ», решил: «Только не без ремней безопасности».
🧩 Прощай, GPT-5. Привет, Квен ↗
По мнению журнала Wired, Qwen завоевывает сердца не благодаря тому, что является лучшим эталонным устройством, а благодаря своей универсальности и простоте в настройке — что на практике и является предпочтительным выбором для сборщиков компьютеров. Это «инструмент, который действительно можно держать в руках», а не тот, что скрывается за бархатной веревкой.
В статье это представлено как более масштабный сдвиг: открытые модели, которые органично вписываются в продукты (и дорабатываются внутри компании), могут иметь большее значение, чем незначительное улучшение позиций в рейтинге. Немного провокационно, возможно, слегка нелестно по отношению к закрытым лабораториям… но суть понятна.
🎁 OpenAI и Anthropic удвоили лимиты использования ИИ в рамках праздничного бонуса для разработчиков: все, что вам нужно знать ↗
OpenAI и Anthropic временно увеличили лимиты использования своих инструментов, ориентированных на программирование, предоставив индивидуальным подписчикам больше возможностей для выполнения более ресурсоемких задач без немедленного превышения лимитов.
Издание Mint отмечает, что это увеличение мощности предназначено для активных пользователей, после чего все возвращается на круги своя. Это приятный момент, когда хочется сказать: «Вот вам еще больше энергии!», а также ненавязчивое напоминание о том, что емкость по-прежнему является конечным, ощутимым ограничением.
💻 Шейн Легг, соучредитель Google DeepMind, сформулировал «правило ноутбука», чтобы определить, может ли ИИ заменить вашу работу ↗
Шейн Легг выдвинул простую эвристику: если задачу можно выполнить полностью с помощью ноутбука (экран, клавиатура, микрофон, камера и т. д.), то это тот вид когнитивной работы, в рамках которой все более совершенный искусственный интеллект сможет эффективно функционировать.
Он также немного уклонился от ответа, отметив, что некоторая работа, выполняемая полностью онлайн, по-прежнему опирается на человеческое общение и личностные качества. Так что да, правило строгое… но это не гильотина, а скорее предупреждение о шторме.