🇬🇧 Смелая ставка на ИИ позволит Великобритании оставаться в авангарде науки и научных прорывов — от здравоохранения до улучшения государственных услуг ↗
Главный государственный фонд финансирования научных исследований Великобритании (UKRI) опубликовал свою первую специализированную стратегию в области ИИ, в которой, по сути, выступает за расширение использования ИИ в исследованиях, повышение квалификации специалистов по ИИ, развитие инфраструктуры ИИ — за весь комплекс мер.
Это открывает путь для серьезных инвестиций в ИИ, а также для конкретных проектов, таких как модернизация суперкомпьютера DAWN в Кембридже и поддержка работы по направлению «ИИ для науки» (неудивительно, что упоминается и разработка лекарств). Текст звучит как «не только выполняйте основные задачи, но и добивайтесь результатов»… что создает определенное настроение, или же это балансирование на грани, или и то, и другое.
🛡️ OpenAI и Microsoft присоединились к международной коалиции Великобритании по защите развития искусственного интеллекта ↗
OpenAI и Microsoft выделили дополнительное финансирование проекту Alignment Института безопасности ИИ Великобритании — объем независимых исследований по вопросам согласования увеличился, и они позиционируют это как укрепление доверия, а не просто как взаимную критику.
Здесь важна структура: международная коалиция, множество спонсоров и ряд грантов, распределяемых по разным странам. Это «согласование как экосистема», а не «согласование как секретный ингредиент одной лаборатории»… даже если лаборатории по-прежнему владеют большей частью этого ингредиента.
🧠 Развитие независимых исследований в области согласования ИИ ↗
Компания OpenAI выделила 7,5 млн долларов на британский проект AISI Alignment Project — средства, специально предназначенные для независимых групп, занимающихся вопросами безопасности/выравнивания за пределами передовых лабораторий.
Суть довольно прямолинейна: передовые лаборатории могут обеспечить согласование данных с использованием большого объема моделей, но этой области также необходимы уникальные, разнообразные и некоррелированные идеи от сторонних специалистов (их формулировки приятнее, но вы понимаете). Кроме того, в основе всего лежит четкая концепция «итеративного внедрения» — внедрение, обучение, повышение безопасности… повторение… или так кажется.
💳 Министерство финансов США выпустило два новых ресурса, призванных помочь в использовании ИИ в финансовом секторе ↗
Министерство финансов США представило два практических инструмента для финансовой сферы: общий лексикон ИИ (чтобы все перестали спорить о значении слов) и систему управления рисками в сфере финансовых услуг с использованием ИИ, которая адаптирует подход NIST к реалиям банковской деятельности.
В основе лежит управление, основанное на оценке рисков, с достаточной детализацией, чтобы его могли использовать группы по соблюдению нормативных требований, регулирующие органы и поставщики, не заставляя каждого параллельно придумывать свои собственные определения. Это своего рода прозаический документ, который незаметно формирует то, что утверждается… что обладает мощным потенциалом, сравнимым с хранением документов в картотеке.
🪖 Технический директор Пентагона заявил, что ограничение компанией Anthropic использования системы искусственного интеллекта Claude в военных целях «недемократично» ↗
Один из руководителей технологической компании Пентагона публично выступил против решения Anthropic ограничить военное использование Claude, назвав это «недемократичным» поведением, когда одна компания устанавливает дополнительные правила, выходящие за рамки законов и нормативных актов.
Это происходит на фоне более широкой борьбы, в которой множество передовых компаний, занимающихся разработкой моделей искусственного интеллекта, имеют оборонные контракты на адаптацию генерированного ИИ для военных целей, и точка трения именно та, которую можно ожидать: политика компаний в отношении использования против желания правительства использовать его в оперативной деятельности. Всё это напоминает рукопожатие, перерастающее в борьбу на руках прямо во время фотосессии.
Часто задаваемые вопросы
В чём заключается стратегия UKRI в области искусственного интеллекта и почему она важна?
Первая специализированная стратегия UKRI в области ИИ обосновывает необходимость дальнейшего внедрения ИИ в исследовательскую деятельность — с точки зрения навыков, инфраструктуры и практического применения. Основной тезис — «не только фундаментальные задачи, но и получение результатов», что указывает на необходимость преобразования инвестиций в исследования в пользу для общественности. Стратегия также предполагает комплексный подход: не только модели финансирования, но и вычислительные ресурсы, персонал и пути внедрения, обеспечивающие устойчивый прогресс.
Что на самом деле позволяет сделать модернизация суперкомпьютера DAWN в Кембридже?
Модернизация суперкомпьютера DAWN в Кембридже позиционируется как шаг в развитии инфраструктуры, поддерживающий более амбициозные проекты в области искусственного интеллекта в рамках британских исследований. На практике это обычно означает увеличение мощностей для обучения, оценки и крупномасштабных экспериментов, которые с трудом эффективно выполняются на небольших установках. Во многих процессах более мощные общие вычислительные мощности устраняют узкие места в университетах и ускоряют цикл от прототипов до результатов, пригодных для публикации и тестирования.
Что означает «Искусственный интеллект для науки» в контексте стратегии Великобритании в области ИИ?
Концепция «ИИ для науки» представлена как использование методов ИИ для ускорения научных открытий, при этом явно упоминается разработка лекарств. На практике это часто включает в себя использование ИИ для генерации гипотез, поиска в больших пространствах вариантов или определения приоритетов экспериментов. Акцент указывает на стремление к результатам, которые явно выходят за рамки академической среды — новые методы, более короткие циклы и приложения, связанные со здравоохранением и государственными услугами.
Что представляет собой проект по согласованию действий Института безопасности ИИ Великобритании и кто его финансирует?
Проект Alignment Института безопасности ИИ Великобритании описывается как международная коалиционная структура, поддерживающая независимые исследования в области согласования, с участием множества спонсоров. OpenAI и Microsoft выделены как организации, привлекающие новое финансирование, которое рассматривается как укрепление доверия и поддержка экосистемы. Модель представляет собой «согласование как экосистему», где гранты распределяются между командами в разных странах, а не концентрируются в рамках передовых лабораторий.
Почему компания OpenAI вложила 7,5 млн долларов в независимые исследования по согласованию ИИ?
Логика OpenAI заключается в том, что передовые лаборатории могут проводить исследования в области безопасности, зависящие от глубокого доступа к моделям, в то время как независимые команды могут предлагать разнообразные, некоррелированные идеи, которые лаборатории могут упустить. Акцент делается на расширении области исследований за пределы «секретного рецепта одной лаборатории». В статье также намекается на концепцию «итеративного развертывания»: развертывание, обучение на основе отзывов о развертывании, повышение безопасности систем, а затем повторение.
Как ресурсы Министерства финансов США в области искусственного интеллекта влияют на управление ИИ в финансовом секторе?
Министерство финансов США выпустило общий словарь терминов, связанных с ИИ, и структуру управления рисками в сфере ИИ для финансовых услуг, адаптированную на основе подхода NIST. Цель состоит в том, чтобы уменьшить разрозненность определений и предоставить группам по соблюдению нормативных требований, регулирующим органам и поставщикам единый алгоритм действий. Во многих организациях подобные документы определяют то, что утверждается на практике, поскольку они стандартизируют ожидания в отношении контроля, документации и принятия решений на основе оценки рисков.