🏛️ Правительство создаст новую лабораторию, чтобы Великобритания оставалась в числе лидеров в области прорывных достижений в сфере искусственного интеллекта ↗
В Великобритании создается поддерживаемая правительством Лаборатория фундаментальных исследований в области искусственного интеллекта, позиционируя это как «перспективную» работу — рискованную, медленную, но порой приносящую результаты, на фоне которых все остальные выглядят так, будто задремали. ( GOV.UK )
В центре внимания не просто «более крупные модели, больше графических процессоров», а борьба с такими распространенными недостатками, как галлюцинации, нехватка памяти и непредсказуемые рассуждения, а также предоставление исследователям доступа к серьезным вычислительным ресурсам через Исследовательский ресурс по искусственному интеллекту. Звучит очень разумно… и, кроме того, незаметно, похоже на попытку предотвратить мгновенный переманивание лучших умов Великобритании в другие страны. ( GOV.UK )
🧨 Генеральный директор Nvidia намекает на прекращение инвестиций в OpenAI и Anthropologie ↗
Дженсен Хуанг дает понять, что Nvidia, возможно, больше не будет инвестировать в передовые лаборатории искусственного интеллекта прежним способом — динамика IPO (и масштаб обсуждаемых проверок) затрудняют осуществление такого рода финансирования. ( Reuters )
Стоит обратить внимание на эту смену тона: Nvidia — король «кирпичей и лопат» во всем этом буме, но при этом намекает, что «владение долями в горнодобывающих компаниях» уже не всегда является оптимальным вариантом. Или, может быть, это просто открытое заявление, что генеральные директора делают, как дышат. ( Reuters )
🧩 Эксклюзив: Крупная технологическая группа поддерживает Anthropic в споре с Пентагоном, поскольку инвесторы стремятся к деэскалации конфликта по поводу мер защиты ИИ ↗
Противостояние Anthropic с Пентагоном превращается в настоящий котел под давлением — по сообщениям, инвесторы хотят снизить накал страстей, в то время как компания пытается придерживаться своей позиции в отношении формулировок, гарантирующих безопасность (особенно в отношении слежки). ( Reuters )
Подтекст этой истории почти громче самого текста: в эпоху ИИ формулировки контрактов — это не «юридические придирки», а, по сути, политика в отношении продукта, и именно они определяют, станет ли модель инструментом, оружием или огромной проблемой. ( Reuters )
🪖 Сэм Альтман признает, что OpenAI не может контролировать использование искусственного интеллекта Пентагоном ↗
Как сообщается, Альтман заявил сотрудникам, что OpenAI не может контролировать, как Пентагон будет использовать свой ИИ после его развертывания, — что звучит неубедительно, поскольку точно отражает опасения, которые высказывались ранее. ( The Guardian )
В более широком контексте нарастает трение между принципами «мы поможем, но с правилами» и «мы поможем, и точка», а также внутренняя и общественная негативная реакция, когда принятие военных решений кажется поспешным или оппортунистическим. Этические вопросы здесь — это не столько четкая грань, сколько размокшая краска: каждый наступает на нее, а потом спорит, чья это обувь. ( The Guardian )
🧬 Новая программа стажировки в области искусственного интеллекта в геномике, реализуемая совместно с Институтом Сэнгера и Google DeepMind ↗
Институт Веллкома Сангера запускает финансируемую DeepMind академическую стипендию, ориентированную на применение ИИ в геномике. Эта стипендия позиционируется как первая в своем роде для стипендиата DeepMind в данной конкретной области. ( sanger.ac.uk )
Что интересно (и, честно говоря, немного освежает), так это акцент на малоизученных проблемах геномики, где ИИ еще не повсеместно используется, — плюс явное указание на то, что DeepMind не руководит исследованиями стипендиата. Это как дать кому-то ракету и сказать: «Иди открой что-нибудь», вместо «Иди оптимизируй нашу дорожную карту». ( sanger.ac.uk )
Часто задаваемые вопросы
Что представляет собой поддерживаемая правительством Великобритании Лаборатория фундаментальных исследований в области искусственного интеллекта, и чем она будет заниматься?
Поддерживаемая правительством Лаборатория фундаментальных исследований в области искусственного интеллекта позиционируется как перспективный исследовательский проект — высокорискованная работа, результаты которой могут проявиться не сразу. Вместо того чтобы концентрироваться только на масштабировании всё более крупных моделей, она стремится решать такие распространённые проблемы, как галлюцинации, нехватка памяти и непредсказуемое мышление. Суть в том, что прорывы происходят на фундаментальном уровне, а не просто за счёт добавления большего количества графических процессоров.
Как Лаборатория фундаментальных исследований в области искусственного интеллекта Великобритании может помочь исследователям получить доступ к серьезным вычислительным ресурсам?
Наряду с Британской лабораторией фундаментальных исследований в области искусственного интеллекта, план подчеркивает доступ к значительным вычислительным ресурсам через Исследовательский ресурс по искусственному интеллекту. На практике это, как правило, означает, что исследователи могут проводить эксперименты, которые в противном случае были бы ограничены стоимостью или инфраструктурой. Это также позволяет командам проверять идеи в масштабе, где такие проблемы, как надежность и устойчивость, становятся конкретными, а не просто теоретическими.
Почему в Великобритании делают упор на галлюцинации, короткую память и непредсказуемое мышление?
Эти недостатки проявляются на этапе внедрения и могут быстро подорвать доверие. Заявленная направленность предполагает, что цель состоит не только в повышении функциональности, но и в обеспечении надежности — сокращении количества вымышленных результатов, улучшении обработки моделями более длительного контекста и снижении непредсказуемости рассуждений. Такая работа часто занимает больше времени и сопряжена с большими рисками, поэтому она позиционируется как фундаментальное исследование.
Что на самом деле означает изменение позиции Nvidia в отношении инвестиций в OpenAI или Anthropic?
В репортаже это представлено как намек на то, что Nvidia, возможно, прекратит инвестировать в передовые лаборатории в прежнем формате, особенно с учетом динамики IPO и огромных сумм чеков, которые усложняют эту стратегию. Даже будучи лидером в области аппаратного обеспечения для ИИ, компания намекает на то, что приобретение долей в бизнесе не всегда является лучшим решением. Это также может быть осторожным заявлением, что часто встречается в комментариях руководителей.
Почему спор компании Anthropic с Пентагоном по поводу «гарантийных формулировок» стал таким важным?
Главный тезис статьи заключается в том, что формулировки контрактов могут стать политикой продукта, особенно когда речь идёт о наблюдении и других деликатных аспектах использования. Сообщается, что инвесторы хотят урегулировать конфликт, в то время как компания пытается придерживаться своей позиции в отношении мер безопасности. Во многих проектах по внедрению ИИ эти пункты определяют, для чего может использоваться система и какие риски компания фактически принимает на себя.
Что означает заявление Сэма Альтмана о том, что OpenAI не может контролировать использование ИИ в Пентагоне?
Речь идёт о практическом ограничении: после внедрения инструмента у первоначального разработчика может быть ограниченная возможность контролировать его дальнейшее использование. Это очень важно, поскольку указывает на основной страх, который люди высказывают по поводу принятия инструментов в военных целях: правила могут существовать на этапе заключения контракта, но их соблюдение может быть затруднено. Это также отражает более широкое противоречие между принципом «помощь с ограничениями» и принципом «помощь, несмотря ни на что»