🏗️ США подталкивают компании к заключению нового «соглашения» о центрах обработки данных для ИИ, сообщает Politico ↗
По имеющимся данным, США пытаются убедить крупные компании подписать новое «соглашение» для центров обработки данных, предназначенных для искусственного интеллекта, — по сути, пакет обязательств о том, как следует организовывать создание таких огромных вычислительных мощностей.
Подробности пока несколько туманны (классическая ситуация), но направление кажется знакомым: стандартизация ожиданий в отношении энергетики, безопасности и, возможно, отчетности — вежливая версия политики «пожалуйста, не допустите, чтобы это превратилось в хаос»
🎬 Компания Autodesk подала в суд на Google из-за программного обеспечения для создания фильмов на основе искусственного интеллекта ↗
Компания Autodesk подала в суд на Google из-за названия «Flow», утверждая, что уже использовала «Flow» для программного обеспечения, предназначенного для управления производством и визуальными эффектами, — и инструмент Google для создания фильмов с использованием искусственного интеллекта появился под тем же брендом.
Более важным моментом является утверждение, что Google ранее заявлял, что не будет коммерциализировать это название… а затем все равно подал заявку на регистрацию товарного знака. Это, конечно, борьба за товарный знак, но в ней также присутствует дух противостояния «крупной платформы и специализированного разработчика инструментов».
🏥 Исследование показало, что ИИ не лучше других методов для пациентов, обращающихся за медицинской помощью ↗
Новое исследование показало, что использование ИИ для предоставления медицинских рекомендаций пациентам не превзошло другие подходы, что неудивительно и даже немного успокаивает, в зависимости от того, насколько скептически вы относились к сервисам проверки симптомов.
Это не значит, что ИИ бесполезен в здравоохранении — просто «задать вопрос боту» не является автоматически улучшением по сравнению с существующими вариантами, особенно когда речь идет о точности и безопасности.
🩺 Приложения и боты на основе искусственного интеллекта стремительно проникают в медицину. У врачей возникают вопросы. ↗
В ходе расследования изучается, как медицинские приложения и чат-боты на основе искусственного интеллекта проникают в клиническую практику — порой быстрее, чем успевают за этим следовать рекомендации, надзор или просто имеющиеся данные.
Врачи выражают обеспокоенность по поводу надежности, вреда для пациентов и того, кто несет ответственность, когда бот дает советы, которые звучат уверенно, но неверно… как навигатор, настаивающий на том, чтобы вы въехали в озеро, только с лекарствами.
📈 Генеральный директор OpenAI заявил, что ChatGPT снова демонстрирует ежемесячный рост более чем на 10%, сообщает CNBC ↗
По сообщениям, генеральный директор OpenAI заявил, что ChatGPT снова демонстрирует ежемесячный рост более чем на 10%, что является значительным достижением, если предположить, что фаза «все уже это пробовали» достигла своего пика.
Это говорит о том, что либо поток новых пользователей продолжается, либо существующие пользователи находят больше причин оставаться с нами — либо и то, и другое. В любом случае, продукт ведёт себя не столько как мимолетная мода, сколько как инфраструктура… или так кажется.
Часто задаваемые вопросы
Что представляет собой предлагаемый США «контракт» по центрам обработки данных для ИИ?
Это описывается как набор обязательств, которые крупные компании должны будут принять при строительстве или эксплуатации больших центров обработки данных для ИИ. Цель состоит в стандартизации ожиданий, чтобы эти масштабные вычислительные проекты не были разрозненными или несогласованными между компаниями. Хотя конкретные детали пока не определены, акцент, похоже, делается на практических аспектах: энергопотребление, безопасность и, возможно, какая-то форма отчетности.
Зачем США нужны компании, которые подпишут соглашение о центрах обработки данных для ИИ?
Соглашение может установить общие базовые ожидания, не заставляя законодателей разрабатывать новые правила для каждого отдельного случая. В условиях быстрого расширения центров обработки данных для ИИ, политики часто беспокоятся о влиянии на энергосистему, рисках безопасности и операционной прозрачности. Распространенная стратегия заключается в том, чтобы на ранних этапах согласовать действия крупнейших игроков, чтобы передовые методы распространялись быстрее, а ответственность было легче отследить в случае возникновения проблем.
Какие обязательства могут быть включены в соглашение о центрах обработки данных для ИИ?
Судя по обсуждаемым вариантам, обязательства могут охватывать планирование энергоснабжения (как осуществляется закупка и управление электроэнергией), меры безопасности (физическую и кибербезопасность), а также некоторую форму отчетности или раскрытия информации. Во многих трубопроводах отчетность становится «упрощенным» уровнем контроля, который делает стандарты понятными и измеримыми. Если соглашение является добровольным, эти обязательства могут быть сформулированы как руководящие принципы, которые впоследствии помогут сформировать регулирование.
Что это за судебный иск, связанный с инструментом Google для создания фильмов с использованием искусственного интеллекта под названием «Flow»?
Компания Autodesk подала в суд на Google из-за названия «Flow», утверждая, что Autodesk уже использовала «Flow» для программного обеспечения, используемого в производстве и управлении визуальными эффектами. Спор рассматривается как конфликт товарных знаков и брендов, а также утверждается, что Google ранее заявляла, что не будет коммерциализировать это название, но позже всё равно подала заявку на регистрацию товарного знака. В таких делах часто решающее значение имеют приоритет бренда и вероятность путаницы.
Что означает утверждение, что ИИ не оказался лучше других методов предоставления медицинских консультаций пациентам?
Это говорит о том, что «задать вопрос боту» не означает автоматически, что это точнее или безопаснее, чем существующие способы получения пациентами рекомендаций. Это может успокоить, если вас беспокоят слишком самоуверенные ответы от сервисов проверки симптомов или чат-ботов. Это не исключает потенциальной ценности ИИ в здравоохранении, но подчеркивает необходимость доказательств, контроля и тщательной интеграции там, где ошибки могут причинить вред.
Почему врачи обеспокоены медицинскими приложениями и чат-ботами, работающими на основе искусственного интеллекта?
Врачи обеспокоены надежностью, вредом для пациентов и тем, кто несет ответственность, когда инструмент дает уверенные, но неверные рекомендации. Беспокойство вызывает не только точность; важно также, как пациенты интерпретируют результаты и не подталкивает ли система людей к небезопасному самолечению. В клинической практике неясная ответственность может стать серьезным риском: пациенты могут доверять инструменту, врачи могут не контролировать его, а внедрение рекомендаций может отставать от их обычного использования.