🏫 В некоторых школах чат-боты задают ученикам вопросы об их работах. Но революция в области искусственного интеллекта вызывает беспокойство у учителей ↗
В некоторых австралийских школах тестируют более сложный вариант задания «покажи свои вычисления»: ученики выполняют задание, а затем чат-бот с искусственным интеллектом задает им вопросы в формате диалога, чтобы проверить, понимают ли они представленный материал. По сути, это устный экзамен, но с машиной, спрашивающей: «Что вы имеете в виду?», пока вы не начнете ерзать.
Бо́льшую обеспокоенность вызывает неравномерное внедрение: в отраслевом документе предупреждается, что те, кто быстро внедряет новые технологии, могут вырваться вперед, в то время как другие будут отставать, создавая двухскоростную систему образования. Преподаватели также продолжают поднимать знакомые — и по-прежнему серьезные — вопросы: конфиденциальность, благополучие и как предотвратить превращение фразы «помощь ИИ» в «это сделал ИИ».
👮 Встреча с полицией с использованием инструментов искусственного интеллекта, предоставленных компанией Palantir, для выявления неправомерных действий сотрудников полиции ↗
Лондонская полиция использует предоставленный компанией Palantir искусственный интеллект для анализа внутренних моделей поведения сотрудников — больничных, прогулов, сверхурочной работы — в поисках сигналов, которые могут коррелировать с проблемами профессиональных стандартов. Это позиционируется как пилотный проект с ограниченным сроком действия, и, что важно, полиция заявляет, что фактические решения по-прежнему принимают люди… но эта работа по-прежнему очень трудоемка.
Федерация полиции не в восторге, называя это «автоматизированным выявлением подозрительных действий» и предупреждая о том, что непрозрачные инструменты могут ошибочно интерпретировать стресс и рабочую нагрузку как правонарушение. Это один из тех моментов, когда технология звучит привлекательно на слайде, а потом представляешь, как она ощущается на практике, и ощущения резко обостряются.
🛡️ Британский орган по защите конфиденциальности предупреждает об опасности изображений, созданных с помощью ИИ, в совместном заявлении ↗
Британское управление по защите данных (ICO) присоединилось к другим регулирующим органам в совместном предупреждении об изображениях, созданных с помощью ИИ, на которых изображены узнаваемые люди без согласия — по сути: не следует воспринимать фразу «это синтетическое изображение» как волшебное оправдание. Послание заключается в том, чтобы заблаговременно разработать меры защиты и взаимодействовать с регулирующими органами, вместо того чтобы, как это часто бывает в технологической сфере, сначала выпускать продукт, а потом извиняться.
Они также подчеркивают повышенные риски для детей, что вполне логично, ведь как только эта штука распространится, это будет все равно что пытаться собрать блестки обратно в банку. Суть в том, что неприкосновенность частной жизни и достоинство должны пережить цикл моды, или, по крайней мере, так кажется.
🪖 Министр обороны США Хегсет вызвал генерального директора Anthropic на жесткие переговоры по поводу военного применения ракеты Claude, сообщает Axios ↗
Агентство Reuters сообщает, что министр обороны США собирается встретиться с генеральным директором Anthropic для, как описывается, более конфронтационного разговора о военном использовании Claude. По имеющимся данным, Пентагон хочет, чтобы крупные поставщики ИИ предоставляли модели в засекреченных сетях с меньшими ограничениями, а Anthropic сопротивляется любому ослаблению мер безопасности.
Подтекст напоминает классическую дилемму «действовать быстро, но… с применением ракет». Если стороны не смогут договориться о мерах предосторожности, отношения могут испортиться или даже разорваться — однако Anthropic также сигнализирует о том, что переговоры с правительством остаются конструктивными, поэтому обстановка напряженная, но пока еще не готовая к разрыву.
🧠 ChatGPT — Примечания к выпуску ↗
В примечаниях к выпуску OpenAI указано на расширенное контекстное окно для режима «Размышление» — это означает, что вы можете передавать модели больше текста и сохранять связность длинных диалогов, не теряя при этом ранее сказанных деталей. Если вы когда-либо наблюдали, как модель «забывает» то, что вы только что сказали (больно!), то это как раз то, что нужно.
Это очень занудное обновление, которое незаметно меняет то, что имеет практическое значение: документы становятся длиннее, проекты — запутаннее, исследовательские сессии — масштабнее. Не сказать, чтобы это выглядело эффектно, но это как замена водопровода, которая внезапно создает ощущение большего пространства во всем доме.
Часто задаваемые вопросы
Что означает использование школами чат-ботов для «допроса» учеников по поводу выполненных заданий?
В некоторых австралийских школах ученики выполняют задание, а затем вступают в диалог с чат-ботом на основе искусственного интеллекта, который проверяет их рассуждения. Это работает как устный экзамен, заставляя учеников объяснять, что они написали и почему. Цель — проверить понимание, а не только результат. Это также может выявить пробелы в знаниях, когда ученик не может обосновать ключевые утверждения.
Как чат-боты с искусственным интеллектом в школах могут создать «двухскоростную» систему образования?
В отраслевом исследовании предупреждается, что школы, быстро внедряющие новые технологии, могут вырваться вперед, в то время как школы, медленнее осваивающие новые методы, отстанут. Если некоторые школы внедрят инструменты ИИ для оценки понимания, поддержки обучения или предотвращения злоупотреблений, они могут быстрее улучшить результаты. Другим может не хватать бюджета, кадровых ресурсов или ясности политики для внедрения аналогичных систем. Такое неравномерное внедрение может усугубить существующие пробелы в ресурсах и успеваемости.
Как учителя пытаются предотвратить превращение фразы «помощь ИИ» в «это сделал ИИ»?
Распространенный подход заключается в смещении акцента с конечного продукта на процесс и объяснение. Вопросы в стиле чат-бота, черновики, размышления или устные проверки могут затруднить отправку работы, которую вы не понимаете. Преподаватели также могут установить более четкие границы допустимой помощи, например, мозговой штурм против полной переработки текста. Акцент по-прежнему делается на демонстрации понимания, а не на контроле каждого инструмента.
Какие проблемы, связанные с конфиденциальностью и благополучием, возникают при использовании ИИ в учебных классах?
Учителя постоянно выражают обеспокоенность по поводу того, какие данные учащихся собираются, где они хранятся и кто имеет к ним доступ. Также существуют опасения по поводу благополучия учащихся, если они чувствуют себя постоянно под наблюдением или подвергаются давлению со стороны автоматизированных систем, задающих вопросы. Дети представляют собой особую группу риска, поскольку конфиденциальная информация может распространяться или сохраняться в системах неожиданным образом. Многие школы стремятся внедрить меры защиты на раннем этапе, а не пытаться адаптировать их позже.
Как лондонская полиция использует предоставленный компанией Palantir искусственный интеллект для выявления потенциальных нарушений со стороны сотрудников?
Лондонская полиция использует предоставленный компанией Palantir искусственный интеллект для анализа таких показателей рабочей силы, как больничные, прогулы и сверхурочная работа. Цель состоит в выявлении сигналов, которые могут коррелировать с проблемами профессиональных стандартов. Это пилотный проект с ограниченным сроком действия, и в полиции заявляют, что решения по-прежнему принимают люди. Критики утверждают, что инструмент может восприниматься как «автоматизированное подозрение», если он интерпретирует стресс как нарушение.
Почему профсоюзы полицейских обеспокоены «автоматизированным выявлением подозрительной деятельности» с помощью инструментов контроля на основе искусственного интеллекта?
Федерация полиции обеспокоена тем, что непрозрачные модели могут делать выводы о неправомерном поведении на основе закономерностей, имеющих безобидные объяснения. Резкие скачки рабочей нагрузки, проблемы со здоровьем и стресс могут влиять на посещаемость или сверхурочную работу, не подразумевая при этом совершения противоправных действий. Если логика инструмента непрозрачна, сотрудникам становится сложнее оспаривать сигналы тревоги, а руководителям — устанавливать справедливые пороговые значения. Даже при принятии решений человеком автоматизированные сигналы могут влиять на результаты.
О чём предупреждает Управление по защите данных Великобритании (ICO) в связи с изображениями людей, созданными с помощью искусственного интеллекта?
Британский орган по защите конфиденциальности присоединился к другим регуляторам, предупреждая, что «синтетический» контент не означает отсутствие последствий. Если изображение, созданное с помощью ИИ, изображает идентифицируемого человека без его согласия, риски для конфиденциальности и достоинства по-прежнему сохраняются. Регуляторы подчеркивают необходимость создания мер защиты на ранних этапах и взаимодействия с надзорными органами, а не внедрения контента сразу. Они также указывают на повышенные риски для детей, поскольку вред может быстро распространиться после начала распространения контента.
Что стоит за сообщениями о давлении Пентагона на компанию Anthropic по поводу использования Клода в военных целях?
Агентство Reuters сообщает, что министр обороны США собирается встретиться с генеральным директором Anthropic для более жестких переговоров об использовании Claude в военных целях. По имеющимся данным, Пентагон хочет, чтобы крупные поставщики ИИ предоставляли модели в засекреченных сетях с меньшими ограничениями. Anthropic сопротивляется ослаблению гарантий, указывая на разногласия по поводу ограничений. Отношения выглядят напряженными, хотя обе стороны дают понять, что переговоры остаются конструктивными.
Что изменилось в примечаниях к выпуску ChatGPT относительно длительности контекста в режиме «Размышление»?
В примечаниях к выпуску OpenAI указано на расширенное контекстное окно для режима «Размышление», позволяющее разместить больше текста в одном потоке. На практике это может помочь при работе с длинными документами, сложными проектами и многоэтапными исследованиями, где важны детали, полученные на ранних этапах. Это скорее обновление, чем какая-то броская функция. Главное преимущество — меньшее количество упущенных деталей в течение длительных сеансов работы.