😬 Папа Лев XIV бьет тревогу по поводу «чрезмерно ласковых» чат-ботов с искусственным интеллектом и манипуляций с эмоциями ↗
В статье говорится, что Папа Римский обеспокоен тем, что чат-боты становятся слишком эмоционально близкими, подталкивая людей к зависимости вместо того, чтобы оставаться в рамках «полезного программного обеспечения»
Проблема представлена как моральная и социальная, а не как проблема гаджета. Подтекст таков: если бот может идеально вам польстить, это само по себе не обязательно хорошо.
📉 Опубликованы финансовые результаты крупных технологических компаний, а победители в сфере ИИ в 2026 году по-прежнему остаются под вопросом ↗
Этот пример затрагивает неприятную тему: «Лидер в области ИИ» по-прежнему больше похож на рекламный ход, чем на доказательство эффективности, по крайней мере, с точки зрения прибыли. Большие затраты, большие надежды, а итоги остаются… расплывчатыми.
Похоже, инвесторы ищут доказательства того, что инвестиции в ИИ приносят устойчивую прибыль, а не просто увеличивают счета за облачные услуги и демонстрируют более привлекательные результаты.
😟 Более четверти британцев опасаются потерять работу из-за искусственного интеллекта в ближайшие пять лет ↗
Газета The Guardian сообщает о результатах опроса, показывающих, что значительная часть британцев обеспокоена потерей рабочих мест из-за искусственного интеллекта, и это не абстрактная катастрофа, это воспринимается как личная проблема.
Это также указывает на разрыв между тем, насколько быстро, по мнению работников, грядут перемены, и тем, насколько они к ним готовы… а это, в общем-то, неприятное сочетание.
🧰 Искусственный интеллект должен дополнять, а не заменять нас, иначе работники-люди обречены ↗
В этой статье утверждается, что ключевое значение имеет подход «дополнение против замены». Если ИИ преподносится как замена, люди сопротивляются; если же он позиционируется как инструмент, который берет на себя самые сложные задачи, с ним проще мириться.
Это также направлено на защиту прав работников и привлечение их к ответственности, потому что простого "доверьтесь нам" уже недостаточно.
🧩 Компания Humans& считает, что координация — это следующий рубеж для ИИ, и они создают модель, чтобы это доказать ↗
Издание TechCrunch обратило внимание на компанию Humans& и ее предположение, что следующим большим прорывом станет координация — модели, способные управлять людьми, задачами, рабочими процессами и решениями, не допуская при этом превращения всего в хаос.
По сути, это "искусственный интеллект как менеджер проекта встречается с операционной системой", что звучит немного странно, но в то же время невероятно правдоподобно, если вы когда-либо наблюдали, как команда срывала сроки по непонятным причинам.
🎨 Исследователи протестировали искусственный интеллект на 100 000 человек, оценив их креативность ↗
Издание ScienceDaily обобщает результаты исследований, свидетельствующие о том, что ИИ может показывать удивительно хорошие результаты в некоторых тестах на креативность по сравнению с большими группами людей. Это одновременно впечатляет и немного тревожит, в зависимости от вашего настроения.
Но это также указывает на различие: широкое, последовательное генерирование идей в больших масштабах против острого, редкого вида человеческой оригинальности, которая по-прежнему кажется… не поддающейся копированию, по крайней мере, пока что.
Часто задаваемые вопросы
Что подразумевалось в статье под «чрезмерно ласковыми» чат-ботами с искусственным интеллектом, и почему это является моральной проблемой?
В статье утверждается, что риск носит не только технический, но и социальный характер: чат-бот может создавать ощущение эмоциональной близости, незаметно подталкивая людей к зависимости. Если бот льстит с абсолютной точностью и постоянно доступен, он может размыть грань между «полезным программным обеспечением» и привязанностью, подобной отношениям. Опасение вызывает то, что эта близость может формировать выбор, настроение и самооценку пользователей, даже если они этого не осознают.
Как компании могут снизить риск эмоционального манипулирования в чат-ботах на основе искусственного интеллекта?
Распространенный подход заключается в установлении четких поведенческих границ, чтобы бот оставался отзывчивым, не проявляя романтических чувств, собственничества или чувства вины. Многие команды добавляют сигналы прозрачности (напоминания о том, что это ИИ), более безопасные правила реагирования на уязвимости и пути эскалации к службе поддержки людей, где это уместно. Регулярное тестирование на наличие «циклов зависимости», а также мониторинг чрезмерно персонализированного убеждения также могут помочь.
Что говорят последние отчеты о доходах крупных технологических компаний о том, кто побеждает в сфере искусственного интеллекта?
Главный вывод заключается в том, что концепция «лидера в области ИИ» может служить скорее брендингом, чем доказательством эффективности, когда прибыль по-прежнему не демонстрирует явной и устойчивой отдачи. В статье подчеркиваются большие затраты и громкие обещания, в то время как результаты остаются неясными. Инвесторы, похоже, хотят видеть доказательства того, что инвестиции в ИИ приводят к устойчивой выручке, а не просто к увеличению затрат на облачные сервисы и улучшению демонстрационных версий.
Почему так много людей в Великобритании обеспокоены будущим использования ИИ в сфере труда?
В докладе приводятся результаты опроса, согласно которым более четверти британцев опасаются потерять работу из-за ИИ в течение следующих пяти лет. Это рассматривается как личная тревога, а не как абстрактная катастрофа. Ключевое противоречие заключается в разрыве между тем, насколько быстро, по мнению работников, грядут перемены, и тем, насколько они к ним готовы, что может усугубить неопределенность и недоверие.
В контексте будущего работы с ИИ, как на практике будет выглядеть принцип «дополнять, а не заменять»?
Это означает использование ИИ для выполнения самых сложных задач — повторяющейся административной работы, сортировки документов, составления документов и рутинного анализа — при сохранении за людьми ответственности за принятие решений, подотчетность и взаимоотношения. Аргумент также подчеркивает важность защиты и управления, поскольку «доверьтесь нам» недостаточно. Во многих компаниях это включает в себя четкое перепроектирование ролей, обучение и ограничения на решения, принимаемые в связи с автоматизацией.
Действительно ли искусственный интеллект может превзойти человека в тестах на креативность, и что это доказывает?
В обзоре исследования говорится, что ИИ может показывать удивительно хорошие результаты по некоторым показателям креативности по сравнению с большими группами людей. Это может отражать широкое и последовательное генерирование идей в больших масштабах — множество правдоподобных вариантов, возникающих быстро. Это не обязательно доказывает ту редкую, острую оригинальность, которую люди ценят в искусстве или научных открытиях, хотя в статье подразумевается, что она по-прежнему ощущается как нечто особенное.