Не зашло ли искусственное интеллект слишком далеко?

Не зашёл ли искусственный интеллект слишком далеко?

Краткий ответ: ИИ зашёл слишком далеко, когда его используют в важных решениях, для слежки или убеждения без чётких ограничений, информированного согласия и подлинного права на обжалование. Он снова переходит черту, когда дипфейки и масштабируемые мошеннические схемы превращают доверие в азартную игру. Если люди не могут понять, что ИИ сыграл свою роль, не могут осознать, почему было принято именно такое решение, или не могут отказаться от участия, значит, уже слишком поздно.

Основные выводы:

Границы: Определите, что система не может делать, особенно в условиях высокой неопределенности.

Ответственность: Обеспечьте возможность для людей изменять результаты без штрафных санкций или ловушки, связанной с нехваткой времени.

Прозрачность: сообщайте людям, когда в процесс вовлечен ИИ и почему он принял те или иные решения.

Оспариваемость: Предоставьте быстрые и действенные пути обжалования и четкие способы исправления некорректных данных.

Защита от злоупотреблений: добавьте отслеживание происхождения, ограничения скорости запросов и средства контроля для борьбы с мошенничеством и злоупотреблениями.

«Не зашёл ли искусственный интеллект слишком далеко?»

Самое странное, что пересечение этой грани не всегда очевидно. Иногда это происходит резко и броско, как в случае с дипфейком ( FTC , FBI ). В других случаях это происходит тихо — автоматическое решение, которое резко меняет вашу жизнь без всякого объяснения, и вы даже не понимаете, что вас «оценили» ( UK ICO , GDPR ст. 22 ).

Итак… Зашел ли ИИ слишком далеко? В некоторых местах — да. В других — недостаточно, потому что его используют без тех непривлекательных, но необходимых механизмов безопасности, которые заставляют инструменты вести себя как инструменты, а не как рулетка с удобным пользовательским интерфейсом. 🎰🙂 ( NIST AI RMF 1.0 , EU AI Act )

Статьи, которые могут вас заинтересовать после этой:

🔗 Почему ИИ может быть вреден для общества
Основные социальные риски: предвзятость, рабочие места, неприкосновенность частной жизни и концентрация власти.

🔗 Вреден ли ИИ для окружающей среды? Скрытые последствия
Как обучение персонала, центры обработки данных и потребление энергии приводят к увеличению выбросов.

🔗 Искусственный интеллект — это хорошо или плохо? Плюсы и минусы
Сбалансированный обзор преимуществ, рисков и реальных компромиссов.

🔗 Почему ИИ считается плохим: темная сторона
Рассматриваются вопросы злоупотребления, манипуляций, угроз безопасности и этических проблем.


Что люди имеют в виду, когда говорят: «Не зашёл ли искусственный интеллект слишком далеко?» 😬

Большинство людей не спрашивают, является ли ИИ «разумным» или «захватывает власть». Они указывают на одно из следующих:

В этом и заключается суть вопроса «Не зашёл ли ИИ слишком далеко?». Дело не в одном конкретном моменте. Это совокупность стимулов, упрощений и мышления по принципу «мы это исправим позже», которое, будем откровенны, обычно сводится к «мы это исправим после того, как кто-то пострадает». 😑

Зашел ли ИИ слишком далеко (инфографика)

Не такая уж и секретная правда: ИИ — это множитель, а не моральный фактор 🔧✨

Искусственный интеллект не просыпается и не решает причинить вред. Люди и организации направляют его действия. Но он многократно увеличивает то, чему вы его кормите:

  • Полезное намерение становится чрезвычайно полезным (перевод, доступность, обобщение, выявление медицинских закономерностей).

  • Небрежное намерение приводит к крайней небрежности (предвзятость в больших масштабах, автоматизация ошибок).

  • Злые намерения приводят к крайне негативным последствиям (мошенничество, преследование, пропаганда, выдача себя за другое лицо).

Это как дать мегафон малышу. Иногда малыш поет… иногда малыш кричит прямо тебе в душу. Не совсем удачная метафора — немного глуповатая — но суть понятна 😅📢.


Что делает ИИ эффективным в повседневной работе? ✅🤝

«Хорошая версия» ИИ определяется не тем, насколько она умна, а тем, насколько хорошо она ведет себя под давлением, в условиях неопределенности и искушения (а люди очень соблазнены дешевой автоматизацией). ( NIST AI RMF 1.0 , OECD )

Вот на что я обращаю внимание, когда кто-то утверждает, что его использование ИИ является причиной происходящего:

1) Четкие границы

  • Что разрешено делать системе?

  • Что именно категорически запрещено делать?

  • Что происходит, когда возникает неуверенность?

2) Реальная, а не показная ответственность перед людьми

Человеческая «проверка» результатов имеет значение только в том случае, если:

  • Они понимают, что именно они проверяют, и

  • Они могут обойти это ограничение, не опасаясь наказания за замедление процесса.

3) Объяснимость на соответствующем уровне

Математика нужна не всем. Но людям она необходима:

  • основные причины принятия решения,

  • Какие данные были использованы?

  • Как подать апелляцию, внести исправления или отказаться от участия. ( UK ICO )

4) Измеримые показатели производительности, включая виды отказов

Не просто «точность», а следующее:

  • на ком это не сработает,

  • Как часто это происходит незаметно,

  • Что происходит, когда мир меняется? ( NIST AI RMF 1.0 )

5) Конфиденциальность и согласие, которые не «скрыты в настройках»

Если для получения согласия требуется поиск сокровищ в меню… это не согласие. Это лазейка с дополнительными шагами 😐🧾. ( Статья 5 GDPR , Управление комиссара по информации Великобритании )


Сравнительная таблица: практические способы предотвратить чрезмерное внедрение ИИ 🧰📊

Ниже представлены «лучшие варианты» в том смысле, что это распространенные механизмы контроля или оперативные инструменты, которые меняют результаты (а не просто атмосферу).

Инструмент / опция Аудитория Цена Почему это работает
Обзор концепции «человек в процессе разработки» ( Закон ЕС об искусственном интеллекте ) Команды принимают решения, имеющие решающее значение ££ (затраты времени) Замедляет работу некачественной автоматизации. Кроме того, люди иногда могут замечать странные исключения из правил…
Процедура обжалования решения ( статья 22 GDPR ) Пользователи, на которых влияют решения, принимаемые с помощью ИИ почти бесплатно Добавляет процедуру надлежащего правового процесса. Люди могут исправлять неверные данные — звучит просто, потому что так оно и есть
Журналы аудита + отслеживаемость ( NIST SP 800-53 ) Соответствие нормативным требованиям, операционная деятельность, безопасность £-££ Позволяет ответить на вопрос «что произошло?» после неудачи, вместо того чтобы пожимать плечами
Оценка модели + проверка смещения ( NIST AI RMF 1.0 ) команды по продукту и управлению рисками очень сильно различается Позволяет выявить предсказуемый вред на ранней стадии. Не идеально, но лучше, чем гадать
Тестирование «красной команды» ( профиль NIST GenAI ) Специалисты по безопасности и охране труда £££ Имитирует злоупотребление до того, как это сделают реальные злоумышленники. Неприятно, но оно того стоит 😬
Минимизация данных ( британское ICO ) Честно говоря, все £ Меньше данных = меньше беспорядка. А ещё меньше утечек, меньше неловких разговоров
Сигналы происхождения контента ( C2PA ) Платформы, медиа, пользователи £-££ Помогает проверить, «было ли это сделано человеком?» — не является абсолютно надежным, но уменьшает хаос
Ограничения скорости запросов + контроль доступа ( OWASP ) Поставщики ИИ + предприятия £ Мгновенно предотвращает распространение злоупотреблений. Как препятствие для злоумышленников

Да, стол немного неровный. Такова жизнь. 🙂


Искусственный интеллект в важных решениях: когда он заходит слишком далеко 🏥🏦⚖️

Вот тут-то всё и быстро принимает серьёзный оборот.

Искусственный интеллект в здравоохранении , финансах , жилищном строительстве , трудоустройстве , образовании , иммиграции , уголовном правосудии — это системы, в которых: ( Приложение III к Закону ЕС об ИИ , FDA )

  • Ошибка может стоить кому-то денег, свободы, достоинства или безопасности

  • и у пострадавшего зачастую ограничены возможности дать отпор.

Главный риск заключается не в том, что «ИИ совершает ошибки». Главный риск заключается в том, что ошибки ИИ становятся частью политики . ( NIST AI RMF 1.0 )

Вот как здесь выглядит ситуация, когда «заходите слишком далеко»

  • Автоматизированные решения без объяснений: «компьютер говорит нет». ( UK ICO )

  • «Рейтинги риска» рассматриваются как факты, а не как предположения.

  • Люди, которые не могут изменить результаты, потому что руководство хочет скорости.

  • Данные, которые неаккуратны, предвзяты, устарели или просто попросту неверны.

Что должно быть не подлежащим обсуждению?

Если вы хотите провести четкую границу, вот она:
если система ИИ может существенно изменить чью-то жизнь, к ней следует относиться с той же серьезностью, что и к другим формам власти. Никакого «бета-тестирования» на людях, которые не зарегистрировались. 🚫


Дипфейки, мошенничество и медленная смерть принципа «Я доверяю своим глазам» 👀🧨

Именно из-за этого повседневная жизнь кажется… скользкой.

Когда ИИ может генерировать:

  • Голосовое сообщение, которое звучит как голос члена вашей семьи ( Федеральная торговая комиссия , ФБР ).

  • Видео, на котором публичная личность «что-то говорит»

  • Поток поддельных отзывов, которые выглядят достаточно правдоподобно ( FTC ).

  • Поддельный профиль в LinkedIn с фальшивой историей работы и фальшивыми друзьями…

…это не просто способствует мошенничеству. Это ослабляет социальную связь, которая позволяет незнакомцам координировать свои действия. А общество функционирует благодаря координации действий незнакомцев. 😵💫

«Зайти слишком далеко» — это не только фейковый контент

Дело в асимметрии :

  • Создавать ложь дёшево.

  • Проверка достоверности информации — дорогостоящий и длительный процесс.

  • Большинство людей заняты, устали и листают ленту новостей.

Что немного помогает

  • Маркеры происхождения медиаконтента. ( C2PA )

  • Препятствия для вирусного распространения — замедление мгновенного массового обмена информацией.

  • Улучшение проверки личности там, где это действительно важно (финансы, государственные услуги).

  • Основные правила проверки подлинности внеполосных сообщений (перезвонить, использовать кодовое слово, подтвердить по другому каналу). ( FTC )

Не очень-то гламурно. Но и ремни безопасности тоже не гламурны, а я, лично, к ним очень привязана. 🚗


Постепенное усиление слежки: когда ИИ незаметно превращает всё в датчик 📷🫥

Этот ролик не взрывается, как дипфейк. Он просто распространяется.

Искусственный интеллект позволяет легко:

  • распознавание лиц в толпе ( Закон ЕС об ИИ , NIST FRVT )

  • отслеживать модели движения,

  • делать выводы об эмоциях по видео (часто неточно, но уверенно) ( Барретт и др., 2019 , Закон ЕС об ИИ ).

  • прогнозировать «риск» на основе поведения… или атмосферы вашего района.

И даже если прогноз неточен, он всё равно может быть вредным, поскольку может оправдать вмешательство. Неверный прогноз может привести к реальным последствиям.

Неприятная часть

Системы видеонаблюдения на основе искусственного интеллекта часто внедряются в обрамлении, подразумевающем обеспечение безопасности:

  • «Это для предотвращения мошенничества»

  • «Это в целях безопасности»

  • «Это для улучшения пользовательского опыта»

Иногда это правда. Иногда это также удобный предлог для создания систем, которые потом очень трудно демонтировать. Например, установка односторонней двери в собственном доме, потому что в тот момент это казалось эффективным. Опять же, не идеальная метафора — немного нелепая — но вы это чувствуете. 🚪😅

Вот как здесь выглядит «хорошо»

  • Строгие ограничения на хранение и передачу данных.

  • Чётко обозначенные способы отказа от участия.

  • Узкие области применения.

  • Независимый надзор.

  • Никакого «распознавания эмоций» в целях наказания или ограничения доступа. Пожалуйста. 🙃 ( Закон ЕС об ИИ )


Работа, творчество и скрытая проблема снижения квалификации 🧑💻🎨

Здесь дискуссия приобретает личный характер, поскольку затрагивает вопросы идентичности.

Искусственный интеллект может повысить производительность труда. Он также может заставить людей чувствовать себя взаимозаменяемыми. И то, и другое может быть верным одновременно, в течение одной недели. ( ОЭСР , ВЭФ )

Там, где это действительно полезно

  • Составление стандартного текста, позволяющего человеку сосредоточиться на размышлениях.

  • Помощь в программировании для повторяющихся шаблонов.

  • Инструменты обеспечения доступности (создание субтитров, составление резюме, перевод).

  • Мозговой штурм, когда вы зашли в тупик.

Когда это заходит слишком далеко

  • Замена должностей без плана перехода.

  • Использование ИИ для сокращения объемов производства при одновременном снижении заработной платы.

  • Отношение к творческой работе как к бесконечным бесплатным обучающим данным, а затем пожатие плечами. ( Управление по авторским правам США , UK GOV.UK )

  • Сведение к минимуму младших должностей — звучит эффективно, пока вы не поймете, что таким образом вы сжигаете лестницу, по которой будут подниматься будущие специалисты.

Снижение квалификации — это незаметное явление. В повседневной работе вы этого не замечаете. А потом однажды понимаете, что никто в команде не помнит, как всё работает без помощника. И если помощник ошибается, то вы все вместе оказываетесь неправы… что, в общем-то, кошмар. 😬


Концентрация власти: кто устанавливает параметры по умолчанию? 🏢⚡

Даже если ИИ «нейтральен» (а это не так), тот, кто им управляет, может влиять на его работу:

  • Какая информация легкодоступна?

  • Что продвигается, а что скрывается?

  • Какой язык разрешен?

  • Какие модели поведения поощряются?.

А поскольку создание и эксплуатация систем искусственного интеллекта могут быть дорогостоящими, власть имеет тенденцию концентрироваться. Это не заговор. Это экономика под прикрытием технологий. ( UK CMA )

Здесь настал момент, когда «зайти слишком далеко»

Когда правила по умолчанию становятся невидимым законом:

  • Вы не знаете, что фильтруется

  • Вы не можете проверить логику

  • И вы в реальности не можете отказаться от участия, не потеряв при этом доступ к работе, общественной жизни или основным услугам.

Здоровая экосистема нуждается в конкуренции, прозрачности и реальном выборе для пользователей. В противном случае вы, по сути, арендуете реальность. 😵♂️


Практический контрольный список: как определить, не заходит ли ИИ слишком далеко в вашем мире 🧾🔍

Вот список критериев, которые я использую для самопроверки (и да, он не идеален):

Если вы являетесь частным лицом

  • Я могу определить, когда взаимодействую с искусственным интеллектом. ( Европейская комиссия )

  • Эта система подталкивает меня к чрезмерной откровенности.

  • Я не против, если результат окажется неверным, но правдоподобным образом.

  • Если бы меня обманули с помощью этой платформы, она бы мне помогла… или же пожала бы плечами.

Если вы — компания или команда

  • Мы используем ИИ, потому что это ценно, или потому что это модно, а руководство нетерпеливо.

  • Мы знаем, к каким данным обращается система.

  • Пострадавший пользователь может обжаловать результаты рассмотрения дела. ( UK ICO )

  • Люди наделены правом отменять эту модель.

  • У нас есть планы реагирования на инциденты, связанные со сбоями в работе ИИ.

  • Мы отслеживаем отклонения, неправильное использование и необычные крайние случаи.

Если вы ответили «нет» на многие из этих вопросов, это не значит, что вы злой человек. Это значит, что вы находитесь в нормальном человеческом состоянии: «мы надеялись, что это произойдет». Но, к сожалению, надежда — это не стратегия. 😅


Заключительные замечания 🧠✅

Итак… Зашел ли ИИ слишком далеко?
Он зашел слишком далеко в том, что используется без ответственности , особенно в принятии важных решений, массовом убеждении и слежке. Он также зашел слишком далеко в том, что подрывает доверие, потому что, как только доверие подорвано, все становится дороже и враждебнее в социальном плане. ( NIST AI RMF 1.0 , Закон ЕС об ИИ )

Но ИИ не обречен по своей природе и не является совершенным. Это мощный инструмент, многократно усиливающий эффект. Вопрос в том, будем ли мы создавать защитные механизмы так же активно, как и наращивать возможности.

Краткое резюме:


Часто задаваемые вопросы

Не зашло ли слишком далеко в повседневной жизни искусственного интеллекта?

Во многих местах ИИ зашёл слишком далеко, поскольку начал проникать в процессы принятия решений и взаимодействия без чётких границ и ответственности. Проблема редко заключается в «существовании ИИ»; проблема в том, что ИИ незаметно внедряется в процессы найма, здравоохранения, обслуживания клиентов и информационных потоков с минимальным контролем. Когда люди не могут распознать в нём ИИ, не могут оспорить результаты или отказаться от его использования, он перестаёт восприниматься как инструмент и начинает восприниматься как система.

Как выглядит ситуация, когда «искусственный интеллект заходит слишком далеко» в контексте важных решений?

Похоже, что ИИ используется в здравоохранении, финансах, жилищном строительстве, трудоустройстве, образовании, иммиграции или уголовном правосудии без четких ограничений. Главная проблема не в том, что модели совершают ошибки; проблема в том, что эти ошибки закрепляются в политике и их становится трудно оспорить. Решения типа «Компьютер говорит нет» с неубедительными объяснениями и без возможности обоснованного обжалования быстро приводят к масштабным последствиям.

Как я могу понять, влияет ли на меня автоматическое решение, и что я могу сделать?

Распространенный признак — внезапный результат, который невозможно объяснить: отказ, ограничение или оценка риска без четкого объяснения причин. Многие системы должны раскрывать информацию о случаях, когда ИИ сыграл существенную роль, и у вас должна быть возможность запросить основные причины решения и порядок его обжалования. На практике следует запросить проверку человеком, исправить неверные данные и добиваться простого способа отказа от использования системы.

Не зашло ли искусственное интеллект слишком далеко в вопросах конфиденциальности, согласия и использования данных?

Часто это происходит, когда согласие превращается в игру в поиск сокровищ, а сбор данных расширяется «на всякий случай». Главная мысль статьи в том, что конфиденциальность и согласие не имеют большого значения, если они скрыты в настройках или навязываются посредством расплывчатых формулировок. Более здоровый подход — минимизация данных: собирать меньше, хранить меньше и делать выбор недвусмысленным, чтобы люди не были удивлены позже.

Как дипфейки и мошенничество с использованием искусственного интеллекта меняют представление о «доверии» в интернете?

Они создают ощущение, что правда необязательна, снижая стоимость создания убедительных поддельных голосов, видеороликов, отзывов и личностей. Проблема заключается в асимметрии: создание лжи обходится дешево, в то время как проверка правды — медленно и утомительно. Практические меры защиты включают в себя сигналы происхождения для медиаконтента, замедление вирусного распространения, более строгие проверки личности там, где это важно, и «проверку внеполосным способом», например, обратный звонок или использование общего кодового слова.

Какие существуют наиболее практичные меры предосторожности, чтобы предотвратить чрезмерное распространение ИИ?

К факторам, влияющим на результаты, относятся: подлинный контроль со стороны человека при принятии важных решений, четкие процедуры обжалования и журналы аудита, позволяющие ответить на вопрос «что произошло?» после сбоев. Оценка моделей и тестирование на предвзятость позволяют выявлять предсказуемые угрозы на ранних стадиях, а тестирование «красной команды» имитирует злоупотребления до того, как это сделают злоумышленники. Ограничения скорости запросов и контроль доступа помогают предотвратить мгновенное масштабирование злоупотреблений, а минимизация данных снижает риски в целом.

Когда слежка с использованием искусственного интеллекта переходит все границы дозволенного?

Это переходит все границы, когда все по умолчанию превращается в датчик: распознавание лиц в толпе, отслеживание движений или уверенное «распознавание эмоций», используемое для наказания или ограничения доступа. Даже неточные системы могут причинить серьезный вред, если они оправдывают вмешательства или отказ в предоставлении услуг. Передовая практика предполагает узкие области применения, строгие ограничения на хранение данных, осмысленные возможности отказа, независимый надзор и твердое «нет» сомнительным суждениям, основанным на эмоциях.

Искусственный интеллект повышает производительность труда или незаметно снижает квалификацию работников?

Оба утверждения могут быть верны одновременно, и в этом и заключается суть. Искусственный интеллект может помочь в рутинном составлении черновиков, повторяющихся шаблонах кодирования и обеспечении доступности, освобождая людей для сосредоточения на более сложных задачах. Однако он заходит слишком далеко, когда заменяет должности без планов перехода, снижает заработную плату, рассматривает творческую работу как бесплатные обучающие данные или убирает младшие должности, которые способствуют развитию будущих компетенций. Снижение квалификации остается незаметным до тех пор, пока команды не смогут функционировать без ассистента.

Ссылки

  1. Национальный институт стандартов и технологий (NIST)Рамочная программа управления рисками в области ИИ (AI RMF 1.0)nist.gov

  2. Европейский Союз - Закон ЕС об искусственном интеллекте (Регламент (ЕС) 2024/1689) - Официальный журнал (на английском языке) - europa.eu

  3. Европейская комиссия - Нормативно-правовая база для ИИ (страница, посвященная политике ЕС в отношении ИИ) - europa.eu

  4. Служба поддержки в соответствии с Законом ЕС об ИИПриложение III (Системы ИИ высокого риска)europa.eu

  5. Европейский СоюзПравила обеспечения надежности искусственного интеллекта в ЕС (краткое изложение Закона ЕС об ИИ)europa.eu

  6. Управление комиссара по информации Великобритании (ICO)Что такое автоматизированное принятие решений и профилирование отдельных лиц?ico.org.uk

  7. Управление комиссара по информации Великобритании (ICO)Что говорит британский GDPR об автоматизированном принятии решений и профилировании?ico.org.uk

  8. Управление комиссара по информации Великобритании (ICO)Автоматизированное принятие решений и составление профилей (справочный центр)ico.org.uk

  9. Управление комиссара по информации Великобритании (ICO)Минимизация данных (руководство по принципам GDPR Великобритании)ico.org.uk

  10. GDPR-info.eu - Статья 22 GDPR - gdpr-info.eu

  11. GDPR-info.eu - Статья 5 GDPR - gdpr-info.eu

  12. Федеральная торговая комиссия США (FTC) - Мошенники используют ИИ для усовершенствования своих схем по оказанию помощи семьям в чрезвычайных ситуациях - ftc.gov

  13. Федеральная торговая комиссия США (FTC) - Мошенники используют ложные сообщения о чрезвычайных ситуациях, чтобы украсть ваши деньги - ftc.gov

  14. Федеральная торговая комиссия США (FTC) - Окончательное правило, запрещающее поддельные отзывы и рекомендации (пресс-релиз) - ftc.gov

  15. Федеральное бюро расследований (ФБР) - ФБР предупреждает о растущей угрозе киберпреступников, использующих искусственный интеллект - fbi.gov

  16. Организация экономического сотрудничества и развития (ОЭСР) - Принципы ОЭСР в области искусственного интеллекта - oecd.ai

  17. Рекомендация Совета по искусственному интеллекту ОЭСР - oecd.org

  18. Европейская комиссия - Руководящие принципы и кодекс практики для прозрачных систем искусственного интеллекта (Часто задаваемые вопросы) - europa.eu

  19. Коалиции по обеспечению происхождения и подлинности контента (C2PA) версии 2.3 - c2pa.org

  20. Управление по конкуренции и рынкам Великобритании (CMA) - Базовые модели ИИ: первоначальный отчет - gov.uk

  21. Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США (FDA) - Медицинские устройства с поддержкой искусственного интеллекта - fda.gov

  22. NISTМеры безопасности и конфиденциальности для информационных систем и организаций (SP 800-53 Rev. 5)nist.gov

  23. NIST - Профиль генеративного ИИ (NIST.AI.600-1, ipd) - nist.gov

  24. Проект OWASP (Open Worldwide Application Security Project)неограниченное потребление ресурсов (API Security Top 10, 2023)owasp.org

  25. NIST - Демографические данные тестирования поставщиков систем распознавания лиц (FRVT) - nist.gov

  26. Барретт и др. (2019) - Статья (PMC) - nih.gov

  27. ОЭСРИспользование ИИ на рабочем месте (PDF)oecd.org

  28. Всемирный экономический форум (ВЭФ)Доклад о будущем рабочих мест 2025 года — Краткий обзорweforum.org

  29. Управление по авторским правам США - Авторское право и искусственный интеллект, Часть 3: Отчет об обучении генеративного ИИ (предварительная версия) (PDF) - copyright.gov

  30. Правительство Великобритании (GOV.UK) - Авторское право и искусственный интеллект (консультации) - gov.uk

Найдите новейшие разработки в области ИИ в официальном магазине ИИ-помощников

О нас

Вернуться в блог