Закон ЕС об искусственном интеллекте: что вам нужно знать

  • Sep 03, 2023

После конфиденциальности данных и GDPR ЕС хочет оставить свой след в сфере ИИ, регулируя его с помощью Закона ЕС об ИИ. Вот что это такое, что это значит для мира в целом, когда ожидается, что оно вступит в силу и что об этом говорят эксперты Mozilla Foundation.

Прошел почти год с тех пор, как Европейская комиссия представила проект, возможно, одной из самых влиятельных правовых рамок в мире: Закон ЕС об искусственном интеллекте. По данным Mozilla Foundation, работа над фреймворком все еще находится в стадии разработки, и сейчас настало время активно участвовать в усилиях по формированию его направления.

Заявленная миссия Mozilla Foundation — работать над тем, чтобы Интернет оставался общественным ресурсом, открытым и доступным для всех. С 2019 года Mozilla Foundation сосредоточила значительную часть своих программ по созданию движения за здоровье в Интернете на искусственном интеллекте.

Мы встретились с исполнительным директором Mozilla Foundation Марком Сурманом и старшим исследователем политики Максимилианом Ганцем, чтобы обсудить фокус и позицию Mozilla в отношении ИИ, ключевого факты о Законе ЕС об искусственном интеллекте и о том, как он будет работать на практике, а также рекомендации Mozilla по его улучшению и способы участия каждого в процесс.

Закон ЕС об искусственном интеллекте уже в разработке, и это имеет большое значение, даже если вы не находитесь в ЕС.

Большие данные

  • Как узнать, причастны ли вы к утечке данных (и что делать дальше)
  • Борьба с предвзятостью в сфере ИИ начинается с данных
  • Честный прогноз? Как 180 метеорологов предоставляют «достаточно хорошие» данные о погоде
  • Лечение рака зависит от головокружительных объемов данных. Вот как это сортируется в облаке

В 2019 году Mozilla назвала ИИ новым вызовом здоровью Интернета. Причина в том, что ИИ принимает решения за нас и о нас, но не всегда вместе с нами: он может сказать нам, какие новости мы читаем, какую рекламу видим или имеем ли мы право на получение кредита.

Решения, которые принимает ИИ, могут помочь человечеству, но также и навредить нам. Примечания Мозиллы. ИИ может усилить историческую предвзятость и дискриминацию, поставить взаимодействие выше благополучия пользователей, а также еще больше укрепить власть больших технологий и маргинализировать людей.

«Надежный ИИ был для нас ключевым моментом в последние несколько лет, потому что данные, машинное обучение и то, что мы сегодня называем ИИ, являются такими Центральная техническая и социальная структура бизнеса для того, что такое Интернет и как Интернет пересекается с обществом и всей нашей жизнью», Сурман отмеченный.

Поскольку ИИ все больше проникает в нашу жизнь, Mozilla соглашается с ЕС в том, что необходимы изменения в нормах и правилах, регулирующих ИИ, пишет Ганц в своей книге. Реакция Mozilla на Закон ЕС об искусственном интеллекте.

Первое, что следует отметить в отношении Закона ЕС об искусственном интеллекте, это то, что он не распространяется исключительно на организации или граждан, базирующиеся в ЕС. Эта рябь может ощущаться по всему миру так же, как и эффект, который оказал GDPR.

Закон ЕС об искусственном интеллекте применяется к пользователям и поставщикам систем искусственного интеллекта, расположенным на территории ЕС, поставщикам, зарегистрированным за пределами ЕС, которые являются источником размещения на рынке или ввод в эксплуатацию системы искусственного интеллекта в ЕС, а также поставщики и пользователи систем искусственного интеллекта, созданные за пределами ЕС, когда результаты, полученные с помощью системы, используются в ЕС.

Это означает, что организации, разрабатывающие и внедряющие системы искусственного интеллекта, должны будут либо соблюдать Закон ЕС об искусственном интеллекте, либо полностью выйти из ЕС. Тем не менее, есть некоторые отличия Закона ЕС об искусственном интеллекте от Закона ЕС об искусственном интеллекте. GDPR -- Но об этом позже.

Как и все нормативные акты, Закон ЕС об искусственном интеллекте проводит тонкую грань между потребностями бизнеса и исследований и проблемами граждан.

Автор: студия ra2 — Shutterstock

Еще одним ключевым моментом Закона ЕС об искусственном интеллекте является то, что он все еще находится в стадии разработки, и пройдет некоторое время, прежде чем он вступит в силу. Его жизненный цикл начался с формирования экспертной группы высокого уровня, что, как отметил Сурман, совпало с акцентом Mozilla на Trustworthy AI. Mozilla внимательно следит за соблюдением Закона ЕС об искусственном интеллекте с 2019 года.

Как отметил Ганц, с тех пор, как в апреле 2021 года был опубликован первый проект Закона ЕС об искусственном интеллекте, все участники этого процесса готовились к участию. Парламент ЕС должен был решить, какие комитеты и какие люди в этих комитетах будут над этим работать, а организации гражданского общества имели возможность прочитать текст и выработать свою позицию.

Точка, в которой мы сейчас находимся, — это то, где начинается самое захватывающее, как выразился Ганц. Именно в это время Парламент ЕС формулирует свою позицию, принимая во внимание вклад, который он получает от назначенных комитетов, а также третьих сторон. Как только Европейский парламент консолидирует то, что он понимает под термином «Надежный ИИ», он представит свои идеи о том, как изменить первоначальный проект.

Государства-члены ЕС сделают то же самое, а затем состоится заключительный раунд переговоров между Парламент, Комиссия и государства-члены, и именно тогда Закон ЕС об искусственном интеллекте будет принят закон. Это долгий и извилистый путь, и, по словам Ганца, мы рассматриваем горизонт как минимум в один год плюс переходный период между принятием закона и его фактическим вступлением в силу.

Для GDPR переходный период составил два года. Так что, вероятно, это произойдет не ранее 2025 года, пока Закон ЕС об искусственном интеллекте не вступит в силу.

Определение и классификация систем искусственного интеллекта

Прежде чем углубляться в особенности Закона ЕС об искусственном интеллекте, нам следует остановиться и спросить, к чему именно он применяется. Не существует такого понятия, как общепринятое определение ИИ, поэтому Закон ЕС об ИИ содержит Приложение, в котором определяются методы и подходы, подпадающие под его сферу действия.

Как отмечено Монреальским институтом этики ИИЕвропейская комиссия выбрала широкое и нейтральное определение систем искусственного интеллекта, обозначив их как программное обеспечение, «разработанное с использованием одного или нескольких перечисленных методов и подходов». в Приложении I и может для заданного набора определенных человеком целей генерировать результаты, такие как контент, прогнозы, рекомендации или решения, влияющие на среду, с которой они взаимодействуют. с".

Методы, упомянутые в приложении к Закону ЕС об искусственном интеллекте, включают в себя как подходы машинного обучения, так и подходы, основанные на логике и знаниях. Они широкомасштабны, вплоть до вызывая критику за «предложение регулировать использование байесовской оценки». Хотя нахождение между потребностями бизнеса и исследований и проблемами граждан является тонкой грани, такие утверждения похоже, не понимают суть философии предлагаемого закона: так называемый подход, основанный на риске.

В Законе ЕС об искусственном интеллекте системы искусственного интеллекта подразделяются на 4 категории в зависимости от предполагаемого риска, который они представляют: системы неприемлемого риска полностью запрещены (хотя применяются некоторые исключения), системы высокого риска. системы подчиняются правилам прослеживаемости, прозрачности и надежности, системы с низким уровнем риска требуют прозрачности со стороны поставщика, а системы с минимальным риском, к которым не предъявляются никакие требования. набор.

Таким образом, речь идет не о регулировании определенных методов, а скорее о регулировании применения этих методов в определенных приложениях в соответствии с риском, который эти приложения представляют. Что касается методов, предлагаемая структура отмечает, что со временем может потребоваться адаптация, чтобы идти в ногу с развитием предметной области.

Из сферы действия Закона ЕС об искусственном интеллекте исключены системы искусственного интеллекта, разработанные или используемые исключительно в военных целях. Государственные органы третьих стран и международные организации, использующие системы ИИ в рамках международного права соглашения о правоприменении и судебном сотрудничестве с ЕС или с одним или несколькими его членами также освобождаются от AI ЕС. Действовать.

В Законе ЕС об искусственном интеллекте системы искусственного интеллекта классифицируются на 4 категории в зависимости от предполагаемого риска, который они представляют.

Getty Images/iStockphoto

Приложения искусственного интеллекта, которые манипулируют поведением человека, чтобы лишить пользователей их свободы воли, и системы, позволяющие социальные оценки государств-членов ЕС классифицируются как представляющие неприемлемый риск и являются прямыми запрещен.

Системы ИИ высокого риска включают биометрическую идентификацию, управление критической инфраструктурой (вода, энергетика и т. д.), системы ИИ, предназначенные для для назначения в образовательные учреждения или для управления человеческими ресурсами, а также приложения искусственного интеллекта для доступа к основным услугам (банковские кредиты, государственные услуги, социальные льготы, правосудие и т. д.), использование для полицейских миссий, а также управления миграцией и пограничными контроль.

Однако применение биометрическая идентификация включает несколько исключений, таких как поиск пропавшего ребенка или местонахождение подозреваемых в делах о терроризме, торговле людьми или детской порнографии. Закон ЕС об искусственном интеллекте требует, чтобы системы искусственного интеллекта высокого риска фиксировались в базе данных, которую ведет Европейская комиссия.

Системы с ограниченным риском включают в себя в основном различных ботов. Для них ключевым требованием является прозрачность. Например, если пользователи взаимодействуют с чат-ботом, они должны быть проинформированы об этом факте, чтобы они могли принять обоснованное решение о том, продолжать или нет.

Наконец, по мнению Комиссии, системы искусственного интеллекта, которые не представляют риска для прав граждан, такие как спам-фильтры или игры, освобождаются от нормативных обязательств.

Закон ЕС об искусственном интеллекте как способ достичь надежного искусственного интеллекта

Основная идея этого риск-ориентированного подхода к регулированию ИИ чем-то напоминает подход, применяемый к маркировке бытовых электроприборов на основе их энергоэффективности в ЕС. Устройства классифицируются на основе их характеристик энергоэффективности и имеют маркировку от A (лучший) до G (худший).

Но есть и некоторые важные различия. Прежде всего, хотя энергетическая маркировка предназначена для того, чтобы ее видели и принимали во внимание потребители, оценка рисков систем искусственного интеллекта не преследует той же цели. Однако, если Mozilla добьется своего, ситуация может измениться к моменту вступления в силу Закона ЕС об искусственном интеллекте.

Проводить аналогии всегда интересно, но что действительно важно, так это то, что риск-ориентированный подход пытается свести к минимуму влияние регулирования на тех, кто разрабатывает и внедряет системы искусственного интеллекта, которые практически не вызывают беспокойства, сказал он. Ганц.

«Идея состоит в том, чтобы сосредоточить внимание на тех моментах, где все становится сложнее, где возникает риск для безопасности, прав и конфиденциальности людей и так далее. Это также та часть, на которой мы хотим сосредоточиться, поскольку регулирование не является самоцелью.

Мы хотим достичь этой цели с помощью наших рекомендаций и нашей пропагандистской работы. Части регулирования, направленные на смягчение или предотвращение реализации рисков, усилены в окончательном варианте Закона ЕС об искусственном интеллекте.

Можно провести множество аналогий с другими подходами, основанными на риске, которые мы видим в европейском законодательстве и других нормативных актах. Но также важно учитывать риски, специфичные для каждого варианта использования. По сути, это означает ответ на вопрос, как мы можем убедиться, что ИИ заслуживает доверия», — сказал Ганц.

Ганц и Сурман подчеркнули, что рекомендации Mozilla были разработаны с осторожностью и должной осмотрительностью. необходимо включиться в этот процесс, чтобы убедиться, что никто не пострадал и что ИИ в конечном итоге принесет чистую выгоду для все.

Мы продолжим разработку рекомендаций Mozilla по улучшению Закона ЕС об искусственном интеллекте, а также лежащей в его основе философии. Надежный ИИ и теория изменений ИИ и как вступить в разговор часть 2 этой статьи.

Искусственный интеллект

7 продвинутых советов по написанию подсказок ChatGPT, которые вам нужно знать
10 лучших плагинов ChatGPT 2023 года (и как максимально эффективно использовать их)
Я протестировал множество инструментов искусственного интеллекта для работы. На данный момент это мои 5 любимых
Человек или бот? Эта тестовая игра Тьюринга проверит ваши навыки обнаружения ИИ
  • 7 продвинутых советов по написанию подсказок ChatGPT, которые вам нужно знать
  • 10 лучших плагинов ChatGPT 2023 года (и как максимально эффективно использовать их)
  • Я протестировал множество инструментов искусственного интеллекта для работы. На данный момент это мои 5 любимых
  • Человек или бот? Эта тестовая игра Тьюринга проверит ваши навыки обнаружения ИИ