Обнаружение предвзятости ИИ (также известное как судьба нашего мира, управляемого данными)

  • Oct 05, 2023

Искоренение скрытой предвзятости в сфере ИИ имеет основополагающее значение для обеспечения справедливого общества. Возможно ли это вообще?

арт-intellig.jpg

Вот поразительная статистика: в период с 2015 по 2019 год глобальное использование искусственного интеллекта вырос на 270%. Предполагается, что 85% американцевуже используют Продукты ИИ ежедневно, независимо от того, есть они сейчас или нет.

Легко спутать искусственный интеллект с начальство интеллект, как будто машинное обучение, основанное на огромных наборах данных, по своей сути приводит к более эффективному принятию решений. Проблема, конечно, в том, что человеческий выбор лежит в основе каждого аспекта жизни. ИИ, от управления наборами данных до взвешивания переменных. Обычно прозрачность для конечного пользователя практически отсутствует или отсутствует, а это означает, что возникающие в результате предвзятости практически невозможно учесть. Учитывая, что ИИ сейчас задействован во всем, от юриспруденции до кредитования, это чрезвычайно важно. для будущего нашего общества, которое все больше ориентируется на данные, необходимо принять во внимание проблему предвзятости в области ИИ. серьезно.

Это обоюдоострый подход: развитие самого технологического класса, что открывает огромные новые возможности. для нашего вида, пострадает от снижения доверия только в том случае, если предвзятость сохранится без прозрачности и подотчетность. В один недавний разговор, Буз Аллен Кэтлин Фезерингем, директор по стратегии и обучению искусственного интеллекта, рассказала мне, что внедрение технологии замедляется из-за того, что она называет историческими страхами:

Поскольку ИИ все еще находится в стадии своего зарождения, разные конечные пользователи могут иметь совершенно разные представления о его текущих возможностях, наилучшем использовании и даже о том, как он работает. Это способствует созданию черного ящика вокруг принятия решений ИИ. Чтобы обеспечить прозрачность того, как модель ИИ достигает конечных результатов, необходимо разработать показатели, документирующие процесс принятия решений ИИ. На ранней стадии развития ИИ прозрачность имеет решающее значение для установления доверия и принятия.

Хотя перспективы ИИ впечатляют, его внедрение замедляется из-за исторического страха перед новыми технологиями. В результате организации перегружены и не знают, с чего начать. Под давлением высшего руководства и руководствуясь догадками, а не приоритетами, организации спешат внедрять ИИ на предприятии, что создает еще больше проблем.

Одним из решений, которое становится все более заметным на рынке, является программное обеспечение для проверки. Самасурс, известный поставщик решений для четверти компаний из списка Fortune 50, запускает AI Bias Detection, решение, которое помогает обнаруживать и бороться с системной предвзятостью в области искусственного интеллекта в ряде областей. отрасли. Система, которая оставляет человека в курсе событий, предлагает расширенные возможности аналитики и отчетности, которые помогают командам ИИ выявлять и исправлять предвзятость до того, как она будет реализована в различных вариантах использования, от технологий идентификации до беспилотного вождения. транспортные средства.

Смотрите также

Искусственный интеллект: как построить экономическое обоснование

Прочитай сейчас

«Наше решение по обнаружению смещения ИИ доказывает необходимость симбиотических отношений между технологией и команда «человек в процессе работы», когда дело доходит до проектов искусственного интеллекта», — говорит Венди Гонсалес, президент и временный генеральный директор компании Самасурс. «Компании обязаны активно и постоянно совершенствовать свою продукцию, чтобы избежать опасности предвзятости, и в центре решения находятся люди».

Эта ответственность подкрепляется тревожно высоким уровнем ошибок в текущих развертываниях ИИ. Один Массачусетский технологический институт изучать обнаружили, что «системы гендерной классификации, продаваемые IBM, Microsoft и Face++», имеют «коэффициент ошибок до 34,4 процентных пункта». выше у темнокожих женщин, чем у светлокожих мужчин». Samasource также ссылается на программу правоохранительных органов округа Бровард, штат Флорида, которая использовалась для предсказать вероятность преступления, которая, как было обнаружено, «ложно помечает чернокожих обвиняемых будущими преступниками (...) почти в два раза чаще, чем белых ответчики».

Система AI Bias Detection, разработанная компанией, специально рассматривает данные, размеченные по классам, и различает этически полученные, должным образом разнообразные данные и наборы, которым может не хватать разнообразия. Он сочетает эту возможность обнаружения с архитектурой отчетности, которая предоставляет подробную информацию о распределении набора данных. и разнообразие, чтобы команды ИИ могли выявлять проблемные области в наборах данных, обучении или алгоритмах, чтобы искоренить предубеждения 

Сочетание мощных инструментов обнаружения с более широким пониманием того, насколько коварной может быть предвзятость ИИ, станет важным шагом на первых порах внедрения ИИ/МО. Часть ответственности, безусловно, придется возложить на потребителей приложений ИИ, особенно в таких сферах, как управление и правоохранительная деятельность, где ставки не могут быть выше.