KI-Ethik in der realen Welt: FTC-Kommissar zeigt einen Weg zu wirtschaftlicher Gerechtigkeit

  • Sep 05, 2023

FTC-Kommissarin Rebecca Kelly Slaughter erläutert das Schadenspotenzial von maschinellem Lernen und KI und skizziert einige Möglichkeiten für die FTC, dem entgegenzuwirken.

ai-ethics-shutterstock-1423229633.jpg

Die Verbreitung künstlicher Intelligenz und algorithmischer Entscheidungsfindung hat dazu beigetragen, unzählige Aspekte unserer Gesellschaft zu prägen: Von der Gesichtserkennung über Deep-Fake-Technologie bis hin zur Strafjustiz und dem Gesundheitswesen sind ihre Anwendungen scheinbar vielfältig endlos. In all diesen Kontexten ist die Geschichte der angewandten algorithmischen Entscheidungsfindung sowohl vielversprechend als auch gefährlich. Angesichts der Neuheit, des Umfangs und der Undurchsichtigkeit, die viele Anwendungen dieser Technologien mit sich bringen, steht oft unglaublich viel auf dem Spiel.

lesen Sie dies

Alles, was Sie über KI wissen müssen

Ein Leitfaden für Führungskräfte zur künstlichen Intelligenz, vom maschinellen Lernen und allgemeiner KI bis hin zu neuronalen Netzen.

Lies jetzt

Dies ist die Einleitung zum Whitepaper von FTC-Kommissarin Rebecca Kelly Slaughter:

Algorithmen und wirtschaftliche Gerechtigkeit: Eine Taxonomie der Schäden und ein Weg nach vorne für die Federal Trade Commission. Wenn Sie über datengesteuerte und algorithmische Entscheidungsfindung, Analysen, maschinelles Lernen, KI und deren Anwendungen auf dem Laufenden sind, wissen Sie, dass Sie genau richtig sind. Der 63-seitiges Whitepaper enttäuscht nicht.

Slaughter arbeitete mit ihren FTC-Kollegen Janice Kopec und Mohamad Batal an dem Whitepaper. Ihre Arbeit wurde unterstützt von Immuta, und es wurde gerade als Teil der veröffentlicht Yale Law School Information Society Project Digital Future Whitepapers-Reihe. Die 2020 ins Leben gerufene Digital Future Whitepaper Series ist ein Treffpunkt für führende globale Denker, die die Auswirkungen digitaler Technologien auf Recht und Gesellschaft hinterfragen.

Ziel der Reihe ist es, Wissenschaftlern, Forschern und Praktikern ein Forum zu bieten, um neue Herausforderungen im Bereich Daten und Regulierung zu beschreiben und ihnen entgegenzutreten Grundannahmen über Recht und Technologie zu vermitteln und neue Wege vorzuschlagen, um rechtliche und ethische Rahmenbedingungen an die Probleme der digitalen Welt anzupassen.

Slaughter stellt fest, dass die algorithmische Entscheidungsfindung in den letzten Jahren in einigen der wichtigsten Bereiche der amerikanischen Wirtschaft zu voreingenommenen, diskriminierenden und anderweitig problematischen Ergebnissen geführt hat. Ihre Arbeit liefert eine grundlegende Taxonomie algorithmischer Schäden, die Ungerechtigkeit andeuten, und beschreibt sowohl die Schäden selbst als auch die technischen Mechanismen, die diese Schäden verursachen.

Darüber hinaus beschreibt es Slaughters Ansicht darüber, wie die bestehenden Instrumente der FTC aggressiv eingesetzt werden können und sollten, um Ungerechtigkeit zu verhindern. und untersucht, wie neue Gesetze oder die Festlegung von FTC-Regeln dazu beitragen könnten, die durch Algorithmen verursachten Schäden strukturell anzugehen Entscheidungsfindung.

Fehlerhafte Eingaben, fehlerhafte Schlussfolgerungen, unzureichende Tests

Slaughter identifiziert drei Möglichkeiten, wie Fehler im Algorithmusdesign schädliche Ergebnisse hervorrufen können: fehlerhafte Eingaben, fehlerhafte Schlussfolgerungen und unzureichende Tests.

Der Wert eines Algorithmus für maschinelles Lernen hängt von Natur aus mit der Qualität der Daten zusammen, die zu seiner Entwicklung verwendet werden, und fehlerhafte Eingaben können zu durchaus problematischen Ergebnissen führen. Dieses umfassende Konzept wird in dem bekannten Satz zusammengefasst: „Müll rein, Müll raus."

Die zur Entwicklung eines Algorithmus für maschinelles Lernen verwendeten Daten können verzerrt sein, weil einzelne Datenpunkte problematische menschliche Vorurteile widerspiegeln oder weil der Gesamtdatensatz nicht ausreichend repräsentativ ist. Oftmals spiegeln verzerrte Trainingsdaten historische und anhaltende Muster von Vorurteilen oder Ungleichheit wider, und wenn ja, dann auch diese Fehlerhafte Eingaben können zu voreingenommenen Algorithmen führen, die die Ungerechtigkeit verschärfen, Schlachtnotizen.

Sie nennt einige prominente Beispiele für fehlerhafte Eingaben, wie z Der gescheiterte Versuch von Amazon, einen auf maschinellem Lernen basierenden Einstellungsalgorithmus zu entwickeln, und das Internationales Baccalaureat Und Die A-Level-Prüfungen in Großbritannien. In all diesen Fällen identifizierten die zur Automatisierung von Entscheidungen eingeführten Algorithmen immer wieder Verzerrungsmuster in den Daten, die zu ihrem Training verwendet wurden, und versuchten, diese zu reproduzieren.

Eine andere Art von Problem besteht darin, Daten in Algorithmen einzuspeisen, die zu ungenauen oder irreführenden Schlussfolgerungen führen – vielleicht besser ausgedrückt als „Daten rein, Müll raus“. Das Art des Fehlers, fehlerhafte Schlussfolgerungen, schürt Ängste vor dem sich schnell ausbreitenden Bereich der KI-gesteuerten „Affekterkennungs“-Technologie und wird oft durch Misserfolge in experimentellen Verfahren genährt Design.

Maschinelles Lernen funktioniert oft wie eine Blackbox, und da Anwendungen immer wirkungsvoller werden, kann dies problematisch sein. Bild: Immuta

Slaughter beschreibt Situationen, in denen Algorithmen versuchen, Muster in bestimmten Arten von physischen Präsentationen und Manierismen zu finden und daraus Schlussfolgerungen zu ziehen. Sie stellt jedoch fest, dass der menschliche Charakter erwartungsgemäß nicht auf eine Reihe objektiver, beobachtbarer Faktoren reduziert werden kann. Slaughter hebt den Einsatz von Affekterkennungstechnologie bei der Einstellung als besonders problematisch hervor.

Bei manchen mehr als bei anderen, etwa bei einem Unternehmen, das vorgibt, mehr als sechzig Persönlichkeitsmerkmale zu profilieren, die für die Arbeitsleistung relevant sind – von „einfallsreich“ über „abenteuerlustig“ bis „kultiviert“ – alles basierend auf der Analyse eines 30-sekündigen Video-Covers eines Bewerbers durch einen Algorithmus Brief.

Trotz des Anscheins von Objektivität, der durch das Herumwerfen von Begriffen wie „KI“ und „maschinelles Lernen“ entsteht, in In vielen Kontexten ist die Technologie immer noch zutiefst unvollkommen, und viele argumentieren, dass ihre Verwendung nichts Geringeres ist als Pseudowissenschaft.

Aber selbst mit Sorgfalt und guten Absichten entwickelte Algorithmen können immer noch zu voreingenommenen oder schädlichen Ergebnissen führen, die unerwartet sind, stellt Slaughter fest. Zu oft werden Algorithmen ohne angemessene Tests eingesetzt, die diese unerwünschten Folgen aufdecken könnten, bevor sie den Menschen in der realen Welt schaden.

Slaughter erwähnt Verzerrungen in den Suchergebnissen, die beim Testen aufgedeckt wurden Googles Und LinkedIns Suche, konzentriert sich aber auf den Gesundheitsbereich. A Kürzlich durchgeführte Studie fanden rassistische Vorurteile in einem weit verbreiteten maschinellen Lernalgorithmus, der den Zugang zur Versorgung für Hochrisikopatienten mit chronischen Gesundheitsproblemen verbessern soll.

Der Algorithmus nutzte die Gesundheitskosten als Stellvertreter für den Gesundheitsbedarf, allerdings aus verschiedenen Gründen Unabhängig von Gesundheitsbedürfnissen geben weiße Patienten mehr für die Gesundheitsversorgung aus als ihre ebenso kranken schwarzen Patienten Kollegen tun es. Die Verwendung von Gesundheitskosten zur Vorhersage des Gesundheitsbedarfs führte daher dazu, dass der Algorithmus weiße Patienten überproportional für zusätzliche Pflege auswies.

Die Forscher schätzten, dass aufgrund dieser eingebetteten Verzerrung die Zahl der schwarzen Patienten, die einer besonderen Pflege bedurften, um mehr als die Hälfte zurückging. Den Forschern, die den Fehler im Algorithmus entdeckten, gelang dies, weil sie über den Tellerrand blickten Algorithmus selbst auf die von ihm erzeugten Ergebnisse und weil sie Zugriff auf genügend Daten hatten, um eine sinnvolle Durchführung durchzuführen Anfrage.

Als die Forscher den Fehler identifizierten, arbeitete der Hersteller des Algorithmus mit ihnen zusammen, um dessen Auswirkungen abzumildern. letztlich Reduzierung der Voreingenommenheit um 84 % – genau die Art der Voreingenommenheitsreduzierung und Schadensminderung, die durch Tests und Modifikationen erreicht werden soll, stellt Slaughter fest.

Erleichterung der Stellvertreterdiskriminierung, Ermöglichung des Überwachungskapitalismus und Hemmung des Wettbewerbs auf Märkten

Nicht alle schädlichen Folgen von Algorithmen sind auf Designfehler zurückzuführen. Slaughter identifiziert außerdem drei Möglichkeiten, wie hochentwickelte Algorithmen systemischen Schaden erzeugen können: durch Erleichterung der Stellvertreterdiskriminierung, Ermöglichung des Überwachungskapitalismus und Hemmung des Wettbewerbs Märkte.

Stellvertreterdiskriminierung ist die Verwendung einer oder mehrerer gesichtsneutraler Variablen, um häufig ein gesetzlich geschütztes Merkmal zu vertreten Dies führt zu einer unterschiedlichen Behandlung oder unterschiedlichen Auswirkungen auf geschützte Klassen in bestimmten wirtschaftlichen, sozialen und staatsbürgerlichen Bereichen Gelegenheiten. Mit anderen Worten: Diese Algorithmen identifizieren scheinbar neutrale Merkmale, um Gruppen zu erstellen, die eine geschützte Klasse genau widerspiegeln, und diese „Proxys“ werden zum Einschluss oder Ausschluss verwendet.

Slaughter erwähnt einige hochkarätige Fälle von Stellvertreterdiskriminierung: Das Ministerium für Wohnungsbau und Stadtentwicklung erhebt Vorwürfe gegen Facebooks Tool namens „Lookalike-Zielgruppen," Vorstellung von Stellenangeboten für verschiedene Zielgruppen, Und FinTech-Innovationen, die die Fortsetzung historischer Voreingenommenheit ermöglichen können den Zugang zum Kreditsystem zu verweigern oder hochverzinsliche Produkte effizient auf diejenigen auszurichten, die sie sich am wenigsten leisten können.

Eine weitere Möglichkeit, wie algorithmische Entscheidungsfindung umfassendere gesellschaftliche Herausforderungen vorantreiben kann, ist die Rolle, die sie im System von spielt Überwachungskapitalismus, das Slaughter als ein Geschäftsmodell definiert, das die Privatsphäre systematisch untergräbt, Fehlinformationen fördert und Desinformation treibt die Radikalisierung voran, untergräbt die psychische Gesundheit der Verbraucher und verringert oder beseitigt die Gesundheit der Verbraucher. Entscheidungen.

KI-Ethik hat sehr reale Auswirkungen, die immer weiter verbreitet und wichtiger werden

Durch ständige, datengesteuerte Anpassungen, Slaughter-Notizen und Algorithmen, die Verbraucherdaten oft in Echtzeit verarbeiten, sich weiterentwickeln und „verbessern“ in dem unermüdlichen Bemühen, so viel Aufmerksamkeit wie möglich von möglichst vielen Menschen zu gewinnen und zu monetarisieren. Viele Unternehmen des Überwachungskapitalismus sind bemerkenswert erfolgreich darin, Algorithmen zur „Optimierung“ für die Aufmerksamkeit der Verbraucher einzusetzen, ohne Rücksicht auf nachgelagerte Konsequenzen zu nehmen.

Slaughter untersucht den Fall von YouTube-Inhalte, die sich an Kinder richten, und wie sie als Waffe eingesetzt werden. Der FTC hat sich damit befasst, und Slaughter weist darauf hin, dass YouTube angekündigt hat, maschinelles Lernen zu nutzen, um aktiv nach falsch bezeichneten Inhalten zu suchen und Altersbeschränkungen automatisch anzuwenden.

Das klingt zwar nach einem technologischen Rückhalt Schlachtung beantragt In diesem Fall stellt sie zwei wesentliche Unterschiede fest: Erstens ist es völlig freiwillig und zweitens sind sowohl seine Anwendung als auch seine Wirksamkeit undurchsichtig. Sie argumentiert, dass dies ein breiteres Spektrum an Bedenken hinsichtlich des Überwachungskapitalismus aufwirft – eines, das über jede einzelne Plattform hinausgeht.

Die mit der algorithmischen Entscheidungsfindung verbundenen Fallstricke spiegeln sich am deutlichsten in den Gesetzen wider, die die FTC im Rahmen ihrer Verbraucherschutzmission durchsetzt, stellt Slaughter fest. Aber die FTC ist auch für die Förderung des Wettbewerbs verantwortlich, und die von Algorithmen ausgehenden Bedrohungen wirken sich auch tiefgreifend auf diese Mission aus.

Darüber hinaus, fügt sie hinzu, seien diese beiden Missionen nicht wirklich unterschiedlich und es gäbe Probleme – auch diese B. im Zusammenhang mit Algorithmen und wirtschaftlicher Gerechtigkeit – müssen sowohl im Wettbewerb als auch im Verbraucherschutz berücksichtigt werden Linsen.

Slaughter untersucht Themen, darunter traditionelle Kartelltarife wie Preisgestaltung und Absprachen, aber auch neuartigere Fragen wie z wie die Auswirkungen des Einsatzes von Algorithmen durch dominante digitale Unternehmen zur Festigung der Marktmacht und zur Ausgrenzung Praktiken Methoden Ausübungen.

Auf dem Weg zu einer rationalen Debatte über KI-Ethik

Insgesamt wirkt das Whitepaper gut recherchiert und bietet einen guten Überblick über die Thematik. Während die Abschnitte des Papiers über die Nutzung der derzeitigen Befugnisse der FTC zum besseren Schutz der Verbraucher und Die vorgeschlagenen neuen Gesetzes- und Regulierungslösungen beziehen sich auf Rechtsinstrumente, für deren Berichterstattung wir uns nicht qualifiziert fühlen weiter, wir Ermutigen Sie interessierte Leser, sie zu lesen.

Wir möchten jedoch auch darauf hinweisen, dass es wichtig ist, sich dessen bewusst zu sein KI-Ethik und die weitreichenden Konsequenzen von Daten und AlgorithmenEbenso wichtig ist es, eine konstruktive und unvoreingenommene Haltung einzunehmen, wenn es um Themen geht, die oft subjektiv und offen für Interpretationen sind.

Eine übereifrige Haltung bei Debatten, die häufig in sozialen Medien stattfinden, wo Kontext und Absicht leicht falsch interpretiert und falsch dargestellt werden können, ist möglicherweise nicht der konstruktivste Weg, um Fortschritte zu erzielen. Ein typisches Beispiel: KI-Aushängeschilder Yann LeCun Und Pedro Domingos Missgeschicke.

Wenn es um KI-Ethik geht, müssen wir über Sensationsgier hinausgehen und einen gut informierten und, nun ja, datengesteuerten Ansatz verfolgen. Slaughters Arbeit scheint ein Schritt in diese Richtung zu sein.

Grundierungen

Was ist KI? Alles, was Sie wissen müssen
Was ist maschinelles Lernen? Alles, was Sie wissen müssen
Was ist Deep Learning? Alles, was Sie wissen müssen
Was ist künstliche allgemeine Intelligenz? Alles, was Sie wissen müssen
  • Was ist KI? Alles, was Sie wissen müssen
  • Was ist maschinelles Lernen? Alles, was Sie wissen müssen
  • Was ist Deep Learning? Alles, was Sie wissen müssen
  • Was ist künstliche allgemeine Intelligenz? Alles, was Sie wissen müssen