KI-Ethik sollte ebenso fest verankert sein wie „Security by Design“.

  • Sep 03, 2023

Da „Security by Design“ unerlässlich ist, um sicherzustellen, dass IT-Systeme von der Entwicklung an robust aufgebaut sind, sollte derselbe Ansatz angewendet werden Künstliche Intelligenz-Tools, damit diese verantwortungsvoll und unvoreingenommen eingesetzt werden können, sagt der AI-Ethik-Direktor von Salesforce.com Architekt.

Unternehmen müssen von Anfang an über Ethik nachdenken, wenn sie mit der Konzeption und Entwicklung von Produkten für künstliche Intelligenz (KI) beginnen. Dadurch wird sichergestellt, dass KI-Tools verantwortungsvoll und unvoreingenommen eingesetzt werden können.

Der gleiche Ansatz gilt bereits als wesentlich für Cybersicherheitsprodukte, bei denen ein „Sicherheit durch Design„Das Entwicklungsprinzip wird dazu führen, dass von Anfang an Risiken und Hardcode-Sicherheit bewertet werden müssen, so dass ein stückweiser Flickenteppich und kostspielige Nachrüstungen zu einem späteren Zeitpunkt vermieden werden können.“

Diese Denkweise sollte nun auf die Entwicklung von KI-Produkten angewendet werden, sagte Kathy Baxter, Hauptarchitektin von Die ethische KI-Praxis von Salesforce.com, die die Notwendigkeit für Unternehmen unterstreicht, grundlegende Entwicklungsstandards einzuhalten mit KI-Ethik.

Sie wies darauf hin, dass man aus der Cybersicherheitsbranche, die sich in den letzten Jahrzehnten seit dem Auftauchen der ersten Malware in den 1980er Jahren weiterentwickelt habe, viele Lehren ziehen könne. Für einen Sektor, den es vorher noch gar nicht gab, hat die Cybersicherheit seitdem die Art und Weise verändert, wie Unternehmen ihre Daten schützen Systeme, wobei der Schwerpunkt auf der Identifizierung von Risiken von Anfang an und der Entwicklung grundlegender Standards und Vorschriften liegt umgesetzt.

Infolgedessen hätten die meisten Organisationen heute grundlegende Sicherheitsstandards eingeführt, die alle Beteiligten, einschließlich der Mitarbeiter, beachten sollten, sagte Baxter in einem Interview mit ZDNet. Alle neuen Mitarbeiter bei Salesforce.com müssen beispielsweise einen Orientierungsprozess durchlaufen, den das Unternehmen vorgibt Was von Mitarbeitern in Bezug auf Cybersicherheitspraktiken erwartet wird, z. B. die Einführung eines sicheren Passworts und die Verwendung eines VPN.

Dasselbe gelte für die Ethik, sagte sie und fügte hinzu, dass es ein internes Team gebe, das sich dafür einsetze, dies innerhalb des Unternehmens voranzutreiben.

Es gab auch Ressourcen, die den Mitarbeitern helfen sollten, zu beurteilen, ob eine Aufgabe oder Dienstleistung auf der Grundlage der Ethikrichtlinien des Unternehmens ausgeführt werden sollte, und zu verstehen, wo die roten Linien verlaufen, sagte Baxter. KI-gestützt von Salesforce.com Einstein-VisionBeispielsweise kann es niemals zur Gesichtserkennung verwendet werden, so dass jeder Vertriebsmitarbeiter, der sich dessen nicht bewusst ist und versucht, das Produkt für eine solche Bereitstellung zu verkaufen, verstößt damit gegen die Grundsätze des Unternehmens Richtlinien.

Und so wie Cybersicherheitspraktiken regelmäßig überprüft und überarbeitet würden, um mit der sich ändernden Bedrohungslandschaft Schritt zu halten, sollte dies auch auf Richtlinien im Zusammenhang mit der KI-Ethik angewendet werden, sagte sie.

Dies war von entscheidender Bedeutung, da sich Gesellschaften und Kulturen im Laufe der Zeit veränderten und Werte, die vor zehn Jahren noch als relevant galten, möglicherweise nicht mehr relevant waren im Einklang mit den Ansichten der Bevölkerung eines Landes fand heute statt, bemerkte sie. KI-Produkte mussten dies widerspiegeln.

Daten sind ein wesentliches Hindernis bei der Bekämpfung von KI-Voreingenommenheiten

Während politische Maßnahmen einige Risiken einer Verzerrung in der KI abmildern könnten, blieben andere Herausforderungen bestehen – insbesondere der Zugang zu Daten. Ein Mangel an Volumen oder Vielfalt könnte zu einer ungenauen Darstellung einer Branche oder eines Segments führen.

Dies sei eine erhebliche Herausforderung im Gesundheitssektor, insbesondere in Ländern wie den USA, in denen es keine sozialisierte Medizin oder staatliche Gesundheitssysteme gebe, sagte Baxter. Wenn KI-Modelle mit begrenzten Datensätzen trainiert würden, die auf einer kleinen Teilmenge einer Population basieren, wäre dies möglich Auswirkungen auf die Bereitstellung von Gesundheitsdiensten und die Fähigkeit, Krankheiten für bestimmte Gruppen zu erkennen Menschen.

Salesforce.com, das nicht auf die Daten seiner Kunden zugreifen oder diese nutzen kann, um seine eigenen KI-Modelle zu trainieren, wird die Lücken schließen Einkauf aus externen Quellen wie Sprachdaten, die zum Trainieren der Chatbots verwendet werden, sowie Tippen synthetische Daten.

Auf die Frage nach der Rolle, die Regulierungsbehörden bei der Förderung der KI-Ethik spielten, sagte Baxter, dass die Verwendung spezifischer Kennzahlen vorgeschrieben werden könne schädlich sein, da es noch viele Fragen zur Definition von „erklärbarer KI“ und wie sie sein sollte, gab umgesetzt.

Der Salesforce.com-Manager ist Mitglied von Singapurs Beirat für den ethischen Einsatz von KI und Daten, das die Regierung in Bezug auf Richtlinien und Governance im Zusammenhang mit dem Einsatz datengesteuerter Technologien im privaten Sektor berät.

Baxter verwies auf ihre Erfahrung im Rat und sagte, die Mitglieder hätten schnell erkannt, dass die Definition von „Fairness“ allein mit etwa zwei Dutzend statistischen Definitionen kompliziert sei. Darüber hinaus sei das, was für eine Gruppe fair sei, für eine andere zwangsläufig manchmal weniger fair, stellte sie fest.

Auch die Definition von „Erklärbarkeit“ sei komplex, da selbst Experten für maschinelles Lernen aufgrund vordefinierter Erklärungen die Funktionsweise eines Modells falsch interpretieren könnten, sagte sie. Festgelegte Richtlinien oder Vorschriften sollten für jeden, der KI-gestützte Daten verwendet, in allen Sektoren, beispielsweise Außendienstmitarbeitern oder Sozialarbeitern, leicht verständlich sein.

Baxter erkannte, dass solche Probleme komplex seien, und sagte, der Stadtrat von Singapur sei zu dem Schluss gekommen, dass es effektiver sei, eine zu gründen Rahmen und Richtlinien, einschließlich Toolkits, um KI-Anwendern zu helfen, ihre Auswirkungen zu verstehen und bei der Nutzung von KI transparent zu sein.

Singapur letzten Monat veröffentlichte ein Toolkit namens A.I. Verifizieren, dass es Unternehmen ermöglichen würde, ihren „objektiven und überprüfbaren“ Einsatz von KI nachzuweisen. Der Schritt war Teil der Bemühungen der Regierung, die Transparenz bei KI-Einsätzen durch technische und Prozesskontrollen zu erhöhen.

Baxter drängte darauf, das Missverständnis zu zerstreuen, dass KI-Systeme standardmäßig fair seien, nur weil sie Maschinen seien und daher frei von Voreingenommenheit. Organisationen und Regierungen müssten Anstrengungen unternehmen, um sicherzustellen, dass die Vorteile der KI gleichmäßig verteilt seien und dass ihre Anwendung bestimmte Kriterien einer verantwortungsvollen KI erfülle, sagte sie.

VERWANDTE ABDECKUNG

  • Kann KI dort Hilfe leisten, wo Menschen nicht helfen können?
  • Singapur betont bei der Einführung des Test-Toolkits die Notwendigkeit von KI-Transparenz
  • KI kann kreativ und ethisch sein, wenn sie menschlich angewendet wird
  • Jedes Land muss eine eigene Definition der akzeptablen KI-Nutzung festlegen
  • Singapur plant mehr Kameras und Technologie zur Stärkung der Strafverfolgung
  • Singapur unterstreicht die Notwendigkeit, Vertrauen aufzubauen, während sich die KI weiterentwickelt
  • Singapur veröffentlicht Referenzhandbuch zu KI-Ethik und Governance
  • Singapur will einen KI-Rahmen für „Fairness“-Kreditbewertungskennzahlen einrichten