Salesforce fügt Trailhead das AI-Bias-Modul hinzu

  • Sep 05, 2023

Die Idee hinter Salesforces Bemühungen zur Aufklärung über KI-Bias besteht darin, dass letztendlich weit mehr als nur Datenwissenschaftler Algorithmen und Module erstellen werden.

Salesforce erstellt auf seiner Entwickler-Ausbildungsplattform Trailhead Module für verantwortungsvolle künstliche Intelligenz.

Siehe auch

  • Telemedizin, KI und Deep Learning revolutionieren das Gesundheitswesen (kostenloses PDF)

Die Wette ist, dass Low-Code-Entwicklertools dazu führen werden, dass mehr Technologie- und Geschäftsexperten in der Lage sein werden, Algorithmen zusammenzustellen, und dass sie diese verstehen müssen wie man es verantwortungsvoll macht.

KI Ethik, Voreingenommenheit und Transparenz sind im Technologiesektor zu einem heißen Thema geworden, da sich zahlreiche führende Anbieter mit dem Thema befassen. Die größte Sorge besteht darin, dass einzelne Algorithmen für sich genommen möglicherweise keine Voreingenommenheit aufweisen, diese jedoch in Kombination mit anderen Modellen erwerben.

Kathy Baxter, Architektin der ethischen KI-Praxis bei Salesforce, sagte, die Trailhead-Module seien entworfen um Mitarbeiter, Kunden und Partner anzusprechen, die mit Einstein zusammenarbeiten und verschiedene nutzen Modelle.

Abgesehen von der Aufklärung des Salesforce-Ökosystems können Trailhead-Module auch Informationen zu künftigen Funktionen liefern, die in Einstein integriert werden sollen, das bereits über einige integrierte KI-Anti-Bias-Tools verfügt, weitere befinden sich in Pilotprojekten. „Wir versuchen, den Kunden zu helfen, zu verstehen, was in einem Modell enthalten ist, zu erklären, was getan wird, und zu kommunizieren, wie es funktioniert“, sagte Baxter.

Sie fügte hinzu, dass es mehrere Ergänzungen zu Trailhead geben wird, die sich auf KI-Ethik und die Vermeidung von Voreingenommenheit konzentrieren.

Bias ist ein entscheidendes Konzept in der KI und einigen anderen Wissenschaftler haben mehr Selbstverwaltung und Regulierung gefordert. Darüber hinaus drängen Branchenakteure wie IBM auf mehr Transparenz und eine Softwareschicht zur Überwachung von Algorithmen, um zu sehen, wie sie zusammenarbeiten, um Voreingenommenheit zu erzeugen. Inzwischen streben Unternehmen danach erklärbare KI. Google sagt, dass es mit der Technologie namens TCAV die Voreingenommenheit von KI- und Machine-Learning-Modellen angehen wird.

In einem Blogbeitrag bemerkte Baxter von Salesforce:

Da der Zugang zu KI immer breiter wird und sich die Tiefe ihrer Auswirkungen zu offenbaren beginnt, stehen wir vor neuen Fragen, wie wir dies gewährleisten können Die Zukunft der KI ist verantwortungsvoll, rechenschaftspflichtig und fair – auch wenn sie von Menschen ohne technische Ausbildung oder KI entwickelt wird Sachverstand. Es ist von entscheidender Bedeutung, dass jeder, der KI entwickelt, den Dominoeffekt berücksichtigt, den KI-gesteuerte Ergebnisse auf Menschen und die Gesellschaft haben können, ob beabsichtigt oder nicht. Der erste Schritt beim Aufbau verantwortungsvoller KI-Lösungen besteht darin, die Vorurteile zu verstehen, die in den Modellen und Trainingsdaten lauern können – eine große Herausforderung für sich.

Das KI-Modul mit dem Titel „Responsible Creation of Artificial Intelligence“ auf Trailhead umfasst Folgendes:

  • Ethischer und menschlicher Einsatz von Technologie;
  • KI verstehen;
  • Voreingenommenheit in der KI erkennen;
  • Entfernen von Ausschlüssen aus Daten und Algorithmen.

Das Interessante am Salesforce-Modul ist, dass der KI-Crashkurs weit über die Datenwissenschaft hinausgeht und sich an kreative Profis und Branchenmanager richtet.

Grundierungen: Was ist KI? | Was ist maschinelles Lernen? | Was ist Deep Learning? | Was ist künstliche allgemeine Intelligenz?

Das Argument von Salesforce ist, dass man KI nicht demokratisieren kann, ohne die damit verbundenen Verantwortlichkeiten zu durchdenken.

Das Modul behandelt die Herausforderungen im Zusammenhang mit Voreingenommenheit und fairen Entscheidungen und was passiert, wenn große Datensätze skaliert werden. Das Salesforce-Modul deckt auch verschiedene Arten von Bias ab, wie etwa Assoziations-, Automatisierungs-, Bestätigungs-, Gesellschafts- und Interaktionsbias.

Hier ist ein einfaches Beispiel für eine Überlebensverzerrung:

Mehr KI-Voreingenommenheit als Vordenker:

Ähnliche Beiträge:

  • Enterprise AI im Jahr 2019: Was Sie wissen müssen
  • Umfrage: Technologieführer gehen Projekte im Bereich der künstlichen Intelligenz und des maschinellen Lernens vorsichtig an
  • Kostenloser PDF-Download: KI und ML im Unternehmen verwalten
  • Unternehmens-KI und maschinelles Lernen: Vergleich der Unternehmen und Anwendungen
  • Die tatsächlichen Kosten und der ROI der Implementierung von KI im Unternehmen
  • Maschinelles Lernen und Informationsarchitektur: Erfolgsfaktoren
  • CIO-Jury: 92 Prozent der Technologieführer haben keine Richtlinien für den ethischen Einsatz von KI