KI-Tools von Drittanbietern sind für 55 % der KI-Fehler in Unternehmen verantwortlich

  • Oct 24, 2023

Generative KI ist beliebter denn je, aber sie lohnt sich nicht, wenn sie nicht verantwortungsvoll eingesetzt wird.

Digital generiertes Bild mehrfarbiger vertikaler Balken. Konzept der Fintech-Technologie, New Banking, Investment, Cloud-Technologie und KI.
Eugene Mymrin über Getty Images

Stellen Sie sich vor, Sie ziehen einen hoch KI-gestützt Ich nutzte die Wetter-App und sah in der Wettervorhersage einen klaren Himmel für ein Firmenpicknick am Nachmittag, nur um am Ende mit einem durchnässten Hotdog im strömenden Regen zu stehen. Oder Ihr Unternehmen implementiert ein KI-Tool für den Kundensupport, das sich jedoch schlecht in Ihr CRM integrieren lässt und wertvolle Kundendaten verliert.

Entsprechend neue Forschung, sind KI-Tools von Drittanbietern für über 55 % der KI-bezogenen Ausfälle in Unternehmen verantwortlich. Diese Fehler können zu Reputationsschäden, finanziellen Verlusten, Vertrauensverlust der Verbraucher und sogar zu Rechtsstreitigkeiten führen. Die Umfrage wurde von MIT Sloan Management Review und der Boston Consulting Group durchgeführt und konzentrierte sich auf das Wie Organisationen befassen sich mit verantwortungsvoller KI, indem sie die realen Konsequenzen hervorheben, wenn sie es nicht tun Also.

Auch: So schreiben Sie bessere ChatGPT-Eingabeaufforderungen für die besten generativen KI-Ergebnisse

„Unternehmen haben ihre Risikomanagementprogramme von Drittanbietern nicht vollständig an den KI-Kontext oder die Herausforderungen der Sicherheit angepasst.“ den Einsatz komplexer Systeme wie generativer KI-Produkte“, sagte Philip Dawson, Leiter der KI-Politik bei Armilla AI, gegenüber dem MIT Forscher. „Viele unterziehen KI-Anbieter oder ihre Produkte nicht der Art von Bewertung, die für die Cybersicherheit durchgeführt wird, und sind daher blind für die Risiken, die mit dem Einsatz von KI-Lösungen von Drittanbietern einhergehen.“

Der Veröffentlichung von ChatGPT Vor fast einem Jahr löste ein generative KI-Boom in der Technik. Es dauerte nicht lange, bis andere Unternehmen OpenAI folgten und ihre eigenen KI-Chatbots veröffentlichten, darunter Microsoft Bing Und Google Barde. Auch die Popularität und die Fähigkeiten dieser Bots gingen zurück ethische Herausforderungen und Fragen.

Als ChatGPT sowohl als eigenständige Anwendung als auch als API immer beliebter wurde, begannen Drittunternehmen, seine Leistungsfähigkeit zu nutzen Entwicklung ähnlicher KI-Chatbots, um generative KI-Lösungen für Kundensupport, Inhaltserstellung, IT-Hilfe und Überprüfung zu erstellen Grammatik.

Von den 1.240 Befragten der Umfrage in 87 Ländern gaben 78 % an, dass ihre Unternehmen KI-Tools von Drittanbietern nutzen, indem sie auf diese zugreifen, sie kaufen oder lizenzieren. Von diesen Organisationen nutzen 53 % ausschließlich Tools von Drittanbietern, ohne interne KI-Technologie. Während über drei Viertel der befragten Unternehmen KI-Tools von Drittanbietern verwenden, sind 55 % der KI-bezogenen Fehler auf die Verwendung dieser Tools zurückzuführen.

Auch: Sie können jetzt Sprachchats mit ChatGPT führen. Hier ist wie

Obwohl sich 78 % der Befragten auf KI-Tools von Drittanbietern verlassen, haben 20 % die damit verbundenen erheblichen Risiken nicht eingeschätzt. Die Studie kam zu dem Schluss, dass eine verantwortungsvolle KI (RAI) schwieriger zu erreichen ist, wenn Teams ohne Aufsicht mit Anbietern zusammenarbeiten, und dass eine gründlichere Bewertung der Tools von Drittanbietern erforderlich ist.

„Bei Kunden in regulierten Branchen wie dem Finanzdienstleistungssektor sehen wir starke Verbindungen zwischen modellhaften Risikomanagementpraktiken, die auf irgendeiner Art basieren der externen Regulierung und was wir den Menschen aus RAI-Sicht empfehlen“, so Triveni Gandhi, verantwortlicher KI-Leiter des KI-Unternehmens Dataiku.

Auch: Warum IT-Wachstum nur zu mehr Burnout führt und was dagegen getan werden sollte

KI von Drittanbietern kann ein integraler Bestandteil organisatorischer KI-Strategien sein, sodass das Problem nicht durch die Entfernung der Technologie beseitigt werden kann. Stattdessen empfehlen die Forscher gründliche Risikobewertungsstrategien, wie z. B. Lieferantenaudits, interne Überprüfungen und die Einhaltung von Industriestandards.

Angesichts der Geschwindigkeit, mit der sich das RAI-Regulierungsumfeld weiterentwickelt, glauben die Forscher, dass Unternehmen einer verantwortungsvollen KI Priorität einräumen sollten, von den Regulierungsabteilungen bis hin zum CEO. Organisationen mit einem CEO, der aktiv an RAI beteiligt ist, meldeten 58 % mehr Geschäftsvorteile als Unternehmen mit einem CEO, der nicht direkt an RAI beteiligt ist.

Auch: Warum Open Source die Wiege der künstlichen Intelligenz ist

Die Untersuchung ergab außerdem, dass Unternehmen mit einem CEO, der sich mit RAI befasst, fast doppelt so häufig in RAI investieren als solche mit einem CEO, der sich nicht an die Arbeit hält.

Künstliche Intelligenz

So schreiben Sie bessere ChatGPT-Eingabeaufforderungen für die besten generativen KI-Ergebnisse
Ich habe die neuen KI-Funktionen von Microsoft ausprobiert und diese fünf sind die nützlichsten
Warum Open Source die Wiege der künstlichen Intelligenz ist
Meine beiden Lieblings-ChatGPT-Plus-Plugins und die bemerkenswerten Dinge, die ich damit machen kann
  • So schreiben Sie bessere ChatGPT-Eingabeaufforderungen für die besten generativen KI-Ergebnisse
  • Ich habe die neuen KI-Funktionen von Microsoft ausprobiert und diese fünf sind die nützlichsten
  • Warum Open Source die Wiege der künstlichen Intelligenz ist
  • Meine beiden Lieblings-ChatGPT-Plus-Plugins und die bemerkenswerten Dinge, die ich damit machen kann