OpenAI baut ein Red-Teaming-Netzwerk auf, um die KI-Sicherheit zu bekämpfen

  • Sep 26, 2023

Die Mitglieder des Red Teaming Network von OpenAI werden für ihre Zeit vergütet und Vorkenntnisse mit Sprachmodellen sind nicht erforderlich.

OpenAI Red Teaming
OpenAI

ChatGPT von OpenAI hat weltweit über 100 Millionen Nutzer, was sowohl die positiven Anwendungsfälle für KI als auch die Notwendigkeit einer stärkeren Regulierung unterstreicht. OpenAI stellt jetzt ein Team zusammen, um beim Aufbau sichererer und robusterer Modelle zu helfen.

Am Dienstag, OpenAI angekündigt dass es sein OpenAI Red Teaming Network startet, das sich aus Experten zusammensetzt, die dabei helfen können, Einblicke in die Risikobewertung und Risikominderungsstrategien des Unternehmens zu liefern, um sicherere Modelle einzusetzen.

Auch: Jede Ankündigung von Amazon AI heute, über die Sie Bescheid wissen möchten 

Dieses Netzwerk wird die Art und Weise, wie OpenAI seine Risikobewertungen durchführt, in einen formelleren Prozess umwandeln, der verschiedene Phasen des Modells umfasst Produktentwicklungszyklus, im Gegensatz zu „einmaligen Engagements und Auswahlprozessen vor größeren Modelleinführungen“, heißt es OpenAI.

OpenAI sucht für das Team Experten mit unterschiedlichem Hintergrund, darunter Fachkenntnisse in den Bereichen Bildung, Wirtschaft, Recht, Sprachen, Politikwissenschaft und Psychologie, um nur einige zu nennen.

Auch: So verwenden Sie ChatGPT für die Recherche nach Aufsätzen, Präsentationen, Studien und mehr

OpenAI sagt jedoch, dass Vorkenntnisse mit KI-Systemen oder Sprachmodellen nicht erforderlich sind.

Die Mitglieder werden für ihre Zeit entschädigt und unterliegen Geheimhaltungsvereinbarungen (NDAs). Da sie nicht an jedem neuen Modell oder Projekt beteiligt sind, kann die Mitgliedschaft im roten Team nur ein geringfügiger Zeitaufwand von fünf Stunden im Jahr sein. Sie können sich als Teil des Netzwerks bewerben über die Website von OpenAI.

Zusätzlich zu den Red-Teaming-Kampagnen von OpenAI können sich die Experten laut Blogbeitrag untereinander über allgemeine „Red-Teaming-Praktiken und Erkenntnisse“ austauschen.

Auch: Amazon verwandelt Alexa in ein Freisprech-ChatGPT

„Dieses Netzwerk bietet eine einzigartige Gelegenheit, die Entwicklung sichererer KI-Technologien und -Richtlinien sowie die Auswirkungen, die KI auf die Art und Weise haben kann, wie wir leben, arbeiten und interagieren, zu gestalten“, sagt OpenAI.

Red Teaming ist ein wesentlicher Prozess, um die Wirksamkeit und Sicherheit neuerer Technologien zu testen. Andere Technologiegiganten, darunter Google Und Microsoft, haben spezielle rote Teams für ihre KI-Modelle.

Künstliche Intelligenz

KI ähnelt stark dem Streaming. Die Add-ons summieren sich schnell
So verwenden Sie ChatGPT für die Recherche nach Aufsätzen, Präsentationen, Studien und mehr
Oh oh, jetzt ist die KI im Prompt-Engineering besser als Sie
Was ist generative KI und warum ist sie so beliebt? Hier finden Sie alles, was Sie wissen müssen
  • KI ähnelt stark dem Streaming. Die Add-ons summieren sich schnell
  • So verwenden Sie ChatGPT für die Recherche nach Aufsätzen, Präsentationen, Studien und mehr
  • Oh oh, jetzt ist die KI im Prompt-Engineering besser als Sie
  • Was ist generative KI und warum ist sie so beliebt? Hier finden Sie alles, was Sie wissen müssen