Skynet in Schach halten: Wie Menschen die KI in Schach halten können

  • Sep 04, 2023

SpaceX-Gründer Elon Musk, der Physiker Stephen Hawking und verschiedene KI-Forscher unterstützen einen offenen Brief, in dem sie Gesellschaften auffordern, sich auf die Herausforderungen vorzubereiten, die KI für die Menschheit mit sich bringen wird.

Wissenschaftler und Investoren auf dem Gebiet der künstlichen Intelligenz haben Sicherheitsvorkehrungen festgelegt, die zur Kontrolle von KIs erforderlich sein können, deren Fähigkeiten den Menschen bei weitem übertreffen.

Der offene Brief und die Forschung des Future of Life Institute (FLI) untersuchen mögliche Wege, um zu verhindern, dass diese superintelligenten KIs auf unerwünschte und potenziell destruktive Weise handeln.

In seine Forschung das Institut – zu dessen wissenschaftlichem Beirat der SpaceX- und Tesla-Mitbegründer Elon Musk und der Physiker gehören Stephen Hawking sagt, dass die Wahrscheinlichkeit, dass solche Intelligenzen geschaffen werden, so groß ist, dass die Risiken berücksichtigt werden müssen Jetzt.

„Um eine bescheidene Investition in diese KI-Robustheitsforschung zu rechtfertigen, muss diese Wahrscheinlichkeit nicht hoch, sondern lediglich nicht vernachlässigbar, ebenso bescheiden sein.“ „Eine Investition in eine Hausratversicherung wird durch eine nicht zu vernachlässigende Wahrscheinlichkeit eines Hausabbrandes gerechtfertigt“, heißt es in dem Hinweis darauf, dass man in den 1930er-Jahren eine solche Investition gemacht habe Einer der größten Physiker seiner Zeit, Ernest Rutherford, sagte, die Kernenergie sei „Mondschein“, nur fünf Jahre vor der Entdeckung der Kernenergie Fission.

„Mittlerweile besteht ein breiter Konsens darüber, dass die KI-Forschung stetig voranschreitet und dass ihr Einfluss auf die Gesellschaft wahrscheinlich zunehmen wird“, heißt es unter Berufung auf aktuelle Erkenntnisse Erfolge in KI-bezogenen Bereichen wie Spracherkennung, Bildklassifizierung, autonome Fahrzeuge, maschinelle Übersetzung, Laufroboter und Fragebeantwortung Systeme.

Angesichts dieser Fortschritte stellt das Forschungspapier des FLI Schlüsselbereiche der Forschung dar, die dazu beitragen könnten, sicherzustellen, dass KI, sowohl schwache als auch starke, „robust und nützlich“ für die Gesellschaft ist.

Überprüfung unerwünschten Verhaltens

Das Problem, zu definieren, was eine KI tun sollte und was nicht, kann besonders heikel sein.

Nehmen wir zum Beispiel einen einfachen KI-Agenten, dessen Verhalten durch die Maxime bestimmt wird: „Wenn die Umgebung die Annahmen x erfüllt, dann sollte das Verhalten die Anforderungen y erfüllen.“

lesen Sie dies

Vorhersage des nächsten Jahrzehnts der Technologie: Von der Cloud über verschwindende Computer bis hin zum Aufstieg der Roboter

Lies jetzt

Die richtige Definition des erforderlichen Verhaltens und der Ergebnisse ist von entscheidender Bedeutung, da es bei dem Versuch, die Anforderung zu erfüllen, möglich ist, dass sich der Agent auf unerwünschte Weise verhält.

„Wenn ein Roboterstaubsauger aufgefordert wird, so viel Schmutz wie möglich zu entfernen, und über eine Aktion zum Entleeren des Inhalts seines Schmutzbehälters verfügt, wird er denselben Schmutz wiederholt auswerfen und entfernen.“ Die Anforderung sollte sich nicht auf die Beseitigung von Schmutz konzentrieren, sondern auf die Sauberkeit des Bodens“, heißt es in dem Bericht.

„Um Systeme zu bauen, die sich robust und gut verhalten, müssen wir natürlich entscheiden, was „gutes Verhalten“ in jedem Anwendungsbereich bedeutet. „Die Entwicklung vereinfachter Regeln – zum Beispiel, um die Entscheidungen eines selbstfahrenden Autos in kritischen Situationen zu regeln – wird wahrscheinlich Fachwissen sowohl von Ethikern als auch von Informatikern erfordern“, heißt es in dem Bericht.

Das Sicherstellen eines angemessenen Verhaltens werde mit einer starken, allgemeinen KI noch problematischer, heißt es in dem Papier.

Gesellschaften werden wahrscheinlich vor großen Herausforderungen stehen, wenn es darum geht, die Werte leistungsstarker KI-Systeme mit ihren eigenen Werten und Vorlieben in Einklang zu bringen.

„Man bedenke zum Beispiel die Schwierigkeit, eine Nutzenfunktion zu schaffen, die einen gesamten Rechtsbestand umfasst; Selbst eine wörtliche Wiedergabe des Gesetzes übersteigt bei weitem unsere derzeitigen Möglichkeiten und wäre in der Praxis äußerst unbefriedigend“, heißt es darin.

Ein weiteres Problem besteht darin, Verhaltensweisen in lernenden Maschinen zu verstärken und zu belohnen, um ein bestimmtes Ergebnis zu erzielen. Sobald die Maschine allgemein fähig ist, kann der Wunsch, diese Ziele zu treffen, ihr Verhalten verzerren, z Goodhearts Gesetz erkennt beim Menschen.

Auf Fehler prüfen

So wie die Bordsoftware eines Flugzeugs strengen Prüfungen auf Fehler unterzogen wird, die unerwartetes Verhalten auslösen könnten, sollte auch der Code, der KIs zugrunde liegt, ähnlichen formalen Einschränkungen unterliegen.

Für traditionelle Software gibt es Projekte wie seL4, das einen vollständigen, universell einsetzbaren Betriebssystemkernel entwickelt hat, der mathematisch berechnet wurde anhand einer formalen Spezifikation überprüft, um eine starke Garantie gegen Abstürze und unsichere Situationen zu bieten Operationen.

Im Falle von KI könnten jedoch neue Ansätze zur Verifizierung erforderlich sein, so das FLI.

„Der vielleicht hervorstechendste Unterschied zwischen der Verifizierung traditioneller Software und der Verifizierung von KI-Systemen besteht darin, dass die Korrektheit traditioneller Software definiert wird in Bezug auf ein festes und bekanntes Maschinenmodell, wohingegen KI-Systeme – insbesondere Roboter und andere verkörperte Systeme – in Umgebungen operieren, die dem System bestenfalls teilweise bekannt sind Designer.

„In diesen Fällen kann es praktisch sein, anhand der vorhandenen Kenntnisse zu überprüfen, ob das System korrekt funktioniert, und so das Problem der Modellierung der realen Umgebung zu vermeiden“, heißt es in der Studie.

Das FLI schlägt vor, dass es möglich sein sollte, KI-Systeme aus Komponenten aufzubauen, die jeweils verifiziert wurden.

„Wenn die Theorie der Ausweitung nachweisbarer Eigenschaften von Komponenten auf ganze Systeme gut verstanden wird, dann können das auch sehr große Systeme Genießen Sie bestimmte Arten von Sicherheitsgarantien, die möglicherweise durch Techniken unterstützt werden, die speziell für den Umgang mit Lernagenten und hohem Niveau entwickelt wurden Eigenschaften."

Versucht man jedoch, formale Validierungswerkzeuge auf „Systeme anzuwenden, die sich selbst modifizieren, erweitern oder verbessern, möglicherweise viele Male hintereinander“, sei eine Herausforderung, deren Lösung noch nicht klar sei, heißt es Forschung.

Einschränkung der Fähigkeiten der KI

Da Cyberkriege in Konflikten zwischen Nationen wahrscheinlich eine zunehmende Rolle spielen werden, geht das Papier davon aus, dass KI dabei hilft, Systeme sowohl zu sichern als auch anzugreifen.

„Es ist unklar, ob langfristige Fortschritte in der KI das Gesamtproblem der Sicherheit einfacher oder schwieriger machen werden; Einerseits werden Systeme in Aufbau und Verhalten immer komplexer und KI-basierte Cyberangriffe können äußerst effektiv sein, andererseits wird der Einsatz von „KI- und maschinelle Lerntechniken sowie erhebliche Fortschritte bei der Systemzuverlässigkeit auf niedriger Ebene können dazu führen, dass gehärtete Systeme viel weniger anfällig sind als die heutigen“, heißt es darin.

Aufgrund dieser potenziell entscheidenden Rolle, die künstliche Intelligenz in der Cyberkriegsführung spielen wird, lohnt es sich laut FLI zu untersuchen, wie die Fähigkeiten dieser KI eingedämmt und eingeschränkt werden können.

„Sehr allgemeine und leistungsfähige Systeme werden besondere Sicherheitsprobleme mit sich bringen. Insbesondere wenn die Probleme der Gültigkeit und Kontrolle nicht gelöst sind, kann es sinnvoll sein, „Container“ zu erstellen. für KI-Systeme, die in weniger kontrollierten Umgebungen unerwünschte Verhaltensweisen und Konsequenzen haben könnten“, heißt es Zustände.

Behalten Sie die Kontrolle über die KI

Es ist nicht einfach sicherzustellen, dass Menschen die Kontrolle über eine starke, autonome KI behalten können.

Beispielsweise wird ein System wahrscheinlich sein Bestes tun, um Probleme zu umgehen, die es daran hindern, seine gewünschte Aufgabe zu erfüllen.

„Dies könnte jedoch problematisch werden, wenn wir das System umfunktionieren, deaktivieren oder seinen Entscheidungsprozess erheblich ändern möchten. „Ein solches System würde diese Veränderungen rational vermeiden“, heißt es in der Studie.

Das FLI empfiehlt weitere Untersuchungen korrigierbare Systeme, die dieses Verhalten nicht zeigen.

„Es könnte möglich sein, Versorgungsfunktionen oder Entscheidungsprozesse so zu gestalten, dass ein System nicht versucht, eine Abschaltung oder Umnutzung zu vermeiden“, heißt es in der Studie.

Ein weiteres potenzielles Problem könnte darin bestehen, dass eine KI bei der Verfolgung ihrer Ziele negative Auswirkungen auf ihre Umgebung hat Ziele – was das FLI dazu veranlasst, mehr Forschung zur Festlegung „inländischer“ Ziele vorzuschlagen, die begrenzt sind Umfang.

Darüber hinaus wird empfohlen, mehr Arbeit über die Wahrscheinlichkeit und Art einer „Intelligenz“ zu leisten „Explosion“ unter der KI – wo die Fähigkeiten der sich selbst verbessernden KI weit über die Kontrollfähigkeit des Menschen hinausgehen ihnen.

Die Studie kommt zu einem hoffnungsvollen Ergebnis und geht davon aus, dass KI mit den richtigen Kontrollen und Gegenmaßnahmen Gesellschaften zum Besseren verändern könnte.

„Erfolg bei der Suche nach künstlicher Intelligenz hat das Potenzial, beispiellose Vorteile zu bringen Menschheit, und es lohnt sich daher zu erforschen, wie diese Vorteile maximiert und gleichzeitig Potenziale vermieden werden können Tücken."

Mehr lesen

  • KI kann jetzt Bilder beschreiben: Ein Blick auf die möglichen geschäftlichen Auswirkungen
  • Kann künstliche Intelligenz Ihre Website gestalten? The Grid hofft es
  • Jenseits von Cortana: Was künstliche Intelligenz für die Zukunft von Microsoft bedeutet