Der „innovationsfreundliche“ KI-Regulierungsvorschlag konzentriert sich auf die Unvorhersehbarkeit der Technologie

  • Sep 04, 2023

Das Wesen der KI besteht laut britischem Wissenschaftsbüro darin, dass sie „adaptiv“ und „autonom“ ist.

Konzept eines neuronalen Netzwerks
Getty Images/Weiquan Lin

91-seitiges Whitepaper zur Regulierung künstlicher Intelligenz, herausgegeben am Mittwoch vom britischen Staatssekretär für Wissenschaft, Innovation und Technologie, und Die dem britischen Parlament vorgelegte Studie basiert auf der Vorstellung, dass KI hauptsächlich durch ihre Unsicherheit und Unsicherheit definiert wird Unvorhersehbarkeit.

„Um KI effektiv zu regulieren und die Klarheit unseres vorgeschlagenen Rahmens zu unterstützen, brauchen wir ein gemeinsames Verständnis darüber, was unter ‚künstlicher Intelligenz‘ zu verstehen ist“, heißt es im Weißbuch.

Auch:Technologieführer unterzeichnen Petition zur Eindämmung des KI-Booms

„Es gibt keine allgemeine Definition von KI, die einen breiten Konsens genießt“, und „aus diesem Grund haben wir es.“ definierte KI unter Bezugnahme auf die beiden Merkmale, die die Notwendigkeit einer maßgeschneiderten Regulierung hervorrufen Antwort."

Diese Definition konzentriert sich nur auf einen Bereich der KI, den bislang erfolgreichsten. maschinelles Lernenoder neuronale Netze. Es konzentriert sich auf zwei Merkmale, die beim maschinellen Lernen auftreten, nämlich dass unklar ist, warum die Programme so funktionieren, wie sie es tun, und dass die Programme unerwartete Ergebnisse liefern können.

Der britische Minister für Wissenschaft, Innovation und Technologie hat einen Rahmen für die Regulierung vorgeschlagen KI, die industriefreundlich wäre und gleichzeitig, so heißt es, das Vertrauen der Öffentlichkeit in die Technologie stärken würde.

Staatssekretär für Wissenschaft, Innovation und Technologie

Im Weißbuch heißt es:

  • Die „Anpassungsfähigkeit“ der KI kann es schwierig machen, die Absicht oder Logik der Systemergebnisse zu erklären:
    • KI-Systeme werden – einmalig oder kontinuierlich – „trainiert“ und funktionieren, indem sie Muster und Zusammenhänge in Daten ableiten, die für Menschen oft nicht leicht erkennbar sind.
    • Durch ein solches Training entwickeln KI-Systeme häufig die Fähigkeit, neue Formen der Schlussfolgerung durchzuführen, die sich ihre menschlichen Programmierer nicht direkt vorstellen können.
  • Die „Autonomie“ der KI kann es schwierig machen, Verantwortung für Ergebnisse zuzuweisen:
    • Einige KI-Systeme können Entscheidungen ohne die ausdrückliche Absicht oder ständige Kontrolle eines Menschen treffen.

Das Weißbuch schlägt vor, dass die Regulierungsbehörden aufgrund der Unsicherheit nicht die Technologie selbst regulieren sollten, sondern vielmehr selektiv die Ergebnisse der Nutzung der Technologie regulieren sollten.

„Unser Rahmenwerk ist kontextspezifisch“, heißt es darin. „Wir werden keine Regeln oder Risikostufen ganzen Sektoren oder Technologien zuordnen.“

„Stattdessen werden wir die Regulierung auf der Grundlage der Ergebnisse vornehmen, die die KI in bestimmten Anwendungen voraussichtlich generieren wird.

Auch: GPT-4: Eine neue Fähigkeit, illegale Ratschläge zu erteilen und „riskantes aufkommendes Verhalten“ anzuzeigen

Die Absicht ist, dass unterschiedliche Verwendungen unterschiedliche Folgen und unterschiedliche Schwere haben, macht der Bericht deutlich:

Beispielsweise wäre es weder verhältnismäßig noch effektiv, alle Anwendungen von KI in kritischen Infrastrukturen als risikoreich einzustufen. Einige Anwendungen von KI in kritischen Infrastrukturen, wie die Identifizierung oberflächlicher Kratzer an Maschinen, können ein relativ geringes Risiko darstellen. In ähnlicher Weise wurde ein KI-gestützter Chatbot zur Sortierung von Kundendienstanfragen für einen Online-Bekleidungshändler eingesetzt sollte nicht auf die gleiche Weise reguliert werden wie eine ähnliche Anwendung im Rahmen einer medizinischen Diagnostik Verfahren.

Das Weißbuch mit dem Titel „Ein innovationsfreundlicher Ansatz zur KI-Regulierung“ ist bestrebt, der Industrie zu versichern, dass sie die Entwicklung der Technologie nicht unterdrücken wird. Das Papier betont stets die Notwendigkeit, Großbritannien kommerziell wettbewerbsfähig zu halten, indem man bei der Regulierung keine zu große Hand anlegt und gleichzeitig versucht, das Vertrauen der Öffentlichkeit in die KI zu stärken.

„Die Industrie hat uns gewarnt, dass regulatorische Inkohärenz Innovation und Wettbewerb ersticken könnte, indem sie zu einer... „Es kommt zu einer unverhältnismäßig großen Zahl kleinerer Unternehmen, die den Markt verlassen“, ist eine von vielen Bedenken, die von der zitiert werden Bericht.

Auch:Was ist ChatGPT und warum ist es wichtig? Folgendes müssen Sie wissen:

Im Vorwort von Ministerin Michelle Donlan heißt es: „Dieses Weißbuch wird sicherstellen, dass wir Großbritannien auf den Weg bringen, der beste Ort der Welt zum Bauen, Testen und Bauen zu werden.“ KI-Technologie nutzen.“ In dem Bericht heißt es, dass Großbritannien laut Umfragen „weltweit an dritter Stelle in der KI-Forschung und -Entwicklung“ steht, ein wichtiger Rang, den es zu wahren gilt Donlan.

„Ein zukünftiges KI-fähiges Land ist eines, in dem unsere Arbeitsweisen durch KI ergänzt und nicht gestört werden“, schreibt Donlan unter Berufung auf die KI die Aussicht nicht nur auf medizinische Durchbrüche wie KI-gestützte Diagnosen, sondern auch die Aussicht, dass KI einfache Arbeitsplätze automatisieren kann Aufgaben.

Auch: Das GPT-4-Papier von OpenAI bricht mit der KI-Praxis, die technischen Details eines Programms offenzulegen

Das Papier schlägt vor, die Regulierung zumindest anfangs leicht zu regeln. Regulierungsbehörden müssen in ihren Fachgebieten ermutigt werden, Dinge auszuprobieren und zu sehen, was funktioniert, und nicht mit „gesetzlichen“ Regeln für KI belastet zu werden.

„Die Grundsätze werden auf nicht gesetzlicher Grundlage erlassen und von den bestehenden Regulierungsbehörden umgesetzt“, heißt es darin. „Dieser Ansatz nutzt das domänenspezifische Fachwissen der Regulierungsbehörden, um die Umsetzung der Grundsätze an den spezifischen Kontext anzupassen, in dem KI eingesetzt wird.“

Zu einem späteren Zeitpunkt heißt es in dem Bericht: „Wenn es die parlamentarische Zeit erlaubt, planen wir die Einführung einer gesetzlichen Pflicht für die Regulierungsbehörden, die sie zur gebührenden Rücksichtnahme verpflichtet.“ zu den Grundsätzen“, lässt jedoch die Aussicht offen, dass solche gesetzlichen Regelungen möglicherweise nicht notwendig sind, wenn die Regulierungsbehörden ihre eigenen Regelungen erfolgreich umsetzen Beurteilung.

Das Whitepaper basiert auf anderen Umfragen. Ein direkter Vorläufer ist das Grundsatzpapier veröffentlicht im vergangenen Juli vom Minister für Digitales, Kultur, Medien und Sport mit dem Titel „Etablierung eines innovationsfreundlichen Ansatzes zur Regulierung von KI.“

A Begleitpapier veröffentlicht in diesem Monat von Sir Patrick Vallance, dem leitenden wissenschaftlichen Berater der Regierung, mit dem Titel „Pro-Innovation“. „Regulation of Technologies Review“ gibt mehrere Empfehlungen ab, die in den Bericht des Außenministers aufgenommen werden weißes Papier.

Auch: Der Erfolg von ChatGPT könnte einen schädlichen Trend zur Geheimhaltung in der KI auslösen, sagt KI-Pionier Bengio

Dazu gehört vor allem der Vorschlag einer unternehmensfreundlichen „Sandbox“. Das wäre eine Einrichtung, die KI ausbrüten würde Technologien, die von Regulierungsbehörden überwacht werden und bei denen Unternehmen neue KI-Programme mit lockereren Regeln ausprobieren könnten, um mehr zu ermöglichen Experimentieren.

In dem Papier wird betont, dass es für Großbritannien dringend geboten sei, nicht ins Hintertreffen zu geraten, während andere Länder mit Regulierungsvorschlägen voranschreiten. Es gibt einen „kurzen Zeitrahmen für staatliche Eingriffe, um eine klare, innovationsfreundliche Regulierung zu schaffen“. „Um das Vereinigte Königreich zu einem der besten Standorte der Welt für den Aufbau grundlegender KI-Unternehmen zu machen“, heißt es Zustände.

Auch:Wie (und warum) man ChatGPT Plus abonniert

Viele durch den Einsatz von KI aufgeworfene Bedenken, einschließlich der Ethik des CO2-Fußabdrucks, der durch das Training sogenannter großer Sprachmodelle entsteht, werden in dem Bericht nicht berücksichtigt.

Zum Beispiel, ein offener Brief, der diese Woche veröffentlicht wurde von der Denkfabrik The Future of Life Institute, unterzeichnet von über 1.300 Personen, darunter Wissenschaftlern und Mitgliedern der Technologiebranche, fordert ein Moratorium für die Entwicklung große Sprachmodelle, die davor warnen, dass Gefahren wie „Maschinen überfluten unsere Informationskanäle mit Propaganda und Unwahrheit“ nicht angemessen berücksichtigt werden.

Das britische Papier gibt keine derart umfassenden Empfehlungen, die ihrer Meinung nach außerhalb des Geltungsbereichs der britischen Regulierung liegen:

Der vorgeschlagene Regulierungsrahmen zielt nicht darauf ab, alle größeren gesellschaftlichen und globalen Herausforderungen anzugehen, die mit der Entwicklung oder Nutzung von KI zusammenhängen können. Dazu gehören Fragen im Zusammenhang mit dem Zugriff auf Daten, der Rechenleistung und der Nachhaltigkeit sowie der Abwägung der Rechte von Inhaltsproduzenten und KI-Entwicklern. Dies sind wichtige Fragen, die es zu berücksichtigen gilt – insbesondere im Zusammenhang mit der Fähigkeit des Vereinigten Königreichs, seinen Platz als Land zu behaupten Sie sind weltweit führend in der KI – sie liegen jedoch außerhalb des Rahmens unserer Vorschläge für einen neuen übergreifenden Rahmen für KI Verordnung.

Siehe auch

So verwenden Sie ChatGPT zum Schreiben von Excel-Formeln
So verwenden Sie ChatGPT zum Schreiben von Code
ChatGPT vs. Bing Chat: Welchen KI-Chatbot sollten Sie verwenden?
So verwenden Sie ChatGPT zum Erstellen Ihres Lebenslaufs
Wie funktioniert ChatGPT?
So beginnen Sie mit der Verwendung von ChatGPT
  • So verwenden Sie ChatGPT zum Schreiben von Excel-Formeln
  • So verwenden Sie ChatGPT zum Schreiben von Code
  • ChatGPT vs. Bing Chat: Welchen KI-Chatbot sollten Sie verwenden?
  • So verwenden Sie ChatGPT zum Erstellen Ihres Lebenslaufs
  • Wie funktioniert ChatGPT?
  • So beginnen Sie mit der Verwendung von ChatGPT