Pharma-CEO: Stoppen Sie die KI-Forschung nicht, unsere Arbeit ist zu wichtig

  • Sep 26, 2023

Recursion Pharmaceuticals nutzt maschinelles Lernen, um gemeinsam mit Bayer und Genentech Medikamente zu entwickeln. CEO Chris Gibson ist der Meinung, dass die Fortsetzung dieser Arbeit alle Risiken überwiegt, die ein Moratorium verhindern könnte.

Rekursion
Rekursionspharmazeutika

Wie soll die Gesellschaft mit den Risiken umgehen? künstliche Intelligenz? Es gibt diejenigen, die argumentieren, dass die denkbaren Vorteile die unmittelbare Gefahr überwiegen und dass daher mit Einschränkungen vorsichtig umgegangen werden sollte.

„Ich denke, dass diese weit gefassten, pauschalen Vorschläge, dass wir die Arbeit [an KI] einstellen sollten, etwas fehlgeleitet sind“, sagte Chris Gibson, Mitbegründer und CEO von Recursion Pharmaceuticals, kürzlich in einem Interview mit ZDNET.

„Ich denke, es ist wirklich wichtig, dass die Leute weiterhin die Chancen nutzen, die maschinelles Lernen bietet“, sagte Gibson.

Auch: Laut einem Experten die 5 größten Risiken generativer KI

Gibsons Unternehmen arbeitet mit Big Pharma zusammen Setzen Sie KI in der Arzneimittelforschung ein.

Gibson antwortete darauf ein im März veröffentlichter Brief von Elon Musk, dem KI-Wissenschaftler Yoshua Bengio und zahlreichen anderen, die einen vorübergehenden Stopp der KI-Forschung fordern, um die Gefahren zu untersuchen.

Die Petition forderte eine Pause bei dem, was sie als „außer Kontrolle geratenen Wettlauf“ um die KI-Überlegenheit beschreibt und der zu Systemen führt, die ihre Entwickler nicht „verstehen, vorhersagen oder zuverlässig kontrollieren“ können.

Gibson konzentrierte sich auf seiner Meinung nach unrealistische Bedenken, wie beispielsweise die Möglichkeit, dass Programme für maschinelles Lernen empfindungsfähig werden, ein Szenario, das Wissenschaftler, die sich mit der Angelegenheit befasst haben, in Betracht gezogen haben Betrachten Sie es als ziemlich abgelegen.

„Wir wollen nicht sechs Monate oder ein Jahr pausieren, weil es so viele Möglichkeiten für die Zukunft gibt“, sagt Chris Gibson, Mitbegründer und CEO von Recursion Pharmaceuticals.

Rekursionspharmazeutika

„Die Arbeit, die wir bei Recursion leisten, ist superinteressant und trainiert Modelle mit mehreren Milliarden Parametern, die im Kontext der Biologie wirklich sehr, sehr spannend sind“, sagte Gibson gegenüber ZDNET. „Aber sie sind nicht empfindungsfähig, sie werden auch nicht empfindungsfähig werden, davon sind sie sehr weit entfernt.“

Eines von Gibsons Hauptanliegen besteht darin, die Fähigkeit seiner Firma und anderer zu bewahren, die Arbeit an Themen wie der Arzneimittelentwicklung voranzutreiben. Recursion, das unter anderem mit Bayer und Genentech zusammenarbeitet, verfügt derzeit über fünf Medikamentenkandidaten in der klinischen Phase der Medikamentenentwicklungspipeline. Das Unternehmen hat in Phenomaps, dem Begriff für Datenbanken „abgeleiteter Beziehungen“ zwischen Molekülen, Informationen im Wert von über 13 Petabyte gesammelt.

Auch: „OpenAI ist Produktentwicklung, keine KI-Forschung“, sagt Metas Chef-KI-Wissenschaftler LeCun

„Modelle, die isoliert gehalten werden, um wirklich spezifische Fragen zu beantworten, sind meiner Meinung nach wirklich wichtig für den Fortschritt der Menschheit“, sagte Gibson. „Bei Models wie unserem und anderen Unternehmen wie unserem wollen wir nicht sechs Monate oder ein Jahr pausieren, weil es so viele Möglichkeiten für die Zukunft gibt.“

Gibsons Firma, die börsennotiert ist, im Juli angekündigt dass es eine 50-Millionen-Dollar-Investition von Nvidia erhalten hat, dessen GPU-Chips die KI-Verarbeitung dominieren.

Gibson zeigte sich in seinen Ausführungen maßvoll gegenüber denen, die sich Sorgen um die KI machen oder einen Stopp fordern. „Auf beiden Seiten des Themas gibt es wirklich kluge Leute“, sagte er und verwies darauf, dass es sich um einen Mitbegründer von Recursion handelte hatte sich vor einigen Jahren aus Bedenken hinsichtlich der operativen Leitung des Unternehmens zurückgezogen Ethische Herausforderungen der KI.

Yoshua Bengio, ein Berater von Recursion, ist einer der Unterzeichner des Briefes.

„Yoshua ist brillant, deshalb bringt mich das ein wenig in die Klemme“, sagte Gibson. „Aber ich würde sagen, dass es auf beiden Seiten der Debatte wirklich wichtige Argumente gibt.“

Auch: Das große Rätsel des Körpers und der Krankheit beginnt, der KI zu weichen, sagt der CEO von Recursion

Die unterschiedlichen Standpunkte der Parteien für und gegen ein Moratorium „raten zur Vorsicht“, sagte er, „aber ich Glauben Sie nicht, dass wir das gesamte Training und alle Schlussfolgerungen von ML- und KI-Algorithmen für einen bestimmten Zeitraum unterbrechen sollten Zeit." 

Gibsons Team kontaktierte ZDNET und wies darauf hin, dass Bengio, in seinem Blogbeitrag zum Thema KI-Risikenhat zwischen Bedrohungen und gesellschaftlich nützlichen Anwendungen von KI wie dem Gesundheitswesen unterschieden.

Gibson stimmt mit Kollegen von Bengio überein, wie zum Beispiel dem Chef-KI-Wissenschaftler von Meta Properties, Yann LeCun, der dies getan hat sich dagegen ausgesprochen die Initiative seines Freundes und gelegentlichen Mitarbeiters.

Gibson räumte ein, dass einige Risikovorstellungen, so unwahrscheinlich sie auch sein mögen, sorgfältig geprüft werden müssen. Eines davon sind die Szenarien des Endes der Menschheit, die von Organisationen wie dem skizziert wurden Institut für die Zukunft der Menschheit.

„Es gibt Leute auf dem Gebiet der KI, die denken, wenn man einen ML- oder KI-Algorithmus bittet, eine Art Nutzenfunktion zu maximieren, sagen wir, die Welt so schön und schön zu machen.“ „Wenn es so friedlich wie möglich ist, dann könnte ein KI-Algorithmus, wahrscheinlich nicht ganz falsch, interpretieren, dass der Mensch die Ursache für den Großteil des Mangels an Schönheit und des Mangels an Frieden ist“, sagte Gibson.

Auch: ChatGPT: Was die New York Times und andere darüber furchtbar falsch verstehen

Infolgedessen könnte ein Programm „etwas wirklich Beängstigendes herbeiführen“. Eine solche Aussicht sei „wahrscheinlich weit hergeholt“, sagte er. „Aber die Auswirkungen sind so groß, dass es wichtig ist, darüber nachzudenken; Es ist unwahrscheinlich, dass eines unserer Flugzeuge abstürzt, wenn wir in den Himmel steigen, aber wir achten auf jeden Fall auf die Warnung, weil die Kosten so hoch sind.“

Es gebe auch „einige Dinge, die wirklich offensichtlich sind und auf die wir uns heute alle einigen können“, sagte Gibson, wie zum Beispiel, dass Programme keine Kontrolle über Massenvernichtungswaffen haben dürfen.

„Würde ich dafür plädieren, einem KI- oder ML-Algorithmus Zugriff auf unsere nuklearen Startsysteme zu gewähren? Auf keinen Fall“, sagte er.

Auf einer prosaischeren Ebene glaubt Gibson, dass Probleme der Voreingenommenheit in Algorithmen behandelt werden müssen. „Wir müssen sicherstellen, dass wir bei den Datensätzen wirklich vorsichtig sind und sicherstellen, dass die Nutzenfunktionen, anhand derer wir unsere Algorithmen optimieren, keine Verzerrungen aufweisen.“

Auch: KI könnte in 10 Jahren eine 20-prozentige Chance haben, empfindungsfähig zu sein, sagt der Philosoph David Chalmers

„Die Ergebnisse dieser Algorithmen, die immer mehr Teil unseres Lebens werden, schleichen sich immer mehr voreingenommen ein“, bemerkte Gibson.

Die grundlegendsten Bedenken sollten nach Ansicht von Gibson für alle offensichtlich sein. „Ein gutes Beispiel ist meiner Meinung nach, dass es riskanter ist, einem Algorithmus unkontrollierten Zugriff auf das Internet zu gewähren“, sagte er. „Daher könnte es in naher Zukunft einige Vorschriften geben.“

Sein Standpunkt zur Regulierung sei, sagte er, dass „ein Teil einer gut funktionierenden Gesellschaft darin besteht, all diese Optionen auf den Tisch zu legen und eine wichtige Diskussion darüber zu führen.“ Wir müssen nur aufpassen, dass wir uns nicht mit einer breit angelegten Regulierung überfordern, die ausschließlich auf ML oder KI abzielt.“

Ein dringendes Anliegen für die KI-Ethik ist der aktuelle Trend von Unternehmen wie OpenAI und Google geben immer weniger Einblick in das Innenleben ihrer Programme. Gibson sagte, er sei gegen jede Regelung, die vorschreibe, dass Programme Open Source sein müssten. „Aber“, fügte er hinzu, „ich denke, dass es für die meisten Unternehmen sehr wichtig ist, einen Teil ihrer Arbeit auf verschiedene Weise mit der Gesellschaft zu teilen, um alle weiter voranzubringen.“ 

Auch: Warum Open Source unerlässlich ist, um KI-Ängste zu zerstreuen, so der Gründer von Stability.ai

Recursion habe viele seiner Datensätze als Open Source bereitgestellt, bemerkte er, und „ich würde die Möglichkeit nicht ausschließen, dass wir einige unserer Modelle in Zukunft als Open Source bereitstellen.“

Offensichtlich hängen die großen Fragen der Regulierung und Kontrolle vom Willen der Bürger einer bestimmten Nation ab. Eine zentrale Frage ist, wie die Wählerschaft über KI aufgeklärt werden kann. In dieser Hinsicht war Gibson nicht optimistisch.

Obwohl Bildung wichtig sei, sagte er: „Ich bin allgemein davon überzeugt, dass die Öffentlichkeit heutzutage kein Interesse mehr an Bildung hat.“ 

„Menschen, die an Bildung interessiert sind, neigen dazu, sich auf diese Dinge einzustellen“, sagte er, „und der Rest der Welt tut das nicht, was sehr bedauerlich ist.“

Künstliche Intelligenz

7 erweiterte ChatGPT-Tipps zum Schreiben von Eingabeaufforderungen, die Sie kennen müssen
Die 10 besten ChatGPT-Plugins des Jahres 2023 (und wie Sie das Beste daraus machen)
Ich habe viele KI-Tools für die Arbeit getestet. Das sind bisher meine 5 Favoriten
Mensch oder Bot? Dieses Turing-Testspiel stellt Ihre KI-Erkennungsfähigkeiten auf die Probe
  • 7 erweiterte ChatGPT-Tipps zum Schreiben von Eingabeaufforderungen, die Sie kennen müssen
  • Die 10 besten ChatGPT-Plugins des Jahres 2023 (und wie Sie das Beste daraus machen)
  • Ich habe viele KI-Tools für die Arbeit getestet. Das sind bisher meine 5 Favoriten
  • Mensch oder Bot? Dieses Turing-Testspiel stellt Ihre KI-Erkennungsfähigkeiten auf die Probe