Der Weg dorthin: Strukturierte Daten, Semantik, Robotik und die Zukunft der KI

  • Sep 04, 2023

Die Nutzung der Datenstruktur ist der Schlüssel zum Fortschritt in der KI, sagt KI-Wunderkind Gary Marcus. Ein zukunftsweisender Blick auf Software 2.0, KI-Chips, Robotik und die Zukunft der KI

Tiefes Lernen ist großartig, aber nein, das wird es nicht können alles tun. Der einzige Weg, Fortschritte in der KI zu erzielen, besteht darin, Bausteine ​​zusammenzusetzen, die bereits vorhanden sind, aber kein aktuelles KI-System kombiniert. Wissen hinzufügen, Vorurteile gegenüber „abbauen“gute alte KI„und die Skalierung sind alles notwendige Schritte auf dem langen und kurvenreichen Weg zum Neustart der KI.

lesen Sie dies

Alles, was Sie über KI wissen müssen

Ein Leitfaden für Führungskräfte zur künstlichen Intelligenz, vom maschinellen Lernen und allgemeiner KI bis hin zu neuronalen Netzen.

Lies jetzt

Dies ist eine Zusammenfassung der These des Wissenschaftlers, Bestsellerautors und Unternehmers Gary Marcus hin zum Neustart der KI. Marcus, ein ausgebildeter Kognitionswissenschaftler, beschäftigt sich mehr oder weniger seit seiner Kindheit interdisziplinär mit der Natur der Intelligenz – ob künstlich oder nicht.

Marcus, in KI-Kreisen unter anderem für seine Kritik an Deep Learning bekannt, veröffentlichte kürzlich einen 60-seitigen Artikel mit dem Titel „Das nächste Jahrzehnt der KI: Vier Schritte zu robuster künstlicher Intelligenz.“ In dieser Arbeit geht Marcus über die Kritik hinaus und unterbreitet konkrete Vorschläge, um die KI voranzubringen.

Als Vorläufer von Marcus' jüngste Keynote zur Zukunft der KI in Wissensverbindungen, ZDNet beschäftigte sich mit ihm über ein breites Themenspektrum. Wir bereiten die Bühne, indem wir bereitstellen Hintergrundinformationen darüber, woher Marcus kommt, und erläuterte die Fusion von Deep Learning und Knowledge Graphen als Beispiel für seinen Ansatz.

Heute schließen wir mit einer Diskussion darüber ab, wie strukturierte und unstrukturierte Daten am besten genutzt werden können, Techniken für die Semantik im großen Maßstab und zukunftsweisende Technologien.

Wissen sammeln: Von Wikipedia zu DBpedia und Wikidata

Marcus räumt ein, dass es echte Probleme zu lösen gibt, um seinen Ansatz zu verfolgen, und zwar viele Es muss viel Aufwand betrieben werden, um die symbolische Suche gut genug einzuschränken, um in Echtzeit für komplexe Arbeiten zu funktionieren Probleme. Aber er sieht den Wissensgraphen von Google zumindest teilweise als Gegenbeispiel zu diesem Einwand.

Wissensgraphen sind ein Rebranding des Semantic-Web-Ansatzes und Technologie-Stacks, der vor 20 Jahren von Sir Tim Berners Lee eingeführt wurde. Marcus betonte Es gibt eine Menge Wissen, das nicht von der KI im Internet erfasst wird, und das Hinzufügen weiterer Semantik und Metadaten unter Verwendung von Standards wie RDF würde helfen.

Ein Paradebeispiel ist Wikipedia. Die Leute können es lesen und dadurch ihr Wissen erweitern. Wikipedia wurde auch von Wissens- und Dateningenieuren ins Visier genommen, um das zu erreichen, was Marcus beschrieben hat. Einer der ersten Wissensgraphen, der erstellt wurde, bevor der Begriff überhaupt geprägt wurde, und auch heute noch einer der größten ist DBpedia.

DBpedia ist einer der größten und ältesten Wissensgraphen überhaupt. Die Befüllung erfolgt durch Extrahieren von Daten aus Wikipedia

Die Leute hinter DBpedia haben ausgefeilte Mechanismen geschaffen, um strukturiertes Wissen aus Wikipedia zu extrahieren. Stellen Sie sich vor, Sie hätten das gesamte Wissen in Wikipedia, könnten es aber wie eine Datenbank abfragen. Marcus stellte fest, dass der Inhalt in Wikipedia-Boxen für aktuelle Techniken am besten zugänglich ist:

Sie sind bereits einigermaßen nützlich für Dinge wie die Begriffsklärung und die bestimmte Verwendung eines Wortes. In Wikipedia gibt es viel Wissen in Form von unstrukturiertem Text, der nicht in diese Felder passt, und wir sind bei weitem nicht in der Lage, das zu nutzen. Wenn Sie also eine historische Beschreibung dessen haben, was jemand während eines bestimmten Krieges getan hat, wird das System dies derzeit wahrscheinlich nicht verstehen können.

Aber man kann gerne nachschlagen, dass der Titel dieser Person Kapitän war. Sie lebten in diesen Jahren. Sie starben in diesem Jahr. Die Namen ihrer Kinder waren dies und das. Bei letzteren handelt es sich also um Daten, die strukturierter sind und mit den aktuellen Techniken leichter genutzt werden können. Und es gibt eine ganze Reihe anderer Daten, die wir nicht verwenden.

Ich freue mich, dass wir damit beginnen, zumindest einen Teil davon zu nutzen. Ich glaube nicht, dass wir es im Prinzip so gut nutzen, wie man es könnte, denn wenn man das nicht versteht Angesichts der konzeptionellen Beziehungen zwischen all diesen Entitäten ist es schwierig, den größtmöglichen Nutzen daraus zu ziehen Es.

Künstliche Intelligenz

  • 7 erweiterte ChatGPT-Tipps zum Schreiben von Eingabeaufforderungen, die Sie kennen müssen
  • Die 10 besten ChatGPT-Plugins des Jahres 2023 (und wie Sie das Beste daraus machen)
  • Ich habe viele KI-Tools für die Arbeit getestet. Das sind bisher meine 5 Favoriten
  • Mensch oder Bot? Dieses Turing-Testspiel stellt Ihre KI-Erkennungsfähigkeiten auf die Probe

Die Leute in DBpedia verstehen das anscheinend. Aus diesem Grund haben sie das geschaffen DBpedia-Ontologie: eine flache, domänenübergreifende Ontologie, die basierend auf den am häufigsten verwendeten Infoboxen in Wikipedia manuell erstellt wurde. Ontologien können im Kontext von Wissensgraphen als das Schema betrachtet werden, das zum Füllen des Wissensgraphen mit Fakten verwendet wird.

Darüber hinaus haben wir auch Wikidata. Wikidata ist in gewisser Weise das Gegenteil von DBpedia: DBpedia erstellt eine strukturierte Version von unstrukturiertem Wissen Wikipedia fungiert Wikidata als zentraler Speicher für die strukturierten Daten seiner Wikimedia-Schwesterprojekte, darunter Wikipedia. Es handelt sich um eine kostenlose und offene Wissensdatenbank, die sowohl von Menschen als auch von Maschinen gelesen und bearbeitet werden kann.

Einbettungen und neuromorphe Chips

Eine weitere Möglichkeit, Semantik und Wissen zu nutzen maschinelles Lernen Was immer beliebter wird, sind Einbettungen. Dies ist eine Möglichkeit, komplexe Strukturen auf einfachere Weise darzustellen, um Berechnungen zu beschleunigen. Da Diagramme zunehmend als reichhaltige Struktur zur Darstellung von Wissen erkannt werden, Diagrammeinbettungen erfreuen sich ebenfalls wachsender Beliebtheit.

Grapheinbettungen sind die Transformation von Graphen in einen Vektor oder eine Menge von Vektoren. Durch die Einbettung sollten die Diagrammtopologie, Kanten-zu-Kante-Beziehungen und andere relevante Informationen zu Diagrammen, Untergraphen und Kanten erfasst werden. Es gibt auch spezielle Techniken, die für Wissensgraphen entwickelt wurden.

Auf die Frage nach Einbettungen antwortete Marcus mit einem Zitat des Computerlinguisten Ray Mooney: „Man kann die Bedeutung eines ganzen $&!#*-Satzes nicht in einen einzigen $!#&*-Vektor packen.“

„Vektoren, zumindest so wie wir sie derzeit verstehen, nehmen oft viele verschiedene Dinge an, messen die Ähnlichkeit darum herum, stellen die Dinge aber nicht wirklich präzise dar.“ Und so sind sie oft eine gemischte Mischung. Man hat etwas daraus, weiß aber nicht genau, was. Und manchmal funktioniert es, aber es ist nicht wirklich zuverlässig. Ich habe noch nie erlebt, dass diese Art von Architektur äußerst zuverlässig ist.“

Einbettung ist eine Methode zur Reduzierung der Datendimensionalität. Manchmal funktioniert es, aber seine Zuverlässigkeit ist laut Gary Marcus nicht besonders groß

Pixabay – Geralt

In seiner Arbeit erwähnte Marcus noch etwas, das unser Interesse geweckt hat. Als jemand, der sich mit der menschlichen Kognition beschäftigt hat, glaubt Marcus nicht, dass der Weg zur künstlichen Intelligenz unbedingt über den Versuch führt, das menschliche Gehirn nachzuahmen. Wir haben uns gefragt, was er davon hält neuromorphe Chips, also KI-Chips, die behaupten, das menschliche Gehirn nachzuahmen:

Wir sollten menschliche Gehirne nicht nachahmen – wir sollten von ihnen oder vom menschlichen Geist lernen. Die besten KI-Systeme verfügen über einige Eigenschaften des menschlichen Geistes und einige Eigenschaften von Maschinen. Sie werden sie auf neue Weise zusammensetzen, die entweder über das hinausgeht, was wir mit aktuellen Maschinen oder mit aktuellen menschlichen Gehirnen erreichen könnten.

Bei neuromorphen Chips geht es darum, von der Funktionsweise des Gehirns zu lernen, um bessere Chips herzustellen. Bisher bin ich grundsätzlich völlig sympathisch. Die Realität ist, dass wir noch nicht genug über Neurowissenschaften wissen, um das wirklich gut funktionieren zu lassen. Und ich mache mir Sorgen um Leute wie Jeff Hawkins die versuchen, sich nur auf die Dinge zu beschränken, die wir bereits über das Gehirn wissen. Ich denke, wir wissen einfach noch nicht genug über das Gehirn, um das wirklich effektiv tun zu können.

Wissen Sie, vielleicht wird uns das in 20 Jahren gelingen. Aber im Moment ist unser Verständnis der Funktionsweise des Gehirns ziemlich begrenzt. Und als Konsequenz denke ich, dass der Bereich der neuromorphen Chips eher vielversprechend als ergebnisreich war. Es gibt noch nicht viele konkrete Anwendungen daraus.

Wir haben möglicherweise einige Gründe zu der Annahme, dass dies uns beispielsweise zu stromsparenderen Alternativen zu den Technologien führen könnte, die wir derzeit verwenden. Bisher habe ich nichts wirklich Nützliches aus dieser Literatur gesehen. Das wird es, aber vielleicht müssen wir etwas mehr über die Funktionsweise des Gehirns wissen, bevor wir das wirklich nutzen können.

Software 2.0, Robotik und robuste KI

Eine weitere zukunftsweisende Idee, diesmal aus der Software, ist die sogenannte Software 2.0. Das traditionelle Der Ansatz für Software besteht darin, Algorithmen zu entwickeln, die die Software sehr detailliert kodieren tut. Die Idee hinter Software 2.0 ist, dass dies bei wirklich komplexen Prozessen sehr schwierig oder sogar unmöglich ist.

Anstatt zu spezifizieren, wie Software funktioniert, besteht der Ansatz von Software 2.0 darin, Daten aus bestehenden Prozessen und maschinellem Lernen zu nutzen, um ein Muster herauszufinden und etwas zu produzieren, das wir verwenden können. Es gibt einige Probleme mit dem Ansatz: Nicht alle Prozesse verfügen über genügend Daten, die wir nutzen können, und der Entwicklungslebenszyklus des maschinellen Lernens ist in Arbeit. Marcus stellt den Ansatz jedoch insgesamt in Frage:

Niemand versucht, einen Webbrowser zu erstellen, indem er überwachtes Lernen anhand einer Reihe von Protokollen darüber durchführt, was Benutzer eingegeben haben und was sie auf ihren Bildschirmen gesehen haben. Genau das wäre der Ansatz des maschinellen Lernens: Anstatt herumzusitzen und mühsam zu programmieren, würden Sie es einfach aus den Daten induzieren. Und das funktioniert nicht wirklich. Niemand versucht überhaupt, das zum Laufen zu bringen.

Es ist schön, dass uns einige neue Techniken zur Verfügung stehen. Aber wenn die Leute denken, dass wir niemanden brauchen, der programmiert, dann ist das auf kurze Sicht ganz sicher nicht der Fall. Ich denke, dass die wirkliche Revolution kommen könnte, aber bis zu dem, was Charles Simoni als absichtliche Programmierung bezeichnete, wird es noch lange dauern.

Anstatt alle gewünschten Codezeilen zu schreiben, lassen Sie die Maschine herausfinden, welche Logik hinter dem steckt, was Sie tun möchten. Vielleicht machen Sie das mit etwas maschinellem Lernen und etwas klassischer logikgesteuerter Programmierung, aber wir sind nicht annähernd dazu in der Lage.

„Roboter sind wirklich interessant, weil sie uns über die Annäherung hinaus zu Systemen zwingen, die wirklich mit der realen Welt zurechtkommen“, sagt Gary Marcus

Getty Images/iStockphoto

Manche Leute mögen es sein Ich versuche, den Software 2.0-Ansatz zum Laufen zu bringen. Was Marcus betrifft, so liegt sein Fokus auf Robust.ai, das von ihm gegründete Unternehmen. Anstatt nur bedient zu werden und am Fließband zu arbeiten, möchte Robust AI Roboter bauen, die in einer Vielzahl von Umgebungen arbeiten – zu Hause, im Einzelhandel, in der Altenpflege, auf dem Bau und so weiter.

Auf die Frage, warum er sich auf Robotik konzentrieren sollte, antwortete Marcus ähnlich wie Yann LeCun von Facebook, einer der lautstärksten Befürworter von Deep Learning. Facebook verstärkt auch die Robotik, und LeCun glaubt, dass uns etwas fehlt, wenn es darum geht, wie Menschen so schnell lernen können. Die besten Ideen kamen bisher aus der Robotik, fügte er hinzu.

Marcus sagte, er sehe die Dinge einigermaßen ähnlich, aber nicht ganz ähnlich. Er findet Roboter wirklich interessant, weil sie uns über die Annäherung hinaus zu Systemen zwingen, die wirklich mit der realen Welt zurechtkommen:

Wenn Sie sich mit Spracherkennung befassen, können Sie das Problem lösen, indem Sie einfach viele Daten sammeln, da sich Wörter von einem Tag auf den anderen nicht so stark ändern. Wenn Sie jedoch einen Roboter bauen möchten, der sagen kann: „Wandern Sie durch die Straßen und räumen Sie sie auf“, muss er mit der Tatsache umgehen können, dass jede Straße jede Stunde und jeden Tag anders sein wird.

Roboter müssen genauso einfallsreich sein wie Menschen, wenn wir sie in der realen Welt einsetzen wollen. Derzeit arbeiten Roboter meist in sehr gut kontrollierten Umgebungen, in denen es entweder keine Menschen gibt oder die Menschen auf einen bestimmten Ort beschränkt sind. Roboter sind derzeit in ihren Möglichkeiten stark eingeschränkt. Und das ermöglicht es uns, der Frage aus dem Weg zu gehen, wie man Roboter herstellt, die wirklich autonom sind und in der Lage sind, Dinge selbstständig zu erledigen.

Dies ist Teil der Definition eines Roboters. Ich denke, das ist ein faszinierendes intellektuelles Problem, das den Bereich der KI erheblich vorantreiben wird, da wir Roboter als Funktion des Geschäfts immer mehr in die reale Welt verlagern. Das wird eine riesige Chance sein – derzeit ist noch nicht so viel von der Welt mit Robotern automatisiert.

Marcus sagte, dass die Robotik derzeit vielleicht eine 50-Milliarden-Dollar-Industrie sei, aber sie könnte noch viel größer sein. Um dorthin zu gelangen, müssen wir Roboter sicher, zuverlässig, vertrauenswürdig und flexibel machen. Robust AI hat gerade 15 Millionen US-Dollar eingesammelt, also sind offenbar Fortschritte im Gange.

Hervorgehoben

Ist Windows 10 zu beliebt für sein eigenes Wohl?
5 Wege, den besten Ort für den Berufseinstieg zu finden
So wird generative KI die Gig Economy zum Besseren verändern
3 Gründe, warum ich dieses 300-Dollar-Android dem Pixel 6a von Google vorziehe
  • Ist Windows 10 zu beliebt für sein eigenes Wohl?
  • 5 Wege, den besten Ort für den Berufseinstieg zu finden
  • So wird generative KI die Gig Economy zum Besseren verändern
  • 3 Gründe, warum ich dieses 300-Dollar-Android dem Pixel 6a von Google vorziehe