
Die Projekte der Künstlichen Allgemeinen Intelligenz (Artificial General Intelligence, AGI ) , über die wir heute sprechen werden, gelten als weniger ehrgeizig als jede starke KI. Einige Wissenschaftler argumentieren jedoch, dass Computer niemals in der Lage sein werden, die Fähigkeiten der menschlichen Intelligenz zu erfassen.
Sowohl Befürworter als auch Gegner der Idee von Computern, die in der Lage sind, jedes intellektuelle Problem einer Person zu lösen, gibt es viele Argumente zur Verteidigung ihrer Position. Wir werden herausfinden, welche Argumente jede Seite vorbringt, und versuchen herauszufinden, ob AGI jetzt und in Zukunft eine Chance hat.
Dieser Artikel basiert auf einer kürzlich erschienenen Veröffentlichung von Professor Ragnar Fjelland, Warum Allzweck-KI nicht erstellt wird, aber wir werden mehr als nur die Nachteile betrachten.
Stilles Wissen
Da die menschliche Intelligenz allgemein ist (dh fast jedes intellektuelle Problem lösen kann), wird die humanoide KI häufig als allgemeine künstliche Intelligenz (AGI) bezeichnet. Trotz der Tatsache, dass AGI eine wichtige Eigenschaft der menschlichen Intelligenz besitzt, kann es immer noch als schwache KI angesehen werden. Es unterscheidet sich jedoch von der traditionellen schwachen KI, die auf bestimmte Aufgaben oder Bereiche beschränkt ist. Daher wird die traditionelle schwache KI manchmal als künstliche enge Intelligenz (Artificial Narrow Intelligence, ANI) bezeichnet.
Die Fähigkeit, Algorithmen mit enormer Geschwindigkeit zu verwenden, ist ein Markenzeichen von ANI, bringt sie jedoch der natürlichen Intelligenz nicht näher. Der Mathematiker und Physiker Roger Penrose in seinem berühmten Buch The New Mind of the King. Über Computer, Denken und die Gesetze der Physik “, veröffentlicht 1989, schlug vor, dass menschliches Denken größtenteils nicht algorithmisch ist und daher nicht mit einem herkömmlichen Computer wie einer Turing-Maschine modelliert werden kann.
Dreißig Jahre vor Penrose äußerte der Philosoph Hubert Dreyfuss in seiner Arbeit " Alchemie und künstliche Intelligenz " ähnliche Gedanken . Er schrieb auch das Buch What Computers Can't Do , in dem er argumentierte, dass menschliches Wissen meist implizit (nonverbal) ist und nicht in einem Computerprogramm formuliert werden kann.
Der Physiker, Chemiker und Philosoph Michael Polani formulierte 1958 erstmals das Konzept des "persönlichen (oder impliziten, stillschweigenden) Wissens". Das meiste Wissen, das wir in unserem täglichen Leben verwenden, ist stillschweigend - wir wissen nicht, welche Regeln wir anwenden, wenn wir eine Aufgabe erledigen. Als Beispiel führte Polanyi das Schwimmen und Radfahren an, wenn alle Bewegungen automatisch ausgeführt werden.
Das Problem ist, dass ein Großteil des Fachwissens stillschweigend bleibt. Zum Beispiel sind viele von uns Experten im Gehen, aber wenn wir versuchen, genau zu formulieren, wie wir gehen, werden wir eine äußerst vage Beschreibung des tatsächlichen Prozesses geben.
KI-Meilensteine

In den 1980er Jahren verloren die Argumente von Polanyi, Dreyfus und Penrose an Stärke - dank der Entdeckung neuronaler Netze, die ohne explizite externe Anweisungen selbstständig lernen konnten.
Obwohl Großprojekte (zum Beispiel Japans " Computer der fünften Generation ", der 1982 begann und die Schaffung von KI mit massiv paralleler Logikprogrammierung versprach) gescheitert sind , werden historisch nur Erfolge in Erinnerung gerufen. Bemerkenswertester KI-Fortschritt gegen Ende des 20. Jahrhunderts von IBM-Spezialisten demonstriert. 1997 besiegte Deep Blue in einer Reihe von Spielen den Schachweltmeister Garry Kasparov.
Der IBM Supercomputer wurde entwickelt, um ein bestimmtes Problem auf einem Schachbrett zu lösen, und nicht jeder sah darin einen KI-Erfolg. Im Jahr 2011 gewann IBM Watson jedoch Menschen in der Jeopardy! (In Russland ist die Show als "Own Game" bekannt). Vor dem Hintergrund von Deep Blue war Watson ein kolossaler Fortschritt - das System verstand Fragen in natürlicher Sprache und fand Antworten in verschiedenen Wissensbereichen.
Es schien, dass sehr bald eine neue Ära der Expertensysteme beginnen würde. IBM plante, die Leistung des Computers in der Medizin zu nutzen. Die Idee war an der Oberfläche: Wenn Watson Zugang zu sämtlicher medizinischer Literatur hätte, könnte er eine bessere Diagnose und Behandlung bieten als jeder Arzt. In den folgenden Jahren war IBM an mehreren medizinischen Projekten beteiligt, erzielte jedoch bescheidene Erfolge . Heute die Bemühungen des Unternehmenskonzentrierte sich auf die Entwicklung von KI-Assistenten, die Routineaufgaben ausführen.
Natürlich kann man nicht versäumen, über die Hauptleistung der heutigen KI-Entwickler zu sprechen - das AlphaGo-System, mit dem die endgültige Auflösung der Argumente gegen AGI verbunden ist. AlphaGo hat gezeigt, dass Computer implizites Wissen verarbeiten können. Der Ansatz von DeepMind wurde erfolgreich in Atari Breakout, Space Invaders und StarCraft angewendet. Es stellt sich jedoch heraus, dass das System nicht flexibel genug ist und sich nicht an Änderungen in der realen Umgebung anpassen kann. Da in einer sich ständig verändernden Welt Probleme auftreten, hat das tiefgreifende Lernen der Verstärkung bisher nur wenige kommerzielle Anwendungen gefunden.
Ursache und Untersuchung

In den letzten Jahren haben KI-Befürworter ein leistungsfähiges neues Werkzeug erhalten - die Anwendung mathematischer Methoden auf große Datenmengen, um Korrelationen zu finden und Wahrscheinlichkeiten zu bestimmen. Während Big Data nicht den Ehrgeiz widerspiegelt, eine starke KI zu schaffen, argumentieren Befürworter, dass dies unnötig ist. In dem Buch Viktor Mayer-Schoenberger und Kenneth Kuke "Big Data: Eine Revolution, die unser Leben, Arbeiten und Denken verändern wird" heißt es, dass wir möglicherweise keine Computer für die menschliche Intelligenz entwickeln müssen - im Gegenteil, wir können unser Denken ändern wie Computer werden.
In Big Data arbeiten wir mit Korrelationen, aber wir verstehen nicht immer, wo die Ursache liegt und wo die Wirkung liegt. In dem BuchPearl und Mackenzie Warum? Eine neue Wissenschaft der Kausalität “Die Autoren sagen, dass ein Computer in der Lage sein muss, mit der Kausalität umzugehen, um eine echte KI zu schaffen. Können Maschinen kausale Zusammenhänge so darstellen, dass sie schnell die benötigten Informationen erhalten, Fragen richtig beantworten und dies mit der Leichtigkeit tun können, die selbst ein Dreijähriger hat?

Sogar neuronale Netze haben hier einige Mängel. Wir wissen nicht wirklich, warum das System diese oder jene Entscheidung trifft. Vor einigen Jahren entwickelte ein Team an der University of Washington ein Programm, das die Unterscheidung zwischen Husky und Wolf trainierte. Die Aufgabe ist ziemlich schwierig, da die Tiere, wie Sie in der Abbildung sehen können, einander ähnlich sind. Trotz der Komplexität arbeitete das System mit einer Genauigkeit von 90%. Nach der Analyse der Ergebnisse stellte das Team fest, dass das neuronale Netzwerk nur deshalb so gut funktionierte, weil die Bilder mit den Wölfen größtenteils Schnee waren.
Was, wenn…
Der Historiker Yuval Harari behauptet, dass vor 70.000 bis 30.000 Jahren eine kognitive Revolution in der Welt stattgefunden habe, deren Kennzeichen die Fähigkeit war, sich etwas vorzustellen, das es nicht gibt. Als Beispiel führte er die älteste bekannte Elfenbeinfigur "männlicher Löwe" (oder "weibliche Löwin") an, die in der Stadel-Höhle in Deutschland gefunden wurde. Die Figur hat einen menschlichen Körper und einen Löwenkopf.
Pearl und McKenzie beziehen sich auf Harari und fügen hinzu, dass die Erschaffung des Löwenmenschen der Vorläufer der Philosophie, der wissenschaftlichen Entdeckung und der technologischen Innovation ist. Die Hauptvoraussetzung für diese Kreation war die Fähigkeit, Fragen im Format „Was passiert, wenn ich ...?“ Zu stellen und zu beantworten.
Computer mit kausalen Zusammenhängen sind jedoch nicht gut. Genau wie vor 30 Jahren arbeiten maschinelle Lernprogramme, einschließlich Programme mit tiefen neuronalen Netzen, fast ausschließlich im assoziativen Modus. Das reicht aber nicht. Um kausale Fragen zu beantworten, müssen wir in der Lage sein, in die Welt einzugreifen.
Laut Ragnar Fjelland liegt die Wurzel des Problems darin, dass Computer kein Modell der Realität haben, die Realität um sie herum nicht ändern können und in keiner Weise mit ihr interagieren.
Terminologische Sackgasse
Nicht das offensichtlichste Problem ist, dass wir nach Ansicht einiger Experten in einem bestimmten Bereich nicht erfolgreich sein können, ohne die "Spielregeln" zu verstehen. Selbst mit der Terminologie gibt es immer noch Schwierigkeiten, und wir wissen nicht genau, was wir künstliche Intelligenz nennen sollen. Darüber hinaus ist das Verständnis der natürlichen Intelligenz alles andere als ideal - wir wissen einfach nicht genau, wie das Gehirn funktioniert.
Betrachten Sie zum Beispiel den Thalamus, der für die Übertragung sensorischer und motorischer Informationen verantwortlich ist. Dieser Teil des Gehirns wurde erstmals vom antiken römischen Arzt Galen beschrieben. 2018 wurde ein Atlas des Thalamus erstellt : Basierend auf der Histologie wurden 26 Thalamuskerne isoliert , die dann im MRT identifiziert wurden. Dies ist eine großartige wissenschaftliche Leistung, aber Wissenschaftler gehen davon aus, dass der Thalamus mehr als 80 Kerne enthält (die genaue Anzahlnoch nicht installiert ). François Schollet (KI-Forscher bei Google, Schöpfer der Keras-Deep-Learning-Bibliothek und Mitentwickler des TensorFlow-Frameworks für maschinelles Lernen) weist
in On the Measure of Intelligence darauf hin, dass vor dem globalen Konsens über „Was ist Intelligenz“ versucht wird, verschiedene intelligente Systeme mit menschlicher Intelligenz zu vergleichen zum Scheitern verurteilt.
Ohne klare Metriken ist es unmöglich, Erfolge aufzuzeichnen und folglich genau zu bestimmen, wohin bei der Entwicklung künstlicher Intelligenzsysteme zu gehen ist. Selbst der berüchtigte Turing-Test kann kein Lebensretter werden - wir kennen dieses Problem aus dem Gedankenexperiment mit dem "chinesischen Raum".
Präsenz als Zeichen der Intelligenz
Die meisten Befürworter von AGI (und starker KI) folgen heute den Argumenten von Yuval Harari. In 21 Lektionen für das 21. Jahrhundert bezieht er sich auf Neurowissenschaften und Verhaltensökonomie, die angeblich gezeigt haben, dass unsere Entscheidungen nicht das Ergebnis eines "mysteriösen freien Willens" sind, sondern "der Arbeit von Milliarden von Neuronen im Gehirn, die alle möglichen Wahrscheinlichkeiten berechnen. bevor Sie eine Entscheidung treffen. "
Daher kann KI viele Dinge besser als Menschen. Als Beispiel nennt der Autor das Autofahren auf einer Straße voller Fußgänger, das Ausleihen an Fremde und das Aushandeln von Handelsabkommen - all dies erfordert die Fähigkeit, "die Emotionen und Wünsche anderer richtig einzuschätzen". Das Grundprinzip lautet: "Wenn diese Emotionen und Wünsche wirklich nichts anderes als biochemische Algorithmen sind, gibt es keinen Grund, warum Computer diese Algorithmen nicht entschlüsseln können - und sie können so viel besser als jeder Homo sapiens."
Dieses Zitat spiegelt Francis Cricks Gedanken in The Amazing Hypothesis wider":" Die erstaunliche Hypothese ist, dass "Sie", Ihre Freuden und Sorgen, Ihre Erinnerungen und Ihre Ambitionen, Ihr Sinn für persönliche Identität und Ihr freier Wille eigentlich nichts anderes sind als das Verhalten einer riesigen Ansammlung von Nervenzellen und der damit verbundenen sie Moleküle. "
Es gibt auch eine alternative Meinung: Selbst die abstraktesten Theorien basieren auf unserer Alltagswelt. Der Philosoph, Begründer der Phänomenologie Edmund Husserl erwähnt Einsteins Relativitätstheorie und behauptet, dass dies von den "Michelson-Experimenten" und ihrer Bestätigung durch andere Forscher abhängt. Um diese Art von Experiment durchführen zu können, müssen Wissenschaftler in der Lage sein, sich zu bewegen, mit Instrumenten umzugehen und mit Kollegen zu kommunizieren.
Wie Hubert Dreyfuss feststellte, sind wir körperliche und soziale Wesen, die in der materiellen und sozialen Welt leben. Um eine andere Person zu verstehen, müssen Sie nicht die Chemie ihres Gehirns studieren, sondern müssen sich in der „Haut“ dieser Person befinden, um ihre Lebenswelt zu verstehen.
Um Dreyfus 'Aussagen zu veranschaulichen, schlug der Schriftsteller Theodore Rozzak vorein Gedankenexperiment durchführen. Stellen Sie sich vor, Sie sehen einem Psychiater bei der Arbeit zu. Er ist ein hart arbeitender, erfahrener Mensch und hat offensichtlich sehr gute Praxis. Der Warteraum ist voll von Patienten mit verschiedenen emotionalen und psychischen Störungen: Jemand steht kurz vor der Hysterie, jemand wird von Selbstmordgedanken gequält, andere leiden unter Halluzinationen, einige Patienten werden von den schwersten Albträumen gequält, und einige treiben sich mit dem Gedanken an was zum Wahnsinn Sie werden von Menschen beobachtet, die sie verletzen werden. Der Psychiater hört jedem von ihnen aufmerksam zu und tut sein Bestes, um zu helfen, aber ohne großen Erfolg. Im Gegenteil, es scheint, dass sich der Zustand der Patienten trotz der heldenhaften Bemühungen des Psychiaters nur verschlechtert.
Jetzt bittet uns Rozzak, die Situation in einen breiteren Kontext zu stellen. Das Büro des Psychiaters befindet sich in einem Gebäude in Buchenwald, in dem die Patienten KZ-Häftlinge sind. Biochemische Algorithmen helfen uns nicht, Patienten zu verstehen. Was wirklich benötigt wird, ist die Kenntnis des breiteren Kontextes. Ein Beispiel macht einfach keinen Sinn, wenn wir nicht wissen, dass sich das Büro des Psychiaters in einem Konzentrationslager befindet. Nur wenige können sich in die Lage eines Gefangenen im nationalsozialistischen Deutschland versetzen. Wir sind nicht in der Lage, Menschen in Situationen, die sich stark von unserer eigenen Erfahrung unterscheiden, vollständig zu verstehen. Aber wir können immer noch etwas verstehen, da wir mit anderen Menschen in derselben Welt existieren.
Computer wiederum existieren in ihrer eigenen Maschinenwelt, was zumindest teilweise die Probleme erklärt, die IBM Watson Health und Alphabet DeepMind daran hindern, Probleme in der realen Welt zu lösen. IBM sieht sich mit einem grundlegenden Missverhältnis zwischen der Art und Weise, wie Maschinen lernen, und der Arbeitsweise von Ärzten konfrontiert . DeepMind stellte fest, dass die Lösung der Probleme von Go die Beantwortung von Fragen im Zusammenhang mit der Suche nach einem Heilmittel für Krebs nicht näher brachte .
Fazit: Computer gehen in die Welt hinaus

Nicht nur Kritiker von AGI kennen die Probleme. Forscher auf der ganzen Welt suchen nach neuen Ansätzen, und es gibt bereits einige Erfolge bei der Überwindung von Hindernissen.
Trotz der Tatsache , dass auch ein Hund ist intelligenter als IBM Watson , nach zu AI Theoretiker Roger Shank, die Zukunft der Medizin gehört zweifellos zu Computersystemen. Das im Juni 2020 veröffentlichte Papier zeigt den enormen Erfolg von Pharnext: Tatsächlich hat ihre KI eine einfache und erschwingliche Lösung für die Probleme der genetischen Charcot-Marie-Tooth-Krankheit gefunden.
AI hat einen erstaunlichen Cocktail aus drei zugelassenen Medikamenten zusammengestellt, um die erbliche motorische sensorische Neuropathie zu lindern. Wenn wir ein neues "Medikament" in Betracht ziehen, ist Verwirrung garantiert: Die erste Komponente ist ein Medikament zur Behandlung von Alkoholismus, die zweite wirkt auf Opioidrezeptoren und wird zur Bekämpfung von Alkohol- und Opioidabhängigkeit eingesetzt, die dritte ist im Allgemeinen ein Zuckerersatz.
Nachdem die KI Millionen von Optionen durchlaufen hatte, entschied sie sich für eine solche Kombination. Und es hat funktioniert: Experimente an Mäusen und Menschen haben verstärkte Verbindungen zwischen Nerven und Muskeln gezeigt. Es ist wichtig, dass sich der Gesundheitszustand der Patienten verbessert und die Nebenwirkungen unbedeutend sind.
Sprechen über das Problem der Präsenz in der Welt, ist es erwähnenswert , dieKürzlich an der Technischen Universität München eine ehrgeizige Studie: Einem Roboter auf einer vernetzten Ebene wurde beigebracht, die reale Welt wahrzunehmen und darin zu handeln. Die Studie ist Teil eines europäischen Großprojekts SELFCEPTION , das Robotik und kognitive Psychologie kombiniert, um anspruchsvollere Maschinen zu entwickeln.
Die Forscher beschlossen, Robotern und künstlichen Wirkstoffen im Allgemeinen die Möglichkeit zu geben, ihren Körper so wahrzunehmen, wie es Menschen tun. Das Hauptziel war es, die Fähigkeit zur Interaktion angesichts von Unsicherheit zu verbessern. Sie stützten sich auf die Theorie des aktiven Outputs des Neurobiologen Karl Friston, der letztes Jahr mit Vorträgen nach Russland kam (für Interessenten empfehlen wir einen Blick auf Russisch oderEnglisch ).
Nach der Theorie macht das Gehirn ständig Vorhersagen, vergleicht sie mit den Informationen, die von den Sinnen kommen, nimmt Anpassungen vor und startet den Zyklus neu. Wenn beispielsweise eine Person auf dem Weg zu einer Rolltreppe plötzlich einen Stau auf dem Weg findet, passt sie ihre Bewegungen entsprechend an.
Ein Algorithmus, der auf Fristons Prinzip der freien Energie basiert (eine mathematische Formalisierung einer der prädiktiven Gehirntheorien), repräsentiert Wahrnehmung und Aktion, die auf ein gemeinsames Ziel hinarbeiten, nämlich die Reduzierung von Vorhersagefehlern. Bei diesem Ansatz stimmen die sensorischen Daten zum ersten Mal für Maschinen besser mit der Vorhersage des internen Modells überein.
Langfristig wird diese Forschung dazu beitragen, eine AGI mit menschlicher Anpassungsfähigkeit und Interaktion zu entwickeln. Mit diesem Ansatz ist die Zukunft der künstlichen Intelligenz verbunden: Wenn wir KI von beengten Servern in die reale Welt entlassen, können wir vielleicht eines Tages die Selbstfindung in Maschinen aktivieren.