Zum Verständnis in künstlicher Intelligenz

Künstliche Intelligenz wird heute durch verschiedene Systeme repräsentiert, aber über Verständnis kann nur in den Dialogsystemen der Künstlichen Intelligenz (KI) gesprochen werden. Das eigentliche Thema des Verstehens in der KI hängt von mehreren Aspekten der Dialoginteraktion eines künstlichen Agenten mit einer Person ab:



  1. Die vom Dialogsystem erzeugten Texte entsprechen dem „gesunden Menschenverstand“.
  2. Die Antworten des Systems stimmen mit dem Kontext des Dialogs und den Erwartungen der Person überein.
  3. Verständnis der Ziele, Absichten der Aussagen einer Person im Dialog.


Das Verständnis der Bedeutung kann nicht vollständig dem Thema des Verstehens des Kontextes des Dialogs zugeordnet werden, da die Bedeutung der Aussage des Gesprächspartners auf unterschiedliche Weise interpretiert werden kann und nicht klar ist, welcher Interpretation der Zustand des Verstehens entsprechen sollte. Können „Fehler“ nach Meinung des Gesprächspartners (der Person) als ein anderes Verständnis der Bedeutung des Ausdrucks durch das System interpretiert werden? In größerem Maße bezieht sich das Verstehen der Bedeutung auf das Verstehen der Absichten und Ziele der Aussage, und dies ist ein separates Thema in der Theorie des Geistes. "Gesunder Menschenverstand" als Kriterium für das Verständnis kann genauer interpretiert werden. Im Allgemeinen ist dies die Entsprechung der Antwort auf das Bild der Welt, die überprüfbar ist. Und heute ist dies das beste Kriterium, um den Kontext des Dialogs durch künstliche Agenten wie Dialogbots zu verstehen. Bisher haben Bots jedoch keinen Erfolg gezeigt.



Analyse von Ansätzen



Die relevante Antwort ist das einfachste Kriterium für den Bot, um den Gesprächspartner (die Person) zu verstehen. Dieses Kriterium ist jedoch leicht zu "fälschen", was die Teilnehmer des Loebner-Preises mehr als einmal demonstriert haben. Dies wird erreicht, indem eine große Anzahl variabler Antwortvorlagen auf die vom neuronalen Netzwerk erkannten "Absichten" gelegt wird. Es ist schwierig, dieses Verständnis zu nennen. Der Erfolg solcher Bots ist aber auch bescheiden - sie erkennen gemischte Absichten äußerst schlecht. Eine Frage außerhalb der Vorlagen und des Systems schlägt fehl. Es ist einfach, dies bei Bots wie Alice von Yandex und Siri von Apple zu überprüfen. Wir können sagen, dass das Wissen der Welt über solche Systeme fragmentarisch ist.



Ein anderer Weg ist die Konstruktion von Ontologien, die alles Wissen über die Welt abdecken, um Antworten auf Fragen zu erhalten. Dies wird durch die Fähigkeit realisiert, eine Frage im Ontologiezweig zu identifizieren und die richtige Antwort basierend auf dem darin eingebetteten Wissen zu erstellen. Ontologien behaupten, das gesamte Bild der Welt mit Ontologie abzudecken. Dieser Ansatz wurde von Projekten wie CYC und ABBYY Compreno verwendet. Nun können wir feststellen, dass diese Methode zur Lösung des Problems des "Verstehens" fehlgeschlagen ist. Jahrzehntelange manuelle Konstruktion solcher Ontologien durch Entwicklungsingenieure erlaubte ihnen nicht, auch nur eine zu bauen, die selbst bei einfachen Kinderfragen nicht scheitern würde. Probleme von Ontologien hängen hauptsächlich mit der metaphorischen Natur von Sprache und Homonymie zusammen, die nicht konsistent in einer baumartigen "logischen" Struktur von Ontologien festgelegt werden kann. Die gleichen Versuche umfassen die FrameNet-Projekte (Fillmore),Bestehend aus der Konstruktion von Szenarien basierend auf einem semantischen Rahmen, um die Fakten der Welt widerzuspiegeln. Aus den gleichen Gründen konnte das Projekt jedoch nicht entwickelt werden.Man kann sagen, dass solche Systeme die Sparsamkeit der Sprache nicht als die Fähigkeit erkennen können, eine große Anzahl von Konzepten durch den Mechanismus der Metapher mit einem begrenzten Vokabular zu beschreiben.



Seit 2010 wird mehr Wert auf neuronale Netze gelegt, aber sie sind insofern begrenzt, als sie nur im Rahmen des im Trainingssatz vorhandenen Weltbildes Annahmen treffen können. Netzwerke wie GPT-3 (Februar 2019) im OpenAI-Projekt, das auf der Transformer-Architektur basiert (ein generatives Netzwerk, das auf Milliarden von Wörtern in Textform trainiert ist), erzeugen grammatikalisch korrekte „menschliche“ Texte, die völlig bedeutungslos sind, was auf ein völliges Missverständnis hinweist. " gesunder Menschenverstand “wie im folgenden Beispiel.



Beispiel:



Sie: Wie viele Augen hat ein Wolf?

GPT-3: Ein Wolf hat vier Augen.

Sie: Warum vier?

GPT-3: Zwei sind zum Sehen im Dunkeln mit.

Sie: Warum zwei?

GPT-3: Der Wolf muss sehen, ob sein Futter fertig ist.

Sie: Und wie viele Augen hat ein Mensch?

GPT-3: Ein Mensch hat zwei Augen und zwei Ohren zum Hören.

Sie: Und wie viele Augen hat ein Grashalm?

GPT-3: Ein Grashalm hat ein Auge und ein Ohr zum Sehen und Hören.

Sie: Warum einer?

GPT-3: Um sicherzustellen, dass es nicht betreten wird.



Wir können sagen, dass solche Systeme zu jeder Frage eine Aussage generieren können, auch wenn sie nicht in Bildungstexten enthalten sind, aber es kann nicht garantiert werden, dass sie Tatsachen des „gesunden Menschenverstandes“ aufbauen, die dem Bild der Welt entsprechen.



Es gibt kombinierte Ansätze wie COMET, gegründet von Yejin Choi (1), bei denen eine "handgeschriebene" Wissensbasis über die Fakten der Atomwelt verwendet wurde, um das vorab trainierte Sprachmodell GPT-2 neu zu trainieren. Infolgedessen begann das Netzwerk, wesentlich plausibelere Fakten zu generieren, die sowohl im Atomic- als auch im GPT-Trainingssatz fehlen. Der Erfolg eines solchen Projekts ist aber auch bisher bescheiden, da es keine garantierte Antwort gibt.



Interessant sind DeepMind-Systeme, die zusätzlich zu einem neuronalen Netzwerk über ein externes Gedächtnis von Fakten (oder Erfahrungen) verfügen, das es ihnen ermöglicht, die "Spielregeln" ohne Lehrer zu lernen, indem sie einfach in der Umgebung aktiv sind und deren Ergebnisse aufzeichnen. Und auf diese Weise zu lernen, auch beim Spielen miteinander, was es möglich machte, menschliche Spieler auch in Spielen wie Go zu schlagen. Dies gilt heute als Mainstream bei Bauagenten, die die Welt des Spiels "verstehen". Die Architektur eines solchen selbstlernenden Systems erlaubt es jedoch nicht, es auf eine komplexere Realität zu skalieren als ein Spiel mit schwarzen und weißen Kieselsteinen oder ein primitives Computerspiel Atari. Die Art des Unterrichts hat eindeutig eine technologische Grenze der Komplexität.Wir können sagen, dass solche Systeme ein "Bild der Welt" schaffen, indem sie kein Wissen verwenden, um neues Wissen aufzubauen, um Systemressourcen zu sparen. Daher benötigen sie zu viele Ressourcen, um auch in armen Umgebungen zu lernen.



Zusammenfassung



Was kann man dann aus pragmatischer Sicht als „Verständnis“ künstlicher Systeme bezeichnen? Die allgemeine Antwort ist, dass der Agent über Kenntnisse verfügen muss. Gleichzeitig ist es, wie die Erfahrung zeigt, unmöglich, umfassendes Wissen aufzubauen. Eine andere Antwort kann die Konsistenz der Systemantworten sein. Aber wie wir sehen können, unterscheiden sich Systeme, die auf großen Texten trainiert sind, nicht in der Logik in den Aussagen, die sie generieren.



Das Verständnis eines KI-Systems bedeutet seine Fähigkeit, plausible Hypothesen über das Bild der Welt aus fragmentarischem Wissen über Fakten aus dieser Welt zu liefern. Und um Geld zu sparen, muss das System in der Lage sein, eine begrenzte Anzahl von Fakten mithilfe einer begrenzten Sprache zu beschreiben, was durch Mechanismen wie Metaphern erreicht wird. Im Moment ist dieser Mechanismus jedoch nicht bekannt genug, um im Programmcode enthalten zu sein. Die verfügbaren Konzepte der Metapher sind nicht algorithmisch spezifisch, wie z. B. konzeptuelle Metapher oder Mischungen. Die Mathematik ist auf sie noch nicht anwendbar, aber die Arbeit des Autors wird in diese Richtung ausgeführt.



Nach Ansicht des Autors ist eine solche Vervollständigung das Hauptkriterium für die Fähigkeit eines künstlichen Systems zu verstehen. Wenn das „Bild der Welt“ zum Beispiel im Schach begrenzt ist, können wir explizit Algorithmen für die Produktion von Wissen, dh mögliche Züge, festlegen, so dass sich das Schach an jeder Anordnung von Stücken orientieren kann, die noch nie zuvor angetroffen wurde. Wie dies in der realen Welt zu tun ist, in der es viele Größenordnungen mehr Regeln gibt, ist noch nicht bekannt, was die Hauptrichtung der Forschung des Autors darstellt.



Bibliographie



1. Der gesunde Menschenverstand rückt näher an Computer heran, Quantamagazin, 30. April 2020



All Articles