Dies ist eine Nachfrage, in der ich versucht habe, die Hauptprobleme neuronaler Netze zu formulieren, deren Lösung einen Durchbruch in der KI-Technologie bewirken kann. Grundsätzlich handelt es sich um Netzwerke, die mit Text arbeiten (GPT, BERT, ELMO usw.). Wie Sie wissen, ist eine gute Formulierung eines Problems die Hälfte seiner Lösung. Aber ich selbst kann diese Lösungen nicht finden. Ich hoffe auf die „Hilfe des Publikums“, da es hier viele Menschen gibt, die vor den gleichen Problemen stehen und möglicherweise ihre Lösung „sehen“.
Damit.
1. Das scheinbar einfachste, aber das neuronale Netzwerk berücksichtigt keine Fakten. Das neuronale Netzwerk lernt aus bestimmten Fakten, scheint aber nichts davon zu wissen. In der kognitiven Sprache hat NN grob gesagt ein semantisches, kein episodisches Gedächtnis.
Die Lösung mag einfach sein, aber ein neuronales Netzwerk ist ein Klassifikator, und Präzedenzfälle können keine Klassen sein, ein Widerspruch. Und oft wird nur eine solche Antwort von Bots benötigt, sie arbeiten sehr schlecht mit Fakten, wenn wir nicht über die "Antwort" -Vorlage sprechen. Das Problem wird durch die Tatsache verschärft, dass es immer Ausnahmen gibt, die das Netzwerk nicht berücksichtigen kann, wenn es nicht genügend Ausnahmebeispiele hat. Und wenn es genügend Beispiele gibt, ist dies keine Ausnahme. Im Allgemeinen kann NN sagen, dass dies ein Hut ist, aber er kann nicht sagen, welcher Hut mir gehört (es gab nur ein Beispiel).
2. "Gesunder Menschenverstand". Ein bekanntes Problem, auch "KI Dunkle Materie" genannt. In diesem Artikel gibt es beispielsweise interessante Lösungsansätze, der einen Versuch beschreibt, symbolische (logische) KI- und neuronale Netzwerkansätze zu kombinieren. Aber dies ist ein Versuch, zurück zu gehen, anstatt vorwärts zu gehen. Das Problem ist, dass "gesunder Menschenverstand" implizites Wissen über die Welt ist, das nicht im Trainingsdatensatz enthalten war. Niemand spricht solche Plattitüden aus, sie werden mit 4-6 Jahren erkannt, wenn sie noch nicht schreiben können. Die lauten Misserfolge der Projekte Kompreno und Cyc zeigen, dass es unmöglich ist, alle Fakten klar zu beschreiben. Sie werden irgendwie im laufenden Betrieb angezeigt. Es gibt noch keine guten Lösungsideen, außer der Einschränkung des Wortschatzes. Zum Beispiel sollte ein „Schüler“ solche „Filter“ auf das Vokabular der Antwort „lenken“, damit die ausgewählten Optionen nicht die Wörter „Armee“ oder „Ehe“ enthalten, wenn es um sich selbst geht und nicht um die Anwesenheit seines älteren Bruders bei der Hochzeit. Wie das in NN geht, ist (für mich) nicht klar.
3.Ein ebenso wichtiges Problem, das möglicherweise mit dem vorherigen zusammenhängt, ist das Problem der Argumentationskonstruktion. Neuronale Netze wissen nicht, wie man Syllogismen macht, dh die einfachsten Schlussfolgerungen mit konsistenter Argumentation (Zwischenschlussfolgerungen). Das gleiche Problem ist andererseits die Unfähigkeit, das Ziel des Denkens zu verfolgen oder zumindest an einer bestimmten Bedeutung festzuhalten. GPT kann Nachrichtentext zu einem bestimmten Thema erstellen, aber es ist sinnlos zu sagen: "Schreiben Sie Nachrichten, um X zu verunglimpfen". Im besten Fall wird sie über die Verunglimpfung anderer schreiben, und zwar in expliziter Form und nicht wie wir Menschen zwischen den Zeilen. Die Schlussfolgerung des Syllogismus ist ebenfalls ein Ziel - es ist notwendig, die Prämissen mit der Schlussfolgerung zu korrelieren. Denken Sie bei der ersten Äußerung (Prämisse) daran. Es ist nicht einmal klar, "von welcher Seite" dies in das Netzwerk gestellt werden soll. Vielleicht weiß es jemand?
4.Und noch ein Problem, das nicht einmal dunkle Materie ist, sondern ein KI-Schwarzes Loch. Dies sind Analogien und Metaphern. KI versteht alles nur wörtlich. Es ist sinnlos für sie, "wie X" zu sagen. Das Netzwerk kann die Beschreibung ergänzen, das Analog jedoch nicht beschreiben. Vielleicht ist es nur ein Problem mit dem entsprechenden Datensatz. Aber es scheint mir, dass es tiefer ist und den "Fehler" der aktuellen KI-Architekturen zeigt, wie Punkt 3. Unsere Sprache ist völlig metaphorisch, daher wächst der "Fluch der Linguisten" - Homonymie - von hier aus. Dieselben Lexeme werden durch Metaphern in einer Reihe verschiedener "Konzepte" verwendet. Und wir können leicht darin navigieren. Dies wird teilweise in der Aufgabe gelöst, Absichten zu definieren, aber dies ist wiederum die Definition des "Themas" und nicht des gesamten Konzepts, das nicht nur aus dem Namen der Absicht und den zugehörigen Antwortvorlagen besteht, wie in Bots.
Im Moment reichen diese vier für die Diskussion aus, obwohl es zum Beispiel spezifischere, aber nicht weniger wichtige Probleme beim Erstellen von Bots gibt. Es reicht aus, mit Alice zu plaudern und sie werden intuitiv offensichtlich. Aber mit ihrem Wortlaut ist nicht alles so einfach - zu erraten, was das Problem ist, zu erraten und wie es zu lösen ist. Das ist schwieriger. Vielen Dank für die konstruktiven Kommentare zum Thema.