Wie ich, ein KI-Spezialist, KI-Text gekauft habe

Heute gehe ich nach Habr und blättere unter einer Tasse Tee im Artikel " GPT-3 von OpenAI kann das Beste seit den Tagen von Bitcoin werden ."



Wenn Sie es nicht gelesen haben, lesen Sie es. Das Ende ruft wirklich starke Emotionen hervor. Für mich waren sie erschwert durch die Tatsache, dass ich mich relativ professionell mit KI, Texterzeugung und dem Problem der Bedeutungen beschäftige - also glaubte ich vernünftigerweise, dass ich von einer Maschine erzeugten Text leicht erkennen konnte ...



Ja, ja, ich habe es gekauft. Der Text des Artikels "GPT-3 von OpenAI könnte das Beste seit Bitcoin sein" wurde (möglicherweise) von AI erstellt, aber ich habe ihn nicht gesehen, obwohl ich ihn im Allgemeinen professionell mache und die grundlegenden Techniken kenne, die in der Maschine verwendet werden Text generieren.



Nachdem mein erster leichter Schock geschlafen hat, möchte ich eine Reihe von Überlegungen teilen.



Dies ist kein Maschinentext, sondern von Menschen verarbeiteter Text



Vielleicht war die erste Reaktion auf den Text die Ablehnung, die Unwilligkeit zu akzeptieren, dass dieser Text von einer Maschine erstellt wurde. Mein Gehirn begann in rasendem Tempo, ein geeignetes Argument dafür zu finden. Generell halte ich sie selbst für eher schwach, möchte sie aber trotzdem zitieren:



  • Es ist nicht bekannt, wie viele Prozent des Textes und wie der Autor ihn bearbeitet hat . Es gibt Beispiele für Text, der von einer Maschine erstellt, aber von einer Person korrigiert wurde - zum Beispiel gab es einmal eine Geschichte über ein von AI erstelltes Film- / Buchskript. Die Subtilität lag immer im Detail - wenn Sie die Rezension lesen, wurde immer etwas im Geiste gesagt, dass die KI den Anfang der Geschichte gemacht hat, und dann hat eine Gruppe von Autoren sie fertiggestellt . Ich habe die Qualität des Ergebnisses immer der Tatsache zugeschrieben, dass die Autoren bei der Finalisierung einfach einen eigenen Sinn eingebracht haben, da man in abstrakten Gemälden mit einem starken Wunsch etwas finden kann . Vielleicht funktioniert dieses Argument hier nicht, da er nach den Zusicherungen des Autors nur die Formatierung des Textes korrigiert hat.
  • . , , . , « ?» . , , .
  • . , , . GPT-2, , - . - , , , . , «» GPT-3 , …


Ich bin jedoch auch bereit zuzugeben, dass diese Argumente eher schwach sind und die Maschine tatsächlich jetzt relativ lange Nachrichtentexte erstellen kann, ähnlich wie menschliche.



Ich stellte meine Tasse Tee beiseite und dachte: „Was bedeutet das? Welche Lektion kann ich aus dieser Geschichte lernen? Kann ich jetzt zumindest einige Ratschläge geben, wie man gute von schlechten oder bedeutungslosen Texten unterscheiden kann? "



Reputation Institute und Fact Checking



Als ich zu den Emotionen zurückkehrte, die beim Lesen auftraten, erinnerte ich mich daran, dass das Fragment des Artikels, nach dem ich anfing zu "glauben", was geschah, eine Beschreibung des Experiments im Bitcointalk-Forum war. Der Anfang des Artikels hat mich nicht gestört - er ist den Fakten über die Erstellung von GPT-3 gewidmet, und ich bin bereits daran gewöhnt, dass solche Fakten nichts über den Autor oder sein Verständnis des Themas aussagen, da sie von überall ausgeliehen werden können.



Die Beschreibung des Experiments war jedoch interessant. Tatsächlich hat es den "Inhalt" des Artikels erstellt - die Veröffentlichungsregeln, die Reaktion anderer Leute aus dem Forum ...



... und als Ergebnis verstehen wir, dass es kein Experiment gab.



Dies führte mich zu interessanten Gedanken. Ich habe vor langer Zeit über die Modellierung von Geschäftszyklen basierend auf Vertrauenswachstum geschrieben... Das Fazit ist, dass Wachstum nur dann stattfindet, wenn die Verpflichtungen der Parteien erfüllt sind - oder einfacher gesagt, wenn ich Ihnen sage "Ich werde dieses Produkt in einer Woche zu einem Preis X an Sie versenden", vertrauen Sie mir und ich werde es wirklich tun. Alles basiert ausschließlich auf Vertrauen - wenn Sie mir nicht vertrauen oder ich Sie täuschen werde, können wir natürlich versuchen, den Fall durch das Gericht zu lösen, aber dies wird von HALLO-Kosten begleitet. Stellen Sie sich vor, wie es wäre, wenn jeder Kauf von Joghurt in einem Geschäft mit einer ernsthaften Möglichkeit von Rechtsstreitigkeiten einhergehen würde ...



Und hier kommen wir meiner Meinung nach zu einem ernsthaften Problem der modernen Welt. In gewisser Weise haben wir in Bezug auf Wörter und Texte fast keine Reputationsinstitutionen mehr, was bedeutet, dass wir nicht wirklich wissen, wem wir überhaupt vertrauen können .



Stellen Sie sich vor, ein Vertreter eines Mobilfunkbetreibers ruft Sie an. Oder eine Bank. Mit einem neuen, einzigartigen und vorteilhaften Angebot für Sie. Wirst du glauben, dass es für dich von Vorteil ist?



Die Medien haben möglicherweise versehentlich das „falsche“ Foto eingefügt. Sie können die Situation einseitig betrachten. Veröffentlichen Sie einen provokanten Artikel auf der Hauptseite mit einer kleinen Inschrift unten: „Dies ist die Kolumne des Autors. Die Meinung des Autors darf nicht mit der Meinung der Redaktion übereinstimmen. " Sie können sich mit den Worten "Wissenschaftler haben es herausgefunden ..." auf einen unbekannten Professor des Weltinstituts in der Stadt Kukuevo beziehen. Und sie werden nichts dafür bekommen. Zumindest beschweren sie sich über die mangelnde Überprüfung der Fakten und veröffentlichen möglicherweise eine Gegenargumentation in einer Ecke, in der Sie sie nach ein paar Monaten nie mehr finden.



Auch die Anwesenheit "kompetenter" Leute hilft nicht. Vielleicht erinnere ich mich am besten an die Geschichte von Theranos ( auf Habré ), der eine fast medizinische Revolution versprach und einen beeindruckenden Vorstand zusammenstellte (der Vorstand des Unternehmens bestand aus so berühmten Persönlichkeiten wie den ehemaligen US-Außenministern Henry Kissinger und George Shultz). Es schien allen, dass solche Leute nicht falsch liegen konnten - aber tatsächlich verließen sie sich auch auf verbale Zusicherungen, während die Technologie tatsächlich nicht funktionierte. Denken Sie nicht, dass Sie etwas vertrauen können, selbst wenn Sie dort 700 Millionen Dollar investiert haben.



Leider geht es darum, dass wir jetzt niemandem mehr vertrauen können. Reputation kostet sehr wenig und wird gerne gegen Geld eingetauscht. Tatsächlich bleiben unsere Familie und unsere Lieben der einzig gute Vertrauensraum - und glücklicherweise sind die Ideen des Network-Marketings (Oriflame usw.), die persönliches Vertrauen ausnutzen, mehr oder weniger aus unserem Leben verschwunden.



Aber zurück zum Artikel ... Ich habe zwei Schlussfolgerungen für mich gezogen:



  • . – , / . . , , . , – . . ( , . GPT-2, , , )
  • , . , - « , ; , …». , , – , , .


Glatte Text und Dialoge



Ich stelle meine Sammlung generierter Texte und ihrer Generatoren zusammen. Aber ich bin nicht sehr daran interessiert zu diskutieren, wie sich die generierten Texte und Fälschungen auf die Gesellschaft auswirken werden - obwohl dieses Thema möglicherweise gut bezahlt wird. Für mich ist jedes Beispiel des generierten Textes eine Frage: "Welchen Teil des menschlichen Denkens konnten wir formalisieren?" Und "was ist unberücksichtigt geblieben und ist immer noch das Vorrecht einer Person?"



GPT-3 und moderne neuronale Netze sind entfernte Nachkommen der Texterzeugung aufgrund von N- Gramm- oder Markov-Netzen, die vermutlich in Yandex.Abstracts verwendet werden, da sie auf Texten und nicht auf den in diesen Texten enthaltenen Bedeutungen trainieren . Wenn Sie sich die zugrunde liegenden Prinzipien und Beispiele für generierte Texte ansehen, können Sie mehrere wichtige Regeln einführen:



  • . , . (.) 4-7 , GPT-3, , , . , – , , .
  • . , , , . - , «, » « Apple, , ». , . !
  • . « , , » « , » .


Darüber hinaus möchte ich gesondert auf den Dialog mit der KI eingehen. Insbesondere weiß jeder Lehrer, dass aufgrund der vom Schüler bereitgestellten Zusammenfassung nichts über sein Wissen gesagt werden kann. Aber wenn Sie 5-10 Minuten mit ihm sprechen, ist es leicht zu verstehen, ob er „fummelt“ oder nicht.



In meinem Artikel über Chatbots erwähne ich, dass das Hauptproblem für die KI jetzt darin besteht, den Kontext des Dialogs zu berücksichtigen und den Gesprächspartner zu verstehen.... Es ist leicht, sich eine KI vorzustellen, die gut auf einen bestimmten Satz reagiert - aber es sieht aus wie eine Person, die ein wenig über alles gehört hat, aber die Essenz nicht versteht. Unter den Studenten gibt es auch solche, die auf Schlüsselphrasen reagieren. Wenn Sie komplexe Themen nicht ansprechen, persönliches Wissen und Verständnis nicht bewerten, haben Sie möglicherweise das Gefühl, dass der Gesprächspartner ein Intellektueller ist und weiß, wovon er spricht, obwohl er in Wirklichkeit nur die Wahrheiten wiederholt, die er irgendwo gehört hat .



Der Mensch ist offensichtlich nicht von dem bestimmt, was er sagt. Ein Mensch wird durch die Tatsache bestimmt, dass er aufgrund seiner Überzeugungen handeln kann. Er kann seine Erfahrung analysieren oder die Erfahrung einer anderen Person wahrnehmen.



Er führt NICHT ausschließlich Gespräche, ohne Verantwortung für seine Worte zu tragen.



All Articles