Mit der Entwicklung von Social Media und anderen Online-Plattformen haben Menschen eine beispiellose Gelegenheit, öffentliche Veranstaltungen auszurichten. Aber oft wird diese Fähigkeit, Informationen zu veröffentlichen und zu verbreiten, nicht für immer genutzt. Hier und die Ausbreitung von Gewalt, Terrorismus, Fälschung, Popularisierung illegaler Drogen, Spam, Beleidigungen und vielem mehr, was eine Resonanz in der Gesellschaft hervorruft. In solchen Fällen beginnt die Fähigkeit von Online-Plattformen, Informationen zu verbreiten, zum Nachteil der Menschen zu wirken.
Gleichzeitig haben Online-Plattformen genügend Schwierigkeiten, Informationen zu identifizieren, die wir nicht sehen möchten, da das im Internet verbreitete Inhaltsvolumen riesig ist und ständig wächst und die Aufgabe der Inhaltsmoderation keineswegs trivial ist. Trotz des Erfolgs automatisierter Methoden wächst daher auch die Anzahl der Moderatoren, die von Online-Plattformen eingestellt werden, um Inhalte manuell anzuzeigen, sowie die Welle der öffentlichen Kritik am Moderationsprozess stetig.
Und vor allem Streitigkeiten darüber, wer und in welchem Umfang für den Inhalt verantwortlich sein sollte, nehmen in der Gesellschaft zunehmend zu.
Ende Mai 2020 unterzeichnete Präsident Donald Trump eine Verordnung auf Social-Media-Plattformen, in der gefordert wurde, dass sie für auf ihren Websites veröffentlichte Inhalte zur Rechenschaft gezogen werden, und forderte die FTC und den Generalstaatsanwalt auf, mit der Untersuchung von Unternehmen zu beginnen. Der Grund war die Veröffentlichung eines Warnschilds zur Überprüfung der Fakten auf einigen Tweets des Präsidenten auf Twitter, das der Präsident als Zensur empfand und das selektiv und nicht transparent angewendet wurde.
Aber was wollen wir von Internetunternehmen? Damit sie eine Art globaler Zensor für alles und jeden auf ihren Plattformen sind, selbst auf Kosten der manuellen Moderation? Oder haben sie sich nicht im Namen der Meinungsfreiheit in unsere Kommunikation eingemischt? Wo ist die Leitung? Wer legt die Spielregeln fest? Ist ein Kompromiss bei der Moderation des Informationsfeldes für alle Beteiligten möglich: Internetunternehmen, Nutzer, Aufsichtsbehörden? Könnte es sein, dass die Aufrechterhaltung einer Internetkultur ein komplexes Problem ist, das nicht nur ein Problem für Internetunternehmen darstellt, sondern auch die Beteiligung der Gesellschaft selbst an diesem Prozess erfordert und erfordert, dass sie zumindest einen Teil der Verantwortung für die von ihr veröffentlichten Inhalte übernimmt?
Solche Fragen stellen sich mehr und mehr oft ...
?
Derzeit versuchen Unternehmen, Benutzer mithilfe der Schaltfläche "Beschweren" zur Moderation zu bewegen, deren Implementierung mehrere Hauptansätze hat.
Durch Drücken dieser Schaltfläche kann der vom Benutzer ausgewählte Inhalt zur Überprüfung an einen zuvor festgelegten Moderator gesendet werden. Der Vorteil dieses Ansatzes ist die Leichtigkeit, mit der Endbenutzer den Verstoß anzeigen können. Der Nachteil dieses Ansatzes ist das mangelnde Vertrauen in die Bewertung eines einzelnen Benutzers und infolgedessen die Notwendigkeit, den Verstoß durch einen Moderator zu bestätigen, der aufgrund des stetig wachsenden Inhaltsvolumens häufig keine Zeit hat, darauf zu reagieren. In diesem Fall liegt das letzte Wort und damit die Verantwortung für die Ablehnung unangemessener Informationen vollständig auf den Schultern der Internetunternehmen.
Kollektive Moderation ist ein weiterer wichtiger Ansatz. Es gibt viele Variationen dieses Ansatzes, aber im Allgemeinen kann dieser Ansatz wie folgt beschrieben werden. Wenn eine bestimmte Anzahl von Benutzern auf denselben Inhalt auf die Schaltfläche "Beschweren" klickt, können Unternehmen einen Verstoß in Betracht ziehen und ein automatisches Verfahren einleiten, um unangemessenen Inhalt zu entfernen oder auf irgendeine Weise zu kennzeichnen, wodurch ihre Benutzer gewarnt werden. Der Vorteil dieses Ansatzes besteht darin, dass Benutzer die Informationskultur völlig unabhängig beeinflussen können. Übernahme der Gruppenverantwortung für die Ablehnung unangemessener Informationen. Der Nachteil ist, dass eine solche Technologie der Einschätzung eines einzelnen Benutzers immer noch nicht vertraut und daher einige implizierteine ausreichende Anzahl von stimmberechtigten Benutzern, die möglicherweise einfach nicht angeworben werden, um Abstimmungen über bestimmte Inhalte zu organisieren.
Infolgedessen ist die Beteiligung der Gesellschaft am Prozess der Regulierung der Netzwerkkultur in der Praxis ein indirektes oder umständliches Verfahren, das in großem Umfang nur schwer anzuwenden ist. Und dies trotz der Tatsache, dass Benutzer an einer angemessenen Internetkultur interessiert sind und, wie die Praxis der Verwendung der Schaltfläche "Beschweren" zeigt, bereit sind, bei Verstößen daran teilzunehmen! Ihre Stimmen werden jedoch sehr bedingt wahrgenommen, und dies liegt daran, dass der Einschätzung eines normalen Internetnutzers kein Vertrauen entgegengebracht wird. Nein, standardmäßig.
Aber können wir lernen, dem Urteil eines einzelnen Benutzers zu vertrauen?
Es scheint unmöglich zu sein, einfach das Internet zu nutzen und der Einschätzung eines normalen Benutzers zu vertrauen. Es können jedoch Bedingungen geschaffen werden, unter denen dieser Einschätzung vertraut werden kann. Und wir haben bereits eine so erfolgreiche Erfahrung. Diese Methode wird von der bekannten und langweiligen reCaptcha verwendet. Genauer gesagt, eine seiner ersten Versionen, in der der Benutzer aufgefordert wurde, einige Wörter zur Autorisierung auf der Website zu schreiben. Eines dieser Wörter war Validierung und dem System bekannt, das andere war dem System unbekannt und musste erkannt werden. Die Benutzer selbst wussten nicht, welches Wort bekannt war und welches nicht, und um sich schneller anzumelden, mussten sie versuchen, ehrlich zu antworten und nicht zu raten.
Infolgedessen wurden Benutzer, die ehrlich geantwortet und das Testwort korrekt eingegeben hatten, als objektiv angesehen, und reCaptcha übersprang sie weiter und akzeptierte auch ein zuvor unbekanntes Wort als korrektes Ergebnis. Und es stellte sich als effektiv heraus. Mit dieser einfachen Methode erkannten reCaptcha-Benutzer in den ersten sechs Arbeitsmonaten erfolgreich etwa 150 Millionen nicht erkannte Wörter, die mit automatischen Methoden nicht erkannt werden konnten.
Was ist, wenn Sie diesen Ansatz im Bereich der Moderation anwenden?
Ähnlich wie bei reCaptcha können Sie einem einzelnen Benutzer die Möglichkeit geben, einen Moderationstest durchzuführen, d. H. ein Test zur Bewertung der Übereinstimmung einer Reihe von Veröffentlichungen mit bestimmten vordefinierten Regeln. In diesem Fall wird es unter den Veröffentlichungen eine Veröffentlichung geben, deren Bewertung uns nicht bekannt ist, und der Rest der Veröffentlichungen werden Überprüfungsveröffentlichungen mit zuvor bekannten Schätzungen sein. Wenn der Benutzer den Test erfolgreich bestanden hat, d.h. war ehrlich bei der Bewertung der dem System bekannten Verifizierungspublikationen, dann akzeptieren wir seine Einschätzung der unbekannten Publikation, dh wir vertrauen der Meinung dieses Benutzers. Darüber hinaus müssen wir keine kollektive Abstimmung organisieren, um eine Bewertung einer uns unbekannten Veröffentlichung zu erhalten. Ein Benutzer wird ausreichen.
Durch die Kombination dieses Tests mit der Schaltfläche "Beschweren" können wir eine Umgebung erstellen, in der Benutzer die Informationen selbst vollständig moderieren können. Um dies zu organisieren, wird der Benutzer nach dem Klicken auf die Schaltfläche "Beschweren" zunächst aufgefordert, einen Test durchzuführen. Wenn er den Test besteht, wird der Beitrag, den er melden möchte und der seiner Meinung nach gegen eine vordefinierte Regel verstößt, zur Überprüfung gesendet.
Während des Bestehens des Tests ist der Benutzer ein unwissender, unvoreingenommener Moderator einer bestimmten Veröffentlichung, deren Bewertung unter anderem noch nicht bekannt ist. Die Veröffentlichung, über die sich der Benutzer beschwert hat, wird an einen anderen Benutzer gesendet, der ebenfalls die Schaltfläche "Beschweren" verwendet, die auf ähnliche Weise funktioniert ... Und dieser Benutzer wird wiederum ein unfreiwilliger, unvoreingenommener Moderator dieser Veröffentlichung sein.
Was kann dieser Ansatz geben?
- Dieser Ansatz vereinfacht den Moderationsprozess und macht ihn zu einem Massenverfahren, bei dem jeder Benutzer die Möglichkeit hat, Informationen zu identifizieren, die gegen die Regeln verstoßen.
- : , — , , .
- : , -, . , , .
Die Verwendung dieses Ansatzes wird hauptsächlich bei der Moderation von Online-Diskussionen (Kommentaren) gesehen. Mit seiner Hilfe ist es also einfach, Benutzer von verschiedenen Websites in einer Art Community von Moderatoren zu organisieren. Eine Community, in der angemessene, kulturell respektvolle Benutzer Vorrang vor Verstößen haben und einfache Regeln anwenden. Ein kleines Beispiel für eine mögliche Implementierung eines solchen Ansatzes und von Community-Regeln wird hier gegeben .
Dieser Ansatz kann an anderen Stellen im Informationsfeld verwendet werden. Zum Beispiel, um Videoinhalte zu markieren, Unhöflichkeit, Grausamkeit, Drogen usw. zu identifizieren. Dies kann ein Video-Markup sein, das Sie auf YouTube sehen oder das Sie über WhatsApp an eine der Gruppen senden, in denen Sie Mitglied sind. Wenn Sie dieses Video schockiert hat und Sie andere Personen warnen möchten, können Sie es mit diesem Ansatz als Video markieren, das unangemessenen Inhalt enthält. Natürlich nach Abschluss des Moderationstests. Um die Videomoderation zu vereinfachen, können Sie nicht das gesamte Video, sondern nur ein Videofragment mit unangemessenem Inhalt optimieren und zur Moderation senden. Infolgedessen wird dieses Video bei der weiteren Verbreitung mit einer Marke versehen, die für andere Benutzer nützlich sein kann.die diese Art von Inhalten nicht sehen wollen.
Der gleiche Ansatz kann auf andere Arten von Verstößen angewendet werden. Im Falle einer Fälschung können Benutzer beispielsweise selbst ein Etikett zur Überprüfung von Fakten hinzufügen oder einen Link zu Gegeninformationen hinzufügen.
Abschließend ist anzumerken, dass die von Benutzern, die diesen Ansatz verwenden, an der einen oder anderen Stelle des Informationsfelds identifizierten verletzenden Informationen durch automatische Methoden auf die Eingabe übertragen werden können, um den Prozess der Identifizierung solcher Verstöße weiter zu automatisieren. Auf diese Weise können Benutzer zusammen mit Internetunternehmen die schwierige Aufgabe lösen, die von uns veröffentlichten und verbreiteten Informationen zu moderieren.
