Entwickler des neuen auf künstlicher Intelligenz basierenden Tools behaupten, dass es Bilder von Kindesmissbrauch mit einer Genauigkeit von fast 99 Prozent erkennt.
Safer ist ein Tool, das von Thorn, einer gemeinnützigen Organisation, entwickelt wurde, um Unternehmen zu helfen, die keine eigenen Filtersysteme haben, diese Bilder zu erkennen und zu entfernen.
Laut der Internet Watch Foundation in Großbritannien stiegen die Berichte über Kindesmissbrauch während der COVID-19-Quarantäne um 50 Prozent. In den elf Wochen seit dem 23. März hat die Hotline 44.809 gefundene Bilder erhalten, gegenüber 29.698 im Vorjahr. Viele dieser Bilder stammen von Kindern, die viel Zeit im Internet verbracht haben und ihre Bilder veröffentlichen mussten.
Andy Burroughs, Leiter der Online-Sicherheit für Kinder bei der NSPCC, sagte kürzlich gegenüber der BBC: "Der Schaden könnte verringert werden, wenn soziale Medien intelligent in Technologie investieren und in Krisenzeiten in sicherere Designmerkmale investieren."
Sicherer ist ein Tool, mit dem Sie Kindesmissbrauchsinhalte schnell kennzeichnen können, um den verursachten Schaden zu verringern.
Zu den sichereren Erkennungsdiensten gehören:
- Image Hash Matching: Ein Flaggschiff-Service, der kryptografische und Wahrnehmungs-Hashes für Bilder generiert und diese Hashes mit bekannten CSAM-Hashes vergleicht. Zum Zeitpunkt der Veröffentlichung enthält die Datenbank 5,9 Millionen Hashes. Das Hashing findet in der Client-Infrastruktur statt, um die Privatsphäre der Benutzer zu schützen.
- CSAM (CSAM Image Classifier): , Thorn Safer, , CSAM. , , CSAM , CSAM.
- (Video Hash Matching): , , CSAM. 650 . CSAM.
- SaferList : Safer, Safer , Safer, . , - .
Das Problem ist jedoch nicht auf das Markieren von Inhalten beschränkt. Es wurde dokumentiert, dass Moderatoren von Social-Media-Plattformen häufig eine Therapie benötigen oder sogar Selbstmord verhindern, nachdem sie Tag für Tag den störendsten Inhalten im Internet ausgesetzt waren.
Thorn behauptet, Safer sei auf das Wohl der Moderatoren ausgerichtet. Zu diesem Zweck werden Inhalte automatisch unscharf (das Unternehmen gibt an, dass sie derzeit nur für Bilder funktionieren).
Safer verfügt über APIs, die Entwicklern zur Verfügung stehen, die "das allgemeine Wissen über Kindesmissbrauchsinhalte erweitern sollen, indem sie Hashes hinzufügen, mit Hashes aus anderen Branchen scannen und falsch positives Feedback senden".
Flickr ist derzeit einer der bekanntesten Kunden von Thorn. Mit Safer entdeckte Flickr auf seiner Plattform ein Bild von Kindesmissbrauch, das nach einer Untersuchung der Strafverfolgungsbehörden zur Beschlagnahme von 21 Kindern im Alter zwischen 18 Monaten und 14 Jahren und zur Festnahme von Kriminellen führte.
Safer steht derzeit jedem in den USA tätigen Unternehmen zur Verfügung. Thorn plant, seine Aktivitäten im nächsten Jahr auf andere Länder auszudehnen, nachdem er sich an die nationalen Berichtspflichten jedes Landes angepasst hat.
Weitere Informationen zu diesem Tool und den ersten Schritten finden Sie hier .