
Einführung
Miriam war erst 21 Jahre alt, als sie Nick traf. Sie war Fotografin, hat vor kurzem das College abgeschlossen und Tische bedient. Er war 16 Jahre älter als sie und besaß ein Finanzunternehmen. Er war charmant und charismatisch; nahm sie auf ausgefallene Verabredungen und bezahlte für alles. Sie fiel schnell unter seinen Einfluss.
Alles begann mit einer Kreditkarte. Sie war zu dieser Zeit die einzige mit Miriam. Nick erhöhte seine Schulden durch Geschäftskäufe um 5.000 USD und zahlte sich am nächsten Tag schnell aus. Miriam, die mich bat, ihre richtigen Namen nicht preiszugeben, aus Angst, das Scheidungsverfahren zu stören, fand, dass Nicks Trick ihre Kreditwürdigkeit steigerte. Sie wuchs mit einem einzigen Vater in einer Familie mit niedrigem Einkommen auf und vertraute mehr auf Nicks Know-how als auf sich. Nick unterstützte sie bereitwillig und sagte, dass sie Finanzen nicht verstehe. Sie öffnete ihm in ihrem Namen mehrere Kreditkarten.
Der Ärger begann drei Jahre später. Nick bat Miriam, ihren Job zu kündigen, um ihm bei dem Geschäft zu helfen, das sie tat. Nick sagte ihr, sie solle zur Graduiertenschule gehen und sich keine Sorgen machen, dass sie ihre bestehenden Studentenschulden verschärfen würde. Miriam gehorchte Nick erneut. Er versprach, sich um alles zu kümmern, und sie glaubte ihm. Kurz darauf hörte Nick auf, Kreditkartenrechnungen zu bezahlen. Miriams Bericht begann zu verblassen.
Und doch blieb Miriam bei Nick. Sie heirateten und hatten drei Kinder. Und dann haben eines Tages FBI-Agenten ihr Haus durchsucht und Nick verhaftet. Ein Bundesrichter befand Nick wegen Betrugs in Höhe von fast 250.000 US-Dollar für schuldig. Miriam entdeckte die Höhe der Schulden in Zehntausenden von Dollar, die Nick in ihrem Namen ausgab. "An dem Tag, als er ins Gefängnis ging, hatte ich 250 Dollar in bar, ein Haus und ein Auto gegen Kaution und drei Kinder", sagt Miriam. "In einem Monat ging ich von der Möglichkeit, ein Kindermädchen einzustellen, vom Leben in einem schönen Haus und all dem zur echten Armut über."
Miriam erlebte das, was sie als „Zwangsschuld“ bezeichnete, eine Form von Gewalt, die normalerweise von einem engen Partner oder Familienmitglied ausgeübt wird. Wirtschaftlicher Missbrauch ist ein seit langem bestehendes Problem: Digital Banking hat es einfacher gemacht, Konten zu eröffnen und im Namen des Opfers Kredite zu vergeben, sagt Carla Sanchez-Adams, Anwältin für Rechtshilfe bei Texas RioGrande Im Zeitalter automatisierter Bonitätsalgorithmen können die Folgen weitaus verheerender sein.
Kredit-Scores werden seit Jahrzehnten zur Beurteilung der Kreditwürdigkeit von Verbrauchern verwendet. Jetzt, da die Berechnung auf Algorithmen basiert, sind sie viel wichtiger: Sie berücksichtigen nicht nur erheblich mehr Daten, sowohl hinsichtlich des Volumens als auch des Typs, sondern beeinflussen zunehmend auch, ob Sie dies können ein Auto kaufen, eine Wohnung mieten oder einen festen Arbeitsplatz bekommen. Ihre allgegenwärtige Wirkung bedeutet, dass es fast unmöglich ist, sich zu erholen, wenn Sie schlechte Kredite haben. Schlimmer noch, die Algorithmen gehören privaten Unternehmen, die nicht offenlegen, wie diese Algorithmen zu ihren Lösungen gelangen. Opfer können eine soziale Leiter hinuntersteigen, die manchmal ihr Zuhause verliert oder zu ihrem Täter zurückkehrt.
Kreditbewertungsalgorithmen sind nicht das einzige, was sich auf das wirtschaftliche Wohlergehen der Menschen und ihren Zugang zu grundlegenden Dienstleistungen auswirkt. Algorithmen entscheiden nun, welche Kinder in Pflegefamilien landen, welche Patienten medizinisch versorgt werden, welche Familien Zugang zu stabilem Wohnraum erhalten. Diejenigen von uns, die über die Mittel verfügen, können unser Leben leben, ohne sich dessen bewusst zu sein. Für Menschen mit niedrigem Einkommen haben das schnelle Wachstum und die Einführung automatisierter Entscheidungsfindungssysteme ein verborgenes Netz miteinander verbundener Fallen geschaffen.
Glücklicherweise organisieren sich immer mehr Zivilanwälte um dieses Thema. Nachdem sie ein Lehrbuch zur Bekämpfung von Risikobewertungsalgorithmen aus der kriminellen Welt ausgeliehen haben, versuchen sie, diese Systeme zu untersuchen, eine Gemeinschaft zu schaffen und Strategien für das Verhalten in Rechtsstreitigkeiten zu entwickeln. „Grundsätzlich beginnt jeder Zivilanwalt, sich mit diesem Material zu befassen, weil alle unsere Mandanten irgendwie von diesen Systemen betroffen sind“, sagt Michelle Gilman, Professorin für klinisches Recht an der Universität von Baltimore. - Wir müssen aufwachen und lernen. Wenn wir wirklich gute, ganzheitliche Anwälte sein wollen, müssen wir uns dessen bewusst sein, was passiert. "
"Werde ich den Algorithmus überprüfen?"
Gilman ist seit 20 Jahren in Baltimore als Anwalt tätig. Ihre Arbeit als Anwältin für Zivil- und Armutsbekämpfung hat sich immer auf dasselbe beschränkt: Sie hat Menschen vertreten, die den Zugang zu Grundbedürfnissen wie Wohnen, Essen, Bildung, Arbeit oder Gesundheitsversorgung verloren haben. Manchmal bedeutet diese Art von Arbeit einen Konflikt mit einer Regierungsbehörde. In anderen Fällen ist es die Kreditauskunftei oder der Hausbesitzer. Der Kampf um das Recht des Klienten wirkt sich zunehmend auf den einen oder anderen Algorithmus aus.
"Bei unseren Kunden geschieht dies schrittweise", sagt sie. „Sie sind in viele verschiedene Algorithmen verwickelt, die die Nutzung von Basisdiensten verhindern. Und Kunden sind sich dessen möglicherweise nicht bewusst, da viele dieser Systeme unsichtbar sind. "
Für Menschen mit niedrigem Einkommen kann eine vorübergehende wirtschaftliche Notlage zu einem Teufelskreis führen, der manchmal in Konkurs oder Obdachlosigkeit endet.
Gilman erinnert sich nicht genau, wann sie erkannte, dass einige Entscheidungen über die Akzeptanz von Algorithmen getroffen werden. Aber als dieser Übergang gerade erst begann, war er selten offensichtlich. Einmal vertrat Gilman eine ältere behinderte Klientin, die unerklärlicherweise von ihrer gesponserten häuslichen Pflege abgeschnitten war. "Wir konnten nicht herausfinden, warum", erinnert sie sich. Sie wurde immer schlimmer, und wenn man schlimmer wird, bekommt man normalerweise mehr Stunden, nicht weniger. "
Erst als Gilman und ihr Mandant mitten in der Anhörung im Gerichtssaal standen, berichtete ein Zeuge, der den Staat vertrat, dass die Regierung gerade einen neuen Algorithmus eingeführt habe. Der Zeuge, die Krankenschwester, konnte nichts erklären.
"Natürlich nicht - sie haben es von der Stange gekauft [über das Massenprodukt, nicht auf Bestellung]", sagte Gilman. „Sie ist Krankenschwester und keine Informatikerin. Sie konnte nicht beantworten, welche Faktoren das Verhalten des Systems beeinflussen. Wie werden sie gewogen? Was sind die erwarteten Ergebnisse? " Also war ich mit meinem studentischen Anwalt zusammen, der mit mir in meiner Rechtsklinik war, und er fragte etwas wie: "Oh, werde ich den Algorithmus überprüfen?"
Für Kevin De Liban, Anwalt der Anwaltskanzlei Arkansas Legal Aid, war die Änderung ebenso tückisch. Im Jahr 2014 führte sein Bundesstaat außerdem ein neues System zur Verteilung der finanzierten häuslichen Gesundheitsversorgung ein, mit dem eine Reihe von Personen abgeschnitten wurden, die zuvor Anspruch auf eine solche Versorgung hatten. Zu diesem Zeitpunkt konnten er und seine Kollegen die Grundursache für diesen Cutoff nicht ermitteln. Sie wussten nur, dass sich etwas geändert hatte. „Wir konnten verstehen, dass sich die Bewertungssysteme von einem Papierfragebogen mit 20 Fragen zu einem elektronischen Fragebogen mit 283 Fragen geändert haben“, gibt er zu.
Nur zwei Jahre später, als ein Fehler im Algorithmus erneut zu rechtlichen Schritten führte, kam De Liban endlich auf den Punkt. Er bemerkte, dass die Krankenschwestern den Patienten sagten: "Nun, der Computer hat es getan - ich war es nicht."
"Das hat uns alarmiert", sagt er. „Wenn ich wüsste, was ich 2016 wusste, würde ich den Kunden 2014 wahrscheinlich besser schützen“, fügt De Liban hinzu.
Eine Person durchläuft jeden Tag viele Systeme
Seitdem hat Gilman viel Erfahrung gesammelt. Sie vertrat Kunden mit einer Reihe von Problemen und beobachtete die Entstehung und Kollision zweier algorithmischer Netzwerke. Das erste Netzwerk besteht aus Kreditauskunftsalgorithmen wie denen von Miriam, die den Zugang zu privaten Gütern und Dienstleistungen wie Autos, Wohnungen und Arbeitsplätzen beeinflussen. Das zweite Netzwerk enthält Algorithmen, die von Regierungsbehörden übernommen wurden und den Zugang zu öffentlichen Gütern wie Gesundheitsversorgung, Arbeitslosigkeit und Kindergeld beeinflussen.
In Bezug auf die Kreditauskunft wurde das Wachstum der Algorithmen durch die Verbreitung von Daten vorangetrieben, die einfacher als je zuvor zu sammeln und zu verbreiten sind. Kreditauskünfte sind nicht neu, aber ihre Auswirkungen sind heutzutage viel umfangreicher. Verbrauchermeldeagenturen, einschließlich Kreditauskunfteien, Unternehmen zur Überprüfung von Mietern usw., sammeln diese Informationen aus einer Vielzahl von Quellen: öffentliche Aufzeichnungen, soziale Medien, Surfen im Internet, Bankgeschäfte, App-Nutzung und mehr. Algorithmen weisen den Menschen dann "Würdigkeits" -Werte zu, die einen großen Beitrag zu Hintergrundprüfungen leisten, die von Kreditgebern, Arbeitgebern, Vermietern und sogar Schulen durchgeführt werden.
Regierungsbehörden hingegen sind gezwungen, Algorithmen anzuwenden, wenn sie ihre Systeme aktualisieren möchten. Die Einführung von Webanwendungen und digitalen Tools begann Anfang der 2000er Jahre und setzte sich mit der Umstellung auf datengesteuerte automatisierte Systeme und künstliche Intelligenz fort. Es gibt gute Gründe, eine solche Änderung anzustreben. Während der Pandemie hatten viele Systeme der Arbeitslosenunterstützung Schwierigkeiten, das schiere Volumen neuer Anfragen zu bewältigen, was zu erheblichen Verzögerungen führte. Das Upgrade dieser Legacy-Systeme verspricht schnellere und zuverlässigere Ergebnisse.
Der Softwarebeschaffungsprozess ist jedoch selten transparent und daher gibt es keine Verantwortlichkeit. Regierungsbehörden kaufen häufig automatisierte Entscheidungshilfen direkt von privaten Anbietern. Wenn Systeme ausfallen, bleiben die Betroffenen und ihre Anwälte im Dunkeln. "Sie warnen nirgendwo davor", beklagt sich Julia Simon-Michel, Anwältin bei der Anwaltskanzlei Philadelphia Legal Assistance. „Dies wird selten in Handbüchern oder Hilfe geschrieben. Wir sind im Nachteil. "
Das Fehlen einer öffentlichen Kontrolle macht Algorithmen auch fehleranfälliger. Eines der ungeheuerlichsten Probleme trat 2013 in Michigan auf. Nach viel Aufwand zur Automatisierung des staatlichen Arbeitslosenversicherungssystems wird der Algorithmusüber 34.000 Menschen als betrügerisch falsch bezeichnet . „Dies führte zu einem enormen Leistungsverlust“, sagt Simon-Michel. - Es gab Insolvenzen, leider Selbstmorde. Es war ein komplettes Durcheinander. "
Gilman befürchtet, dass Schulden und Räumungen im Zusammenhang mit Coronaviren in Kredit-Scores kodifiziert werden, was es für Menschen für immer schwierig macht, Jobs, Wohnungen und Kredite zu bekommen.
Menschen mit niedrigem Einkommen tragen die Hauptlast des Übergangs zu Algorithmen. Dies sind die Menschen, die am anfälligsten für vorübergehende wirtschaftliche Schwierigkeiten sind, die in Verbraucherberichten kodifiziert sind, und diejenigen, die Vorteile benötigen und suchen. Im Laufe der Jahre hat Gilman immer mehr Fälle gesehen, in denen Kunden Gefahr laufen, in einen Teufelskreis zu geraten. "Eine Person durchläuft jeden Tag viele Systeme", sagt sie. - Ich meine, es passiert jedem. Aber die Folgen für die Armen und Minderheiten sind viel schlimmer. “
Als Beispiel nennt sie einen aktuellen Fall in ihrer Rechtsklinik. Ein Familienmitglied verlor seinen Arbeitsplatz aufgrund der Pandemie und erhielt aufgrund eines automatisierten Systemausfalls kein Arbeitslosengeld. Die Familie zahlte daraufhin ihre Miete nicht mehr, was dazu führte, dass ihr Vermieter sie wegen Räumung verklagte. Obwohl die Räumung aufgrund eines Moratoriums für die Kontrolle und Prävention von Krankheiten nicht legal sein wirdwird der Anspruch weiterhin öffentlich erfasst. Diese Aufzeichnungen können dann in Algorithmen zur Mieterauswahl verwendet werden, die es einer Familie erschweren können, in Zukunft eine stabile Unterkunft zu finden. Ihre Unfähigkeit, ihre Miete und Nebenkosten zu bezahlen, kann auch einen Schlag für ihre Kreditwürdigkeit bedeuten, was wiederum Konsequenzen hat. "Wenn Menschen versuchen, Mobiltelefone zu benutzen oder einen Kredit aufzunehmen, ein Auto zu kaufen oder sich für einen Job zu bewerben, treten diese kaskadierenden Welleneffekte auf", sagt Gilman.
Jede menschliche Situation wird zu einer Algorithmus-Situation
Im September veröffentlichte Gilman, der jetzt am Institut für Daten- und Gesellschaftsforschung arbeitet, einen Bericht , in dem alle Algorithmen beschrieben sind, mit denen Anwälte für Armut möglicherweise konfrontiert sind. Bericht mit dem Titel "Algorithmen Armut" ( Poverty Lawgorithms ) und als Leitfaden für Anwälte in diesem Bereich konzipiert. Der Bericht ist in bestimmte Tätigkeitsbereiche wie Verbraucherrecht, Familienrecht, Wohnungsrecht und öffentliche Güter unterteilt. In dem Bericht wird erläutert, wie mit den Herausforderungen von Algorithmen und anderen datengesteuerten Technologien im Rahmen der bestehenden Gesetzgebung umgegangen werden kann.
Wenn einem Kunden beispielsweise aufgrund einer niedrigen Bonität der Kauf einer Wohnung verweigert wird, empfiehlt der Bericht, dass ein Anwalt zunächst prüft, ob die in das Bewertungssystem eingegebenen Daten korrekt sind. Nach dem Fair Credit Reporting Act müssen die Meldestellen die Richtigkeit ihrer Informationen sicherstellen. Dies ist jedoch nicht immer der Fall. Die Anfechtung fehlerhafter Ansprüche kann dazu beitragen, das Guthaben des Kunden und damit den Zugang zu Wohnraum wiederherzustellen. In dem Bericht wird jedoch anerkannt, dass bestehende Gesetze nur dazu beitragen können, dies zu erreichen. Es gibt immer noch regulatorische Lücken, die geschlossen werden müssen, sagt Gilman.
Gilman hofft, dass der Bericht als Weckruf dienen wird. Viele ihrer Kollegen verstehen immer noch nicht, was los ist, und können nicht die richtigen Fragen stellen, um Algorithmen zu entdecken. Problembewusste Menschen sind in den Vereinigten Staaten verstreut, untersuchen das Problem, gehen zum Problempunkt und bekämpfen allein die Algorithmen. Gilman sieht eine Gelegenheit, sie zusammenzubringen und eine breitere Gemeinschaft von Menschen zu schaffen, die sich gegenseitig helfen können. „Wir alle müssen mehr und mehr lernen - nicht nur in Bezug auf das Gesetz, sondern auch in Bezug auf die Systeme selbst“, sagt Gilman. Am Ende sieht es so aus, als würde sich jede menschliche Situation in eine Algorithmus-Situation verwandeln. "
Längerfristig sucht Gilman Inspiration in der Welt der Strafjustiz. Strafverteidiger "arbeiteten vor der Kurve", sagt sie. Sie organisierten sich in einer Gemeinschaft und kämpften gegen urteilsdefinierende Risikobewertungsalgorithmen, was ihre Implementierung verzögerte. Gilman möchte, dass Zivilanwälte dasselbe tun: eine Bewegung schaffen, um mehr öffentliche Kontrolle und Regulierung in das verborgene Netzwerk von Algorithmen zu bringen, mit denen ihre Mandanten konfrontiert sind. "In einigen Fällen sollte das System wahrscheinlich einfach heruntergefahren werden, da es keine Möglichkeit gibt, es fair zu gestalten", sagt sie.
Miriam war nach Nicks Überzeugung für immer verschwunden. Miriam und ihre Kinder zogen in den neuen Staat und kontaktierten eine gemeinnützige Organisation, die Überlebende von Zwangsschulden und häuslicher Gewalt unterstützt. Mit Hilfe der Organisation nahm Miriam an mehreren Kursen teil, um ihr den Umgang mit ihren Finanzen beizubringen. Die Organisation hat Miriam dabei geholfen, viele Zwangsschulden zu schließen und mehr über Kreditalgorithmen zu erfahren. Als sie mit Hilfe ihres Vaters, der Bürge wurde, ein Auto kaufte, erreichte ihre Bonität kaum das erforderliche Minimum. Seitdem haben ihre ständigen Autozahlungen und Studentenschulden ihre Kreditwürdigkeit stetig erhöht.
Miriam muss immer noch auf der Hut sein. Nick hat ihre Sozialversicherungsnummer und sie haben sich noch nicht geschieden. Sie ist ständig besorgt, dass Nick andere Konten eröffnen und neue Kredite in ihrem Namen aufnehmen wird. Für eine Weile überprüfte sie ihre Kreditkartenabrechnung täglich auf Betrug. Aber jetzt schaut sie nach vorne. Miriams Vater, der Mitte 60 ist, möchte in Rente gehen und umziehen. Beide konzentrieren sich nun darauf, sich auf den Kauf eines Eigenheims vorzubereiten. „Ich bin sehr aufgeregt darüber. Mein Ziel ist es, sie bis Ende des Jahres auf 700 zu bringen “, sagt sie über ihre Kredit-Scores,„ und dann werde ich definitiv bereit sein, ein Haus zu kaufen. “ "Ich habe noch nie in meinem eigenen Haus gelebt", fügt sie hinzu. "Mein Vater und ich arbeiten zusammen, um bei uns zu Hause Geld zu sparen."

Vergessen Sie nicht den Promo-Code HABR , der den Rabatt auf das Banner um 10% erhöht .
E
- Entwickler für Benutzeroberflächen
- Beruf Webentwickler
- Python für Webentwicklungskurs
- Fortgeschrittenenkurs "Maschinelles Lernen Pro + Deep Learning"
- Kurs für maschinelles Lernen
- Kurs "Mathematik und maschinelles Lernen für Data Science"
- Beruf Ethischer Hacker
- Unity-Spieleentwickler
- JavaScript-Kurs
- Java-Entwicklerberuf
- C++
- DevOps
- iOS-
- Android-