Software soll „gute“ von „schlechten“ Bürgern unterscheiden

Die amerikanische Einwanderungsbehörde will ein automatisiertes Verfahren erstellen, das durch persönliche Daten und digitale Chroniken feststellt, wer positiv und negativ zur Gesellschaft beiträgt. [...]

Screenshot der Website des US-Heimatschutzministerum (Department of Homeland Security - DHS). © Screenshot
Screenshot der Website des US-Heimatschutzministerum (Department of Homeland Security - DHS). © Screenshot

Im Bestreben die Einwanderung in die USA zu verbessern und nur möglichst jene Menschen zuzulassen, die einen positiven Beitrag zur Gesellschaft leisten, will die US-Einwanderungs-behörde Immigrations and Customs Enforcement“ (ICE) künftig einen gemeinsam mit Softwarefirmen erstellten Algorithmus einsetzt, der erkennen soll, wer möglichst positiv, aber auch wer negativ zur Gesellschaft beiträgt. Auf diese Weise soll die Immigration erleichtert und beschleunigt werden. Damit haben die Behörden massiv Kritik von Bürgerrechtsorganisationen geerdet, die diesen Plan sehr kritisch bewerten.
Hexenverbrennung 2.0
„Wenn du einen Algorithmus aufbaust, der Hexen suchen soll, dann endet das sozusagen mit den Hexenprozessen von Salem. Man glaubt nämlich nur, dass man Hexen findet. Aber eigentlich findet man auch bloß normale Menschen, die Katzen und Besen besitzen“, gibt Rachel Levinson-Waldman vom Brennan Center for Justice  zu bedenken. Es sei zudem beinahe unmöglich festzulegen, was genau „positive Kontributionen“ seien.
„Das US-amerikanische Gesetz hat dafür keine Definition. Das bedeutet, dass wahrscheinlich diejenigen, die das Programm entwickeln, wahrscheinlich in Zusammenarbeit mit der ICE dies festlegen werden“, unterstreicht Levinson Waldman. In einem Schreiben an das Department of Homeland Security haben bereits über 100 Branchenexperten klargemacht, dass sie einen Algorithmus dieses Ausmaßes äußerst gefährlich finden würden.
Viel zu viele Verdächtige
„Es gibt eine Vielzahl von Literatur, die bestens demonstriert, dass sogar die besten automatisierten Entscheidungsmodelle eine unakzeptable Anzahl von Fehlern erzeugen, wenn sie Geschehen vorhersagen sollen. Im Vergleich mit der US-Population und den Immigrationsraten ist die Zahl der Verbrechen relativ niedrig, vor allem Terrorangriffe sind selten. Das Ergebnis wäre, dass sogar das akkurateste Modell trotzdem noch eine sehr hohe Zahl von falschen, positiven Ergebnissen liefern würde“, so der Brief. Ob der Algorithmus nach der breiten Kritik noch im gleichen Ausmaß umgesetzt werden soll, ist ungewiss.


Mehr Artikel

Günter Neubauer, Geschäftsführer von OMEGA (c) OMEGA/Mario Pernkopf
Interview

Den Blick auf die Zukunft gerichtet

Im Interview mit der COMPUTERWELT erzählt OMEGA-Geschäftsführer Günter Neubauer wie sich sein Unternehmen nicht zuletzt dank eines hochmotivierten Teams schnell auf die Auswirkungen der Coronakrise einstellen konnte und wie ihn der durch die Pandemie hervorgerufene Digitalisierungsschub trotz aller wirtschaftlichen Herausforderungen optimistisch in die Zukunft blicken lässt. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*