Software soll „gute“ von „schlechten“ Bürgern unterscheiden

Die amerikanische Einwanderungsbehörde will ein automatisiertes Verfahren erstellen, das durch persönliche Daten und digitale Chroniken feststellt, wer positiv und negativ zur Gesellschaft beiträgt. [...]

Screenshot der Website des US-Heimatschutzministerum (Department of Homeland Security - DHS). © Screenshot
Screenshot der Website des US-Heimatschutzministerum (Department of Homeland Security - DHS). © Screenshot

Im Bestreben die Einwanderung in die USA zu verbessern und nur möglichst jene Menschen zuzulassen, die einen positiven Beitrag zur Gesellschaft leisten, will die US-Einwanderungs-behörde http://ice.gov - external-link>Immigrations and Customs Enforcement“ (ICE) künftig einen gemeinsam mit Softwarefirmen erstellten Algorithmus einsetzt, der erkennen soll, wer möglichst positiv, aber auch wer negativ zur Gesellschaft beiträgt. Auf diese Weise soll die Immigration erleichtert und beschleunigt werden. Damit haben die Behörden massiv Kritik von Bürgerrechtsorganisationen geerdet, die diesen Plan sehr kritisch bewerten.
Hexenverbrennung 2.0
„Wenn du einen Algorithmus aufbaust, der Hexen suchen soll, dann endet das sozusagen mit den Hexenprozessen von Salem. Man glaubt nämlich nur, dass man Hexen findet. Aber eigentlich findet man auch bloß normale Menschen, die Katzen und Besen besitzen“, gibt Rachel Levinson-Waldman vom http://brennancenter.org - external-link>Brennan Center for Justice  zu bedenken. Es sei zudem beinahe unmöglich festzulegen, was genau „positive Kontributionen“ seien.
„Das US-amerikanische Gesetz hat dafür keine Definition. Das bedeutet, dass wahrscheinlich diejenigen, die das Programm entwickeln, wahrscheinlich in Zusammenarbeit mit der ICE dies festlegen werden“, unterstreicht Levinson Waldman. In einem Schreiben an das http://dhs.gov - external-link>Department of Homeland Security haben bereits über 100 Branchenexperten klargemacht, dass sie einen Algorithmus dieses Ausmaßes äußerst gefährlich finden würden.
Viel zu viele Verdächtige
„Es gibt eine Vielzahl von Literatur, die bestens demonstriert, dass sogar die besten automatisierten Entscheidungsmodelle eine unakzeptable Anzahl von Fehlern erzeugen, wenn sie Geschehen vorhersagen sollen. Im Vergleich mit der US-Population und den Immigrationsraten ist die Zahl der Verbrechen relativ niedrig, vor allem Terrorangriffe sind selten. Das Ergebnis wäre, dass sogar das akkurateste Modell trotzdem noch eine sehr hohe Zahl von falschen, positiven Ergebnissen liefern würde“, so der Brief. Ob der Algorithmus nach der breiten Kritik noch im gleichen Ausmaß umgesetzt werden soll, ist ungewiss.

Werbung

Mehr Artikel

Christian Kranebitter, Geschäftsführer der BE-terna Unternehmensgruppe. (c) BE-Terna
News

BE-terna im „Inner Circle für Microsoft Dynamics 2018/2019“

Jedes Jahr ehrt Microsoft einen ausgewählten Kreis von Microsoft Dynamics Partnern für deren Performance im Zusammenhang mit dem Vertrieb und der Implementierung von Microsoft Dynamics. In den „Inner Circle für Microsoft Dynamics“ werden jährlich die 60 erfolgreichsten Microsoft Partner aufgenommen, die sich durch eine konstant positive Geschäftsentwicklung deutlich von anderen Partnern abheben. […]

Hinterlasse jetzt einen Kommentar

Kommentar hinterlassen

E-Mail Adresse wird nicht veröffentlicht.


*


This site uses Akismet to reduce spam. Learn how your comment data is processed.