Warum Siri uns abhören muss

Es ist an der Zeit, sich einer harten Wahrheit bezüglich maschinellen Lernens und KI zu stellen: Damit sie besser werden, müssen Menschen mit einbezogen werden. [...]

Um die Leistung von Siri zu verbessern, setzte Apple Personen ein, die die Sprachaufnahmen von Kunden auf ihre Richtigkeit bewerteten (c) Apple

Eine Woche nachdem ein Artikel im The Guardian enthüllte, dass Menschen in Apples Siri "Grading"-Programm private und illegale Aktivitäten mit anhörten, wurde das Programm von Apple ausgesetzt, um eine Überprüfung durchzuführen. Es wird auch an einem Software-Update gearbeitet, das den Benutzern die Möglichkeit geben soll, sich abzumelden (oder sich vielleicht anzumelden).

Apple gab eine einfache Erklärung ab:? "Wir sind
bestrebt, ein großartiges Siri-Erlebnis zu bieten und gleichzeitig die
Privatsphäre der Benutzer zu schützen. Während wir eine gründliche Überprüfung
durchführen, setzen wir die globale Einstufung von Siri aus. Darüber hinaus
werden die Benutzer im Rahmen eines zukünftigen Software-Updates die
Möglichkeit haben, sich für die Teilnahme an der Bewertung zu
entscheiden."

Das ist der richtige Schritt, aber ich frage mich, wie der
Weg nach vorne aussehen soll. Denn obwohl die meisten Menschen es nicht
wahrhaben wollen, basieren Machine Learning (ML) und KI auf einer Grundlage des
menschlichen "Gradings" und es sind immer noch keine guten
Alternativen in Sicht. Und da Siri häufig kritisiert wird, weil sie ein oder zwei
Jahre hinter seinen Konkurrenten zurückbleibt, wird es für Apple nicht einfach
sein, aufzuholen und gleichzeitig unsere Privatsphäre zu schützen....

Um diese Inhalte abzurufen, registrieren Sie sich bitte für den kostenlosen Business Account.

Werbung


Mehr Artikel