IBM will KI mit ethischen Grundsätzen schaffen

IBM will Künstlicher Intelligenz ein Ethik-Verständnis verpassen. In Zusammenarbeit mit dem MIT Media Lab hat das Unternehmen deshalb eine neue KI-Entscheidungsmethode entwickelt, die Inhalte nach Nutzerpräferenzen, aber auch nach moralischen Vorgaben ausgibt. [...]

IBM will Künstlicher Intelligenz ein Ethik-Verständnis verpassen. (c) pixabay
IBM will Künstlicher Intelligenz ein Ethik-Verständnis verpassen. (c) pixabay

IBM arbeitet daran, Künstliche Intelligenz (KI) mit einem ethischen Verständnis zu schaffen. Wie Venturebeat schreib wären KI–Algorithmen bisher stets darauf ausgelegt, dem Nutzer Inhalte anzuzeigen, die er wolle. Dies sei aber nicht immer auch das, was er sehen solle. Und genau das will IBM nun ändern.

Ziel sei es, ethische und moralische Grundsätze zu befolgen und dem Nutzer zugleich qualitativ hochwertige Inhalte zu liefern. Eine entsprechende KI-Empfehlungsmethode haben die Wissenschaftler von IBM Research laut dem Bericht nun in Zusammenarbeit mit dem MIT Media Lab entwickelt. Damit könnten die Ergebnisse gemäß den Nutzerpräferenzen zwar optimiert werden, zugleich folge das System aber auch vordefinierten Richtlinien.

Mit diesem Vorstoß ist IBM keineswegs ein Pionier. Auch die Deutsche Telekom hat unlängst verschiedene Richtlinien veröffentlicht, wonach KI-Systeme einem bestimmten Ethik-Codex folgen sollen. Anders als diese Methoden sei die neue Vorgehensweise jedoch nicht statisch. Sie folge keinen bestimmten Regeln. Bisher hätte der Nutzer lediglich bestimmte Quellen oder Kategorien ausschließen können. Diese wurden ihm dann vom Algorithmus schlicht nicht mehr angezeigt.

Da das Internet jedoch aus einer derart großen Datenmenge besteht, sei es laut IBM schlicht nicht möglich, für alles eine genaue Regel vorzudefinieren. Aus diesem Grund kommt bei IBM KI zum Einsatz. Anhand von Beispielen soll der Computer lernen zu verstehen, welche Inhalten angemessen sind.

Offline- und Online-Trainingsphase

Die Forscher trainieren ihr System laut dem Bericht in zwei unterschiedlichen Stufen. In der ersten Phase ist der Computer nicht mit dem Netz und damit nicht mit dem Endnutzer verbunden. Erste Beispiele werden von einer übergeordneten Instanz eingepflegt – in diesem Fall den Forschern. Ebenso könnte diese Instanz aber auch aus den Eltern oder Erziehungspersonen des Nutzers bestehen. Diese legen erste Einschränkungen fest.

In der zweiten Phase ist das System hingegen online und interagiert mit dem Endnutzer. Nun lernt das System wie jede andere KI auch, die Präferenzen des Users kennen. Da Vorlieben und Ethik nicht immer übereinstimmen, kann vorab festgelegt werden, bis zu welchem Grad welcher Faktor überwiegen soll.

Neben Online-Inhalten sei es auch möglich, dass System in anderen Bereichen einzusetzen. Also Beispiel nannten die Forscher hierfür den Gesundheitssektor. Der Algorithmus könnte bei der Medikamentendosierung verwendet werden. Die Abwägung erfolgt zwischen Medikamentenerfolgsvariable und der Einschränkung der Lebensqualität des Patienten.

*Alexandra Lindner ist Redakteurin von COM! professional.

Werbung

Mehr Artikel

Auf Einladung von Huawei Technologies Austria besuchten auch mehr als 30 Partner und Kunden von mehr als 15 österreichischen Kooperationsunternehmen das Fach-Event in Shanghai. (c) Huawei
News

Huawei Connect 2018: Mit KI zur Smart City

Mitte Oktober 2018 fand in Shanghai die Technologie-Fachmesse „Huawei Connect“ mit Fokus auf Künstliche Intelligenz und smarte Stadtentwicklung statt. Mehr als 30 Kunden und Partner von rund 15 österreichischen Kooperationsunternehmen folgten der Einladung von Huawei Austria und erhielten tiefe Einblicke in die neuesten Technologien – von der „Reisinnovation“ bis zum urbanen Nervensystem. […]

Ein Feldexperiment mit 430 Studenten zeigt von Frauen häufig aufopferndes Verhalten als große Motivationsstütze. (c) pixabay
News

Chefinnen bringen Teams zu Höchstleistungen

Frauengeführte Arbeitsgruppen erzielen bessere Prüfungsergebnisse. Trotzdem beurteilen männliche Team-Mitglieder die Führungsleistung von Frauen schlechter. Zu diesem Schluss kommen Forscher des Bonner Forschungsinstituts zur Zukunft der Arbeit (IZA) in ihrer neuen wissenschaftlichen Erhebung. […]

Hinterlasse jetzt einen Kommentar

Kommentar hinterlassen

E-Mail Adresse wird nicht veröffentlicht.


*


Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.