Loading...
© Stefanie Hilgarth/Amnesty International

Künstliche Intelligenz und Menschenrechte

Künstliche Intelligenz (KI) ist bereits heute im Einsatz: Die Sprachassistenz-Systeme Siri und Alexa beruhen darauf genauso wie Navigationssysteme wie GoogleMaps und viele andere Online-Anwendungen, die Menschen schon heute in beträchtlichem Umfang assistieren. Künstliche Intelligenz wird in den nächsten Jahren noch viel weitreichender in unser alltägliches Leben eingebunden sein. Das bietet sehr viele Chancen, könnte das Leben vieler Menschen verbessern und dem Wohl von Gesellschaften dienen. Der Einsatz von Künstlicher Intelligenz birgt aber auch Gefahren, insbesondere für die Rechte der Menschen. Eine echte und umfassende gesellschaftliche Diskussion über Chancen und Risiken von Künstlicher Intelligenz steht dabei noch aus.

Was ist Künstliche Intelligenz?

Machine Learning, Deep Learning, Neuronale Netze – diese Techniken können unter dem Begriff Künstliche Intelligenz (KI) zusammengefasst werden. Bei all diesen Techniken geht es um Musterkennung. Große Datensätze (Stichwort „Big Data“) werden dabei analysiert, um Muster in diesen Daten zu erkennen. Diese Analyse findet durch Formeln und Handlungsanweisungen statt – Algorithmen. Während dieses Vorgangs lernt das Programm, welche Muster es gibt und kann diese Erkenntnisse – und das ist der entscheidende Punkt – auf neue Daten anwenden. Hat ein Programm mit einer Vielzahl von Bildern von Menschen gelernt wie ein Gesicht aussieht, kann es nun bei neuen Bildern bewerten, ob darauf ein Gesicht abgebildet ist oder nicht.

WELCHE VORTEILE KÜNSTLICHE INTELLIGENZ UNS BRINGT

KI kann in vielen Bereichen gesellschaftlichen Fortschritt bringen und der weiteren Verwirklichung der Menschenrechte dienen. Der sinnvolle Einsatz von KI kann helfen, zahlreiche Situationen menschenwürdiger zugestalten und zu einer Welt beizutragen, in der die Menschenrechte besser umgesetzt werden. Krankheitsverläufe könnten schneller erkannt und effektiver behandelt werden. Schon jetzt kann Künstliche Intelligenz Krebsstudien, Fachartikel und Krankenakten analysieren und Mediziner*innen wissen lassen, ob ein Krebsfall vorliegt und wie dieser behandelt werden sollte. Diese Technik ist bereits in 230 Krankenhäusern weltweit im Einsatz und kann dazu beitragen, dass das Menschenrecht auf den „höchsten erreichbaren Stand an körperlicher und geistiger Gesundheit“ besser umgesetzt werden kann. Selbst-lernende Roboter könnten schon sehr bald älteren Menschen in der Pflege und im Alltag zur Seite stehen.

Künstliche Intelligenz als Gefahr für Menschenrechte

Der Einsatz von Künstlicher Intelligenz (KI) kann aber auch Gefahren für Menschen und ihre Menschenrechte bedeuten. KI kann sich vor allem negativ auf das Recht auf Gleichheit und Nichtdiskriminierung auswirken, aber auch auf den Schutz der Menschenwürde, den Schutz der Privatshäre und auf zahlreiche andere Menschenrechte, die durch die Nutzung und den Missbrauch von Systemen des maschinellen Lernens beeinträchtigt werden können. Dazu zählt das Recht auf Meinungs- und Vereinigungsfreiheit, auf Teilnahme am kulturellen Leben, auf Gleichheit vor dem Gesetz und auf Zugang zu wirksamen Rechtsmitteln.

Systeme, die Entscheidungen treffen und Daten verarbeiten, können auch wirtschaftliche, soziale und kulturelle Rechte untergraben; so können sie beispielsweise die Bereitstellung lebenswichtiger Dienstleistungen wie Gesundheits- und Bildungswesen beeinflussen und den Zugang zu Möglichkeiten wie Beschäftigung einschränken.

AI kuenstliche-intelligenz-menschenrechte-köpfe4-extra web

Die folgenden Beispiele zeigen, welche negativen Auswirkungen der Einsatz von Künstlicher Intelligenz auf Menschenrechte haben kann.

Künstliche Intelligenz und der Schutz vor Diskriminierung

Beispiel Künstliche Intelligenz im Justizsystem

Problematisch ist die Verwendung von KI, die prognostiziert, wie wahrscheinlich es ist, dass eine inhaftierte Person nach der Entlassung rückfällig wird. Das sogenannte COMPAS-System, das in einigen US-Bundesstaaten eingesetzt wird, bewertet anhand von über 100 Variablen, ob bei einer inhaftierten Person ein geringes, moderates oder hohes Risiko besteht, dass sie rückfällig wird. Diese Ergebnisse dienen Richter*innen maßgeblich als Grundlage für ihre Entscheidung. Obwohl das System den Faktor ethnische Herkunft ausklammern soll, hat eine Studie ergeben, dass Menschen mit schwarzer Hautfarbe doppelt so häufig irrtümlich mit einem „hohen Risiko“ eingestuft wurden als Menschen mit weißer Hautfarbe. Ebenso wurde die Rückfallwahrscheinlichkeit von Menschen mit weißer Hautfarbe unterschätzt.

Die Beispiele zeigen, dass bereits marginalisierte Gruppen durch den Einsatz von künstlicher Intelligenz noch mehr diskriminieren werden können. Sie zeigen außerdem, dass Opfer nicht oder nur schwer herausfinden können, ob sie aufgrund von Algorithmen diskriminiert wurden. Die Verwendung von mathematischen Modellen suggeriert die Illusion von Objektivität, weswegen es schwer ist, gegen diese Entscheidungen vorzugehen. Denn die Berechnungen finden in einer „Black Box“ statt und Außenstehende erfahren nicht, warum die Künstliche Intelligenz zu welchen Ergebnissen gekommen ist. Ohne diese Transparenz lässt sich so ein System jedoch nur schwer in Frage stellen.

Wirkt Künstliche Intelligenz diskriminierend, spricht man von einer Befangenheit der Algorithmen, einem Bias. Dieser Bias kann aus vielen Gründen entstehen. Selbstlernende Softwares bauen immer auf mathematischen Modellen auf, die zu einem gewissen Grad die Wirklichkeit abbilden sollen. Hierbei spielen die Weltanschauung und Sichtweise der Entwickler*innen eine große Rolle. Die wohl wichtigste Ursache, warum es zu einem Bias in einer KI kommen kann, ist die Tatsache, dass die Algorithmen immer mit Vergangenheitsdaten trainieren müssen, um sich Muster anzulernen. Diese Daten sind jedoch in den meisten Fällen mit rassistischen und diskriminierenden Elementen eingefärbt.

Künstliche Intelligenz und der Schutz der Menschenwürde: Recht auf Leben

Beispiel Autonome Waffensysteme

Bereits heute sind teil-autonome Waffensystem im Einsatz, wie zum Beispiel die Harpy-Drohnen (Israel) und das Raketenabschusssystem Counter Rocket (USA). Mit dem technischen Fortschritt besteht die realistische Gefahr, dass vollständig autonome tödliche Waffensysteme zum Einsatz kommen, die selbstständig Ziele identifizieren und töten werden. Die Gefahren, die dies bedeutet, sind in diesem Video sehr anschaulich zusammengefasst. Autonome Waffensysteme sind aus menschenrechtlicher Perspektive zu verurteilen, da sie eine willkürliche Hinrichtung sind und kein Recht auf ein faires Gerichtsverfahren einräumen.

Beispiel Social Profiling

Selbstlernende Algorithmen teilen Menschen aufgrund von Wahrscheinlichkeitsberechnungen und Korrelationen in unterschiedliche Kohorten ein und versehen diese Gruppierungen mit unterschiedlichen Attributen und Charakteristika. Weil beispielsweise mehr Einwohner eines bestimmten Stadtviertels öfters in Zahlungsschwierigkeitenkommen als Bewohner*innen anderer Teile der Stadt, bekommen diese Menschen von ihrer Bank nur einen Kredit mit einer höheren Zinsrate, um das vermeintliche Ausfallsrisiko zu kompensieren. In dieser Bewertung ist die individuelle Situation eines Menschen außen vor. Stattdessen wird die Person statistisch einer Gruppe mit ähnlichen Eigenschaften zugeteilt.

AI köpfe3-extra web

Künstlich Intelligenz und der Schutz der Privatsphäre

Ein Überwachungssystem mit über 170 Millionen Kameras und weiteren 400 Millionen Kameras – viele davon mit KI-Software ausgestattet – ermöglicht es chinesischen Behörden Personen in Echtzeit zu identifizieren, zu verfolgen und schließlich zu fassen. Es ist möglich, jedes erfasste Gesicht mit hinterlegten Ausweisdokumenten abzugleichen, vollständige Bewegungsmuster der vergangenen Woche zu erstellen und festzustellen, wer sich mit wem wann, wo, in welchem Umfeld, wie häufig und für wie lange getroffen hat. Algorithmen und Gesichterkennungssoftware schaffen damit ein System permanenter Überwachung, das ohne diese Technik nie möglich wäre.

In diesem System gibt es im öffentlichen Raum kein Recht mehr auf Privatsphäre – Bürger*innen ist es nicht möglich sich der fast allumfassenden Überwachung zu entziehen oder einer Überwachung zu widersprechen.

Amnesty International kämpft für Künstliche Intelligenz, die die Menschenrechte achtet

Amnesty International kämpft für die Rechte aller Menschen. Menschenrechte sind universell und unveräußerlich – daher gelten sie überall, auch in der der digitalen Welt. Deshalb setzt sich Amnesty International schon seit vielen Jahren dafür ein, dass Menschenrechte auch bei der Entwicklung neuer Technologien wie Algorithmen, maschinellem Lernen und Künstlicher Intelligenz gewahrt sind.

  • Im Jahr 2018 haben wir die Toronto-Erklärung verabschiedet, eine wegweisende Erklärung zum Schutz der Rechte auf Gleichheit und Nichtdiskriminierung in Systemen des maschinellen Lernens.

  • Wir setzen uns weltweit bei Regierungen, internationalen Organisationen und Unternehmen dafür ein, dass die Wahrung der Menschenrechte bei der Entwicklung von Künstlichen Intelligenzen and vergleichbaren Technologien gewahrt bleibt und hierfür ein rechtlicher Rahmen geschaffen wird.

  • Wir fordern weltweites, vollständiges präventives Verbot der Entwicklung von autonomen Waffensystemen. Deshalb haben wir gemeinsam mit 75 internationalen und nationalen Organisationen eine weltweite Kampagne zum Verbot von Killerrobotern gestartet.

  • Wir kämpfen für eine sektorspezifische Aufsicht über KI-Technologien, beginnend im Bereich der Strafjustiz. Technologische Veränderungen in der Polizeiarbeit, von "prädiktiven Polizeisystemen" bis hin zur Einführung der Gesichtserkennung, sind Schlüsselbeispiele für die sich verändernde Natur der Strafverfolgung auf der ganzen Welt.

AI kuenstliche-intelligenz-menschenrechte-köpfe3-extra web | © Stefanie Hilgarth/Amnesty International

Amnesty International fordert

  • Staaten dürfen sich bei der Konzeption oder Implementierung von Systemen des maschinellen Lernens im öffentlichen Kontext nicht an diskriminierenden oder anderweitig rechteverletzenden Praktiken beteiligen oder diese unterstützen.

  • Staaten haben die Pflicht, private Akteure zur Rechenschaft ziehen, wenn Verstöße gegen Menschenrechte vorliegen.

  • Staaten müssen Möglichkeiten schaffen, gegen möglicherweise diskriminierende Entscheidungen auf Basis von KI rechtlich vorgehen zu können und ggf. Wiedergutmachung leisten.

  • Staaten und private Akteure müssen größtmögliche Transparenz bei der Nutzung von KI-Systemen sicherstellen. Dazu gehört, dass die Auswirkungen auf die betroffenen Personen von unabhängigen Stellen überprüft werden können.

  • Private Akteure haben eine Verantwortung für die Achtung der Menschenrechte, welche unabhängig von staatlichen Verpflichtungen besteht. Als Teil dieser Verantwortung müssen privatwirtschaftliche Akteure fortlaufend proaktive und reaktive Schritte unternehmen, um sicherzustellen, dass sie keine Menschenrechtsverletzungen verursachen oder zu solchen beitragen ("human rights due diligence“).

Welche Chancen und Gefahren die Digitalisierung für Menschenrechte bringt

Mehr dazu

Corona-Krise: Lassen wir niemanden zurück!

Jetzt spenden