Die dunkle Seite der künstlichen Intelligenz

Ob Selektion durch Gesichtserkennung, Ausschluss aus Gruppen und von Plattformen, politische Repression oder Diskriminierung im Job: Die Technologien der KI machen es möglich, dass sich Eliten über andere Gruppen von Menschen stellen können. Die Basis dafür liefern stets die gleichen Technologien: Gesichtserkennung, Stimmerkennung, Musteranalyse. Mit diesen Werkzeugen sind clevere Technologen heute in der Lage, die Welt schneller und präziser zu bewerten, als der Mensch. die Frage ist, welches Werturteil diesen Anwendungen zugrunde liegt?

China setzt KI zur Überwachung von Uiguren ein

Gestern tauchten laut einem Beitrag der New York Times Dokumente der chinesischen Regierung auf, die weltweit zu massiver Kritik führten. Die Dokumente legen offen, dass China ein geheimes System für Technologien zur Gesichtserkennung dazu nutzt, die muslimische Minderheit der Uiguren technologisch zu überwachen. Mit diesem Beispiel ist China weltweit die erste Regierung, die Anwendungen der künstlichen Intelligenz auch für politische, und nicht nur für wirtschaftliche Zwecke einsetzt.

Seit Jahren bereits investiert China massiv Investitionen für den Aufbau von Startups zur Gesichtserkennung im Bereich der Sicherheitstechnologien. Laut wired.com plant China in den kommenden Jahren den Aufbau einer 150 Milliarden-KI-Industrie, die rein auf Technologien der KI setzt. In diesem Zusammenhang wird bereits von einem neuen Kalten Krieg der AI gesprochen.

Die Technologien sind mittlerweile so ausgereift, dass sie das auf breiter Front Einsatz finden. Insgesamt, so berichtet die New York Times in ihrem Bericht, soll es damit möglich sein, ca. 11 Millionen Uiguren zu überwachen. Zwar lassen sich diese Zahlen nicht bestätigen und ist der Umfang des Einsatzes dieser Systeme noch nicht gänzlich klar – dennoch ist dies ohne Zweifel ein massiver Eingriff in die Privatsphäre von Menschen mittels KI.

Facebook nutzt Gesichtserkennung zur Optimierung der Werbetechnologie

KI wird aber auch in anderen Zusammenhängen in ähnlich großen Ausmaß im geschäftlichen Umfeld eingesetzt. So nutzt Facebook z.B. zur Analyse der Fotos einen Deep Learning Algorithmus, der die Fotos der 1,2 Milliarden Nutzer auf bekannte Gesichter hin analysiert. Die Zahlen eine deutliche Sprache. Die Facebook Applikation DeepFace ist in der Lage, die
Gesichter mit einem Score von 97% Erfolgsrate besser als der Mensch selbst zu erkennen. Ebenfalls diese Technologie sorgt für kontroverse Diskussionen und ist aus datenschutzrechtlichen Gesichtspunkten sicherlich kein Beispiel für den unbedenklichen Umgang mit KI.

Ethische Standards der KI zur Prävention entwickeln

An beiden Beispielen sieht man, dass Grenzen überschritten werden. Anders als jedoch ein politisches Regime, setzen Unternehmen die KI oftmals lediglich für ihre wirtschaftlichen Zwecke ein. Aber auch hier spielen datenschutzrechtliche und private Bedenken des Individuums eine entscheidende Rolle. Während das Ziel von Facebook ist, die Werbebotschaften präziser zu entwickeln und Kunden an die Plattform zu binden, ist das Ziel Ziel von Chinas Überwachungspolitik eine stärkere Kontrolle des Verhaltens seiner Bürger zu gewährleisten.

In beiden Fällen überschreiten die Entscheider wichtige Grenzen der gesellschaftlichen Nutzung der künstlichen Intelligenz. Stets wird massiv in Technologien investiert, die den Menschen überwachbar machen. Mit dieser Nutzungstendenz beginnt auch gleichzeitig eine völlig neue Ära der Nutzung von KI, die Ära der automatisierten Elitarisierung. Was oft übersehen wird ist, dass die Werturturteile der Entscheidungen die Möglichkeiten bestimmen, wie KI eingesetzt wird.

Die Technologien sind stets die gleichen, ihnen liegen oft gleiche Patente und Verfahren zugrunde. Jedoch unterscheiden sich die Nutzungsszenarien in der Anwendung der jeweils gültigen ethischen Standards. Inwieweit diese gut oder schlecht sind, orientiert sich am Kontext der Anwendung und Bewertung. In kedem Fall aber ist es eine Frage des jeweils gültigen moralischen Kontexts.

Wie die Beispiele zeigen, liegt die Verantwortung heute bei den weltweit führenden Regierungen und Institutionen, die dunkle Seite der KI einzudämmen. Denn als einzelner Mensch ist es nicht möglich, sich diesen Tendenzen zu entziehen. Insofern wird es wichtig werden, für eine Eindämmung der automatisierten Überwachung zu sorgen und einen weltweit akzeptierten regulativen Handlungsrahmen zu entwickeln, in dem KI eingesetzt werden kann.

Photo by fotografierende from Pexels

Empfohlene Beiträge

Kommentar schreiben

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.