Klickarbeiter – Ausgebeutet für künstliche Intelligenz 

Künstliche Intelligenz ist längst Teil unseres Alltags geworden. Plattformen wie Netflix, Spotify und Amazon verwenden KI-Algorithmen, um personalisierte Empfehlungen für Filme, Musik und Produkte zu erstellen. Selbstfahrende Autos verwenden fortschrittliche KI-Algorithmen, um Verkehrssituationen zu analysieren, Hindernisse zu erkennen und sich sicher durch den Verkehr zu navigieren und viele Unternehmen setzen KI-gesteuerte Chatbots ein, um Kundenanfragen zu bearbeiten, Support zu bieten oder Informationen bereitzustellen. Doch Künstliche Intelligenz kann noch mehr: so ist es mit nur wenigen Klicks möglich, mittels diverser Programme verschiedenste Texte, Bilder und Videos zu generieren – doch wer trainiert diese Künstliche Intelligenz eigentlich? 

Zunächst einmal sollte geklärt werden, was man eigentlich unter dem Begriff „Künstliche Intelligenz” versteht. Laut dem Europäischen Parlament bezieht sich Künstliche Intelligenz (KI) auf die Fähigkeit von Computersystemen oder Maschinen verschiedene Aufgaben auszuführen, die normalerweise menschliche Intelligenz erfordern würden. Diese Systeme werden so gestaltet, dass sie Probleme erkennen, aus Fehlern lernen, Schlussfolgerungen ziehen, sich anpassen und in einigen Fällen sogar natürliche Sprache verstehen können.

Es gibt verschiedene Arten von künstlicher Intelligenz, darunter:

  1. Schwache KI: Diese Art von KI ist im Moment die meist verbreitetste Art von KI. Sie ist darauf spezialisiert, eine bestimmte Aufgabe oder ein bestimmtes Problem zu lösen. Hierzu zählen selbstfahrende Autos, Suchmaschinen sowie Bild-, Sprach- und Gesichtserkennung. Diese Systeme sind auf ein eng umrissenes Aufgabengebiet beschränkt, ist von menschlicher Intelligenz aber noch weit entfernt. 
  2. Starke KI: Im Gegensatz zur schwachen KI würde eine starke KI die Fähigkeit besitzen, komplexe Probleme zu verstehen, zu lernen und sich selbst zu verbessern Aufgaben, ähnlich wie ein menschliches Gehirn. 
  3. Künstliche Superintelligenz: Eine künstliche Superintelligenz hätte ein Bewusstsein für die eigene Existenz und würde eine KI bezeichnen, die nicht nur menschliche Intelligenz übertrifft, sondern in nahezu jedem kognitiven Bereich weit überlegen ist.

Im Moment gibt es noch keine eindeutigen Beispiele für starke KI oder künstliche Superintelligenz. 

Auch der Chatbot „ChatGPT”, eine der mittlerweile bekanntesten KI-Technologien, ist eine Form von schwacher KI, denn obwohl ChatGPT in der Lage ist verschiedenste Fragen zu beantworten, Konversationen zu führen, Texte zu erstellen, zu korrigieren oder zu übersetzen etc., fehlt der künstlichen Intelligenz die Fähigkeit zum logischen Denken, zur Selbstverbesserung und zur eigenständigen Lösung komplexer Probleme. Infolgedessen muss ChatGPT, sowie andere künstliche Intelligenzen, von Menschen (“Klickarbeitern”) manuell trainiert werden – und das für einen Hungerlohn. 

Entwickelt wurde der Chatbot vom US-amerikanischen Unternehmen OpenAI mit Sitz in Kalifornien. Das Training von ChatGPT soll allerdings in Zusammenarbeit mit der kenianischen Firma Sama vorgenommen worden sein. 

Einer Recherche des TIME Magazins ergab, dass Arbeiter:innen in neun Stunden langen Schichten bis zu 250 Textabschnitte lesen mussten, die bis zu 1.000 Wörter lang waren. Zum besseren Verständnis: Dieser Blogeintrag hat knapp über 800 Wörter. Als Gegenleistung erhielten die Arbeiter:innen – je nach Dienstalter und Leistung – einen Stundenlohn zwischen 1,32 und 2 US-Dollar. 

In diesem Zusammenhang muss zudem erwähnt werden, dass der künstlichen Intelligenz vor allem beigebracht wurde, was “toxische Inhalte” sind, damit diese infolgedessen aussortiert werden konnten. Aber damit eine KI lernen kann, was toxische Inhalte sind, muss man ihr zuerst zeigen, welche Inhalte überhaupt als „toxisch“ gelten. Sprich, bei den Texten, welche von den Klickarbeitern durchgelesen und mit entsprechenden Labels versehen werden mussten, handelt es sich mitunter um detaillierte Beschreibungen von Mord, Folter, Inzest, Selbstverletzung, sexueller Gewalt (auch gegen Kinder), Suiziden, Tierquälerei und ähnlichem. Gegenüber TIME berichtet ein ehemaliger Mitarbeiter: „Das war Folter. […] Man liest eine Reihe von Aussagen wie dieser die ganze Woche über. Wenn es dann Freitag wird, ist man vom Nachdenken darüber verstört.” Um mit den teils traumatischen Darstellungen umzugehen, baten die Arbeiter:innen um psychologische Unterstützung, die ihnen jedoch nur begrenzt von Sama gewährt wurde.

Im Februar 2022 beauftragte OpenAI das Unternehmen Sama erneut mit einem Projekt, das die Kategorisierung von ähnlich verstörenden Bildern vorsah. Doch nur wenige Wochen später löste Sama den Vertrag mit OpenAI vorzeitig auf, acht Monate vor dessen Ablauf. 

OpenAI bestreitet diese Darstellung nicht direkt, sondern sie wird vielmehr als unverzichtbar für die Entwicklung künstlicher Intelligenz angesehen. Eine Stellungnahme besagt: „Die Klassifizierung und Filterung schädlicher [Texte und Bilder] ist ein notwendiger Schritt, um den Anteil von gewalttätigen und sexuellen Inhalten in Trainingsdaten zu minimieren und Tools zu entwickeln, die schädliche Inhalte erkennen können.”

Das kenianische Unternehmen Sama bezeichnet sich selbst sogar als “ethisches KI-Unternehmen”, welches bisher 50.000 Menschen helfen konnte, der Armut zu entfliehen. Der Bericht vom TIMES Magazin zeigt, wie beschrieben, aber auch, dass die Betroffenen das nicht immer so sehen. 

#KünstlicheIntelligenz #ModerneSklaverei #Ausbeutung #Sklaverei #Menschenhandel #AgainstHumanTrafficking #GegenMenschenhandel #EndExploitation #EndTrafficking #HopeForTheFuture #Österreich