»
Afrika
»
Kenia »
»
»
Kenia »
»
»
Kenia »
»

Gründung der Content Moderators Union in Afrika: Hinter ChatGPT, Facebook und Co. stecken prekäre und traumatisierende Arbeitsbedingungen

Dossier

Logo der Content Union Workers in Afrika: gelbe und weiße Schrift auf schwarzem GrundAnfang Mai 2023 hat sich die erste Content Moderators Union Afrikas in Nairobi/Kenia gegründet. Content Moderator*innen prüfen Inhalte, die von künstlicher Intelligenz oder auch auf Social Media Plattformen wie TikTok, Facebook und Instagram aufgespürt und verarbeitet werden. Dabei geht es um menschenfeindliche und erniedrigende sowie gewaltvolle und traumatisierende Inhalte, die die Prüfer*innen bei der Sichtung selbst oft krank machen. Diese Inhalte werden markiert, damit sie gelöscht und von KI als gefährlich erkannt werden. Diese Arbeit ist wie die meiste gesundheitsschädliche Arbeit in den globalen Süden, in dem Fall u.a. nach Kenia ausgelagert. Die Kolleg*innen erhalten nur etwa zwischen 1,50 und 2,20 Dollar die Stunde. Seit 2019 versuchen sie sich zu organisieren. Das Subunternehmen Sama hat nun viele Kolleg*innen entlassen, die Facebook und Co. auf Weiterzahlung der Löhne verklagen wollen – siehe dazu weitere Infos:

  • Proteste bei Sama in Kenia: „Die Moderation von Inhalten ist ein einzigartiger Job, der eine psychiatrische Betreuung rund um die Uhr erfordert“ – und sie nicht bekommt New
    Die Moderation von Inhalten ist ein einzigartiger Job, der eine psychiatrische Betreuung rund um die Uhr erfordert. Das wurde uns bei Sama sowohl bei Einzelsitzungen als auch bei Gruppensitzungen verweigert. Sie priorisierten die Arbeit mehr als die Mitarbeiter. Vielfach wurden uns Wellness-Sitzungen verweigert, die uns dabei helfen sollten, mit den Inhalten umzugehen und uns davon zu lösen. Wir waren wochen- und monatelang ohne jegliche psychiatrische Hilfe.
    Wir fordern gleiche Bezahlung wie der Rest der Welt in Bezug auf die Moderation von Inhalten. Wir müssen mehr für die psychische Gesundheit, bessere Bezahlung und bessere Arbeitsbedingungen fordern.
    Wir waren bei Sama sehr giftigen Arbeitsbedingungen ausgesetzt, hinzu kommen die Inhalte, mit denen wir umgingen: Pornografie, grafische Inhalte, Enthauptungen, Vergewaltigungen und sehr unmenschliche Inhalte. Wir leiden unter einer posttraumatischen Belastungsstörung, manche von uns sind depressiv.
    Wir können uns nicht beeilen, eine Arbeit zu finden, die durch Stress, Depressionen und PTBS „unsere Jugend tötet“. Wir können uns auf eine Arbeit stürzen, auf die wir nicht vorbereitet sind. Wir haben für all diese Themen keinen rechtlichen Rahmen. Wir haben gelitten, weil wir nicht ausreichend geschützt wurden“ engl. Thread von Voice of African Content Moderators  vom 8. Aug. 2023 externer Link
  • 200 Contentmoderator*innen verklagen in Kenia Facebook auf 1,6 Milliarden US-Dollar Entschädigung wegen gewaltvoller Arbeit – Urteil am 10. Juli 2023 erwartet
    • 200 ehemalige Content*Moderator*innen in Kenia verklagen Facebook
      „… Acht Stunden am Tag musste er sich in seinem Job als Moderator für einen Facebook-Auftragnehmer Schreckliches ansehen, damit die Welt es nicht sehen musste. Einige überwältigte Kolleg*innen würden schreien oder weinen, sagte er. Jetzt gehört Nkunzimana zu den fast 200 ehemaligen Mitarbeitern in Kenia, die Facebook und den lokalen Auftragnehmer Sama wegen der Arbeitsbedingungen verklagen, die Auswirkungen auf Moderator*innen in sozialen Medien auf der ganzen Welt haben könnten. Es ist die erste bekannte gerichtliche Anfechtung außerhalb der Vereinigten Staaten, wo Facebook sich 2020 mit den Moderatoren geeinigt hat. Die Gruppe war im ausgelagerten Zentrum des Social-Media-Riesen für die Moderation von Inhalten in Kenias Hauptstadt Nairobi beschäftigt, wo die Arbeitenden Posts, Videos, Nachrichten und andere Inhalte von Nutzern aus ganz Afrika überprüfen und illegale oder schädliche Inhalte, die gegen die Community-Standards und die Nutzungsbedingungen verstoßen, entfernen. Die Moderator*innen aus mehreren afrikanischen Ländern fordern einen Entschädigungsfonds in Höhe von 1,6 Milliarden Dollar, nachdem sie sich über schlechte Arbeitsbedingungen, unzureichende psychologische Betreuung und niedrige Löhne beschwert haben. Anfang dieses Jahres wurden sie von Sama entlassen, als das Unternehmen sich aus dem Geschäft mit der Moderation von Inhalten zurückzog. Sie behaupten, dass die Unternehmen eine gerichtliche Anordnung ignorieren, ihre Verträge zu verlängern, bis der Fall gelöst ist.
      Facebook und Sama haben ihre Beschäftigungspraktiken verteidigt.
      Da nicht abzusehen ist, wie lange es dauern wird, bis der Fall abgeschlossen ist, sind die Moderator*innen verzweifelt, weil ihnen das Geld und die Arbeitserlaubnis ausgehen und sie mit den traumatischen Bildern kämpfen, die sie verfolgen. „Wenn du dich wohl fühlst, wenn du die Facebook-Seite durchstöberst, dann deshalb, weil es jemanden wie mich gibt, der dort auf dem Bildschirm war und sich gefragt hat: ‚Ist es okay, hier zu sein?'“ sagte Nkunzimana, ein dreifacher Vater aus Burundi, gegenüber The Associated Press in Nairobi. Der 33-Jährige sagte, die Inhaltsmoderation sei wie „Soldaten“, die eine Kugel für die Facebook-Nutzer abfangen. Die Arbeitenden beobachten schädliche Inhalte, die Mord, Selbstmord und sexuelle Übergriffe zeigen, und sorgen dafür, dass sie entfernt werden. Für Nkunzimana und andere war der Job anfangs mit einem Gefühl des Stolzes verbunden, da sie sich als „Helden für die Gemeinschaft“ fühlten, sagte er. Aber als der Kontakt mit alarmierenden Inhalten bei einigen von ihnen, die wie er vor politischer oder ethnischer Gewalt in ihrer Heimat geflohen waren, vergangene Traumata wieder aufleben ließ, fanden die Moderator*innen wenig Unterstützung und eine Kultur der Geheimhaltung. Sie wurden aufgefordert, Geheimhaltungsvereinbarungen zu unterschreiben. Persönliche Gegenstände wie Telefone waren bei der Arbeit nicht erlaubt. Nach seiner Schicht ging Nkuzimana erschöpft nach Hause und schloss sich oft in seinem Schlafzimmer ein, um zu vergessen, was er gesehen hatte. Selbst seine Frau hatte keine Ahnung, wie seine Arbeit aussah. Heute schließt er sich in seinem Zimmer ein, um den Fragen seiner Söhne zu entgehen, warum er nicht mehr arbeitet und warum sie sich das Schulgeld wahrscheinlich nicht mehr leisten können. Das Gehalt für Content-Moderatoren betrug 429 US-Dollar pro Monat, wobei Nicht-Kenianer zusätzlich eine kleine Auslandszulage erhielten. Der Auftragnehmer von Facebook, das in den USA ansässige Unternehmen Sama, hat wenig getan, um sicherzustellen, dass den Moderator*innen in seinem Büro in Nairobi professionelle posttraumatische Beratung angeboten wird, so Nkuzimana. Er sagte, die Berater*innen seien schlecht ausgebildet, um mit dem umzugehen, was seine Kolleg*innen durchmachen mussten. Jetzt, wo es keine psychologische Betreuung gibt, geht er stattdessen in die Kirche. (…) In Ländern wie Kenia, in denen viele billige Arbeitskräfte zur Verfügung stehen, ist die Auslagerung solch sensibler Arbeiten „eine Geschichte über eine ausbeuterische Industrie, die die globale wirtschaftliche Ungleichheit zu ihrem Vorteil ausnutzt, Schaden anrichtet und dann keine Verantwortung übernimmt, weil die Firmen sagen können: ‚Nun, wir haben so und so nie beschäftigt, das war, du weißt schon, die dritte Partei'“, sagte sie. Außerdem ist die psychologische Betreuung vielleicht nicht die beste, und es gibt Bedenken hinsichtlich der Vertraulichkeit der Therapie, sagte Roberts, ein außerordentlicher Professor für Informationsstudien. Der Unterschied zum Gerichtsverfahren in Kenia sei, dass sich die Moderator*innen organisieren und sich gegen ihre Bedingungen wehren, was zu einer ungewöhnlichen Sichtbarkeit führt. Die übliche Taktik in solchen Fällen in den USA sei es, sich zu einigen, aber „wenn die Fälle an anderen Orten vor Gericht gebracht werden, ist es für die Unternehmen vielleicht nicht so einfach, das zu tun“. Facebook hat weltweit in Moderationszentren investiert, nachdem es beschuldigt wurde, die Verbreitung von Hassreden in Ländern wie Äthiopien und Myanmar zuzulassen, wo Konflikte Tausende von Menschen töteten und schädliche Inhalte in einer Vielzahl von Landessprachen veröffentlicht wurden. Das Schicksal der Klage der Moderatoren liegt beim kenianischen Gericht, die nächste Anhörung ist am 10. Juli…“ Artikel von Kelvin Chan vom 29. Juni 2023 bei Wral News externer Link („Facebook content moderators in Kenya call the work ‚torture.‘ Their lawsuit may ripple worldwide“)
    • Die Content Modarators Union Africa dankt allen, die für den Gerichtsprozess gespendet haben
      „Besonderen Dank an @Foxglovelegal und an alle, die den Moderatorinnen und Moderatoren in dieser schwierigen Zeit zur Seite stehen und für Gerechtigkeit kämpfen. A luta continua, vitória é certa!“ Tweet von Voice of African Content Moderators vom 29. Juli 2023 externer Link (engl.)
  • Die Content Moderators Union of Africa sammelt Spenden für ihre Klage gegen Facebook
    „Wir sind eine Gruppe von über 180 Facebook-Inhaltsmoderatoren in Nairobi, Kenia. Facebook und sein Outsourcing-Unternehmen Sama haben uns vor kurzem in einer Scheinentlassung entlassen. Wir verklagen Facebook vor Gericht, aber trotz gerichtlicher Anordnungen, dass unsere Gehälter weitergezahlt werden müssen, haben Facebook und Sama unsere Gehälter einbehalten. Deshalb können wir uns keine Miete leisten, unsere Familien nicht ernähren und nicht einmal für uns selbst sorgen. Wir wollen weiterkämpfen, aber wir können es uns nicht leisten zu leben und bitten euch um eure Hilfe. (…) Kürzlich haben Facebook und sein in Kenia ansässiges Outsourcing-Unternehmen Sama uns alle in einer Scheinentlassung entlassen. Uns wurde schnell klar, dass unsere Arbeitsplätze nicht gestrichen wurden, sondern dass Facebook einfach den Anbieter von Sama zu einem anderen Outsourcing-Unternehmen, Majorel, wechselte. Als wir versuchten, uns erneut bei Majorel zu bewerben, mussten wir schockiert feststellen, dass wir auf eine schwarze Liste gesetzt worden waren. Wir haben beschlossen, Facebook und Sama zu verklagen. Daraufhin erließ der Richter einen Gerichtsbeschluss, der unsere Entlassung verhinderte und Facebook und Sama anordnete, uns unsere Gehälter zu zahlen, bis eine vollständige Anhörung stattfinden kann. Facebook und Sama ignorieren den Gerichtsbeschluss und haben uns unsere April-Gehälter noch nicht ausgezahlt. Obwohl unsere Arbeit lebenswichtig ist, werden wir von Facebook und seinen Outsourcing-Firmen schlecht bezahlt. Die meisten von uns verdienten vor dem Verlust ihres Arbeitsplatzes etwa 2,20 Dollar. Wir haben keine Ersparnisse. Viele von uns (90 % Migrant*innen) sind mittellos und nicht in der Lage, eine neue Arbeit zu finden, Miete und Arztrechnungen zu bezahlen oder unsere Familien zu ernähren…“ Spendenkampagne auf GoGetFunding.com vom Mai 2023 externer Link (engl.)
  • Content-Arbeiter*innen, die Inhalte prüfen und markieren organisieren sich
    „Content Moderatoren in Kenia haben eine Gewerkschaft gegründet, die African Content Moderators Union. Anlass sind die Umstände bei bei den beauftragten Subunternehmer: prekäre Arbeitsbedingungen, teilweise sehr gewaltvoller Content und keine psychologische Betreuung. CM sichten im Minutentakt für Techunternehmen wie ChatGPT, TikTok and Facebook Beiträge, die u. a. Enthauptungen, Kindesmissbrauch und Vergewaltigungen zeigen. Ihre Bezahlung schwankt zwischen 1,50 $ pro Stunde. Nicht selten erleiden die Beschäftigten eine PTBS [Posttraumatische Belastungsstörung]. Der Gründung ging ein langer Weg des Organizing inkl. Union Busting voraus. Alles startete 2019 mit Daniel Motaung, der seinen AG Sama verklagte nachdem dieser ihm kündigte. Motaung fungierte u. a. als Streikführer.“ Thread von Redworkersunion vom 22. Mai 2023 externer Link
  • 150 Arbeitende von u.a. ChatGPT, TikTok und Facebook stimmen bei einem wichtigen Treffen in Nairobi für eine Gewerkschaft
    „Mehr als 150 Arbeitende, deren Arbeit den KI-Systemen von Facebook, TikTok und ChatGPT zugrunde liegt, versammelten sich am Montag in Nairobi und erklärten sich bereit, die erste afrikanische Gewerkschaft für Content-Moderatoren zu gründen – ein Schritt, der erhebliche Auswirkungen auf die Geschäfte einiger der größten Tech-Unternehmen der Welt haben könnte. Die jetzigen und ehemaligen Arbeitenden, die alle bei Outsourcing-Firmen beschäftigt sind, haben Inhalte für KI-Tools moderiert, die von Meta, Bytedance und OpenAI – den jeweiligen Eigentümern von Facebook, TikTok und dem bahnbrechenden KI-Chatbot ChatGPT – eingesetzt werden. Trotz der psychischen Belastung durch die Arbeit, die bei vielen Moderatoren und Moderatorinnen zu PTBS geführt hat, gehören ihre Jobs zu den am schlechtesten bezahlten in der globalen Tech-Industrie: Einige Arbeitende verdienen nur 1,50 Dollar pro Stunde. Als die Nachricht von der erfolgreichen Abstimmung über die Registrierung der Gewerkschaft verlesen wurde, brach der vollbesetzte Saal im Mövenpick Hotel in Nairobi in Jubel und Applaus aus, wie ein von TIME eingesehenes Video der Veranstaltung zeigt. Konfetti fiel auf die Bühne und es ertönte Jubelmusik, während die Menge weiter jubelte. Die Gründung der Content Moderators Union ist der Höhepunkt eines Prozesses, der 2019 begann, als Daniel Motaung, ein Facebook-Content-Moderator, von seinem Posten bei der Outsourcing-Firma Sama entlassen wurde, nachdem er versucht hatte, eine Gewerkschaft der Arbeitenden namens Alliance zu gründen. Motaung, dessen Geschichte zuerst von TIME aufgedeckt wurde, verklagt nun sowohl Facebook als auch Sama vor einem Gericht in Nairobi. Motaung reiste aus seiner Heimat Südafrika an, um am Tag der Arbeit an dem Treffen von mehr als 150 Content-Moderatoren in Nairobi teilzunehmen, und sprach zu der Gruppe.
    „Als ich die Allianz 2019 gründete, hätte ich nie gedacht, dass wir heute hier stehen würden – mit Moderator*innen aus allen großen Social-Media-Riesen, die die erste afrikanische Moderator*innengewerkschaft bilden“, sagte Motaung in einer Erklärung. „Es gab noch nie mehr von uns. Unsere Sache ist richtig, unser Weg ist gerecht, und wir werden uns durchsetzen. Ich könnte nicht stolzer auf die heutige Entscheidung sein, die Content Moderators Union zu gründen.“ (…) „Es braucht ein Dorf, um ein Problem zu lösen, aber heute haben die kenianischen Moderator*innen eine Armee gebildet“, sagte Martha Dark, die Co-Direktorin von Foxglove, in einer Erklärung. „Von TikTok bis Facebook sind diese Menschen mit den gleichen Problemen konfrontiert. Toxische Inhalte, keine psychische Betreuung, prekäre Arbeit – das sind systemische Fehler bei der Moderation von Inhalten.
    Die Moderatoren von TikTok, die bei der Outsourcing-Firma Majorel beschäftigt sind, erklärten ebenfalls, dass sie sich an der Gewerkschaft beteiligen werden. „Es war unglaublich, so viele Menschen heute zusammen zu sehen“, sagte James Oyange, ein ehemaliger TikTok-Moderator bei Majorel, der eine führende Rolle bei der Organisierung seiner ehemaligen Kolleg*innen übernommen hat. „Die Menschen sollten wissen, dass es nicht nur Meta ist – in jedem Social-Media-Unternehmen gibt es Arbeitende, die verroht sind und ausgebeutet wurden. Aber heute fühle ich mich mutig, wenn ich sehe, dass so viele von uns entschlossen sind, etwas zu ändern. Die Unternehmen sollten zuhören – aber wenn sie es nicht tun, werden wir sie zwingen. Und wir hoffen, dass die kenianischen Gesetzgeber und die Gesellschaft sich mit uns verbünden werden, um diese Arbeit zu verändern.“
    Arbeitende, die OpenAI bei der Entgiftung des KI-Chatbots ChatGPT geholfen haben, waren bei der Veranstaltung in Nairobi anwesend und erklärten, dass sie ebenfalls der Gewerkschaft beitreten werden. (…) „Zu lange wurden wir, die Arbeitenden, die die KI-Revolution vorantreiben, als etwas anderes und weniger als Moderatoren behandelt“, sagte Richard Mathenge, ein ehemaliger ChatGPT-Moderator, der am Vertrag des Outsourcing-Unternehmens Sama mit OpenAI arbeitete, der 2022 endete. „Unsere Arbeit ist genauso wichtig und sie ist auch gefährlich. Wir haben heute einen historischen Schritt gemacht. Der Weg ist lang, aber wir sind entschlossen, weiterzukämpfen, damit die Menschen nicht so missbraucht werden, wie wir es wurden…“ Artikel von Billy Perrigo vom 1. Mai 2023 in Time externer Link („150 African Workers for ChatGPT, TikTok and Facebook Vote to Unionize at Landmark Nairobi Meeting”)
  • Siehe dazu auch den Artikel von Niza Nondo vom 19. Mai 2023 externer Link„Online-Moderatorinnen und -Moderatoren in Afrika, die täglich mit verstörenden Inhalten konfrontiert sind, wollen besseren Schutz und einen fairen Lohn“: „… Brownie ist auf Inhalte gestoßen, die von Kinderpornografie über Material, das von Gruppen des organisierten Verbrechens und Terroristen in Umlauf gebracht wird, bis hin zu Bildern aus Kriegsgebieten auf der ganzen Welt reichen, einschließlich der russischen Invasion in der Ukraine. „Ich habe jeden Monat mehr als 500 Enthauptungen gesehen“, sagt er. Brownie zog von Südafrika, wo er zuvor in einem Callcenter gearbeitet hatte, nach Nairobi, wo er als Subunternehmer für Facebooks Hauptmoderationszentrum in Ostafrika arbeitete, das von einem US-amerikanischen Unternehmen namens Sama AI betrieben wurde. (…) Majorel, ein weiteres Unternehmen, das in Afrika tätig ist, aber seinen Sitz in Luxemburg hat, wird wegen diskriminierender Einstellungspraktiken verklagt, weil es angeblich Sama-Mitarbeiter*innen nach ihren schlechten Leistungen auf eine schwarze Liste gesetzt hat…“ (engl.)
  • Weitere Infos bei Voice of Content Moderators auf Twitter externer Link [@ContmoderatorAf] und @BerurFm und #JusticeForContentModerators
  • Kolleg*innen in Kenia markieren für weniger als zwei Dollar die Stunde für einen Open AI Sicherheitsprogramm toxische Inhalte
    „… ChatGPT wurde bei seiner Veröffentlichung im November letzten Jahres als eine der beeindruckendsten technologischen Innovationen des Jahres 2022 gepriesen. Der leistungsstarke Chatbot mit künstlicher Intelligenz (KI) kann Texte zu fast jedem Thema erstellen, von einem Shakespeare-Sonett im Stil von Megan Thee Stallion bis hin zu komplexen mathematischen Theoremen, die ein Fünfjähriger verstehen kann. Innerhalb einer Woche hatte es mehr als eine Million Nutzer*innen. Der Erfinder von ChatGPT, OpenAI, befindet sich Berichten zufolge in Gesprächen mit Investoren, um Gelder mit einer Bewertung von 29 Milliarden Dollar zu beschaffen, einschließlich einer möglichen Investition von 10 Milliarden Dollar durch Microsoft. Damit würde OpenAI, das 2015 in San Francisco mit dem Ziel gegründet wurde, superintelligente Maschinen zu bauen, zu einem der wertvollsten KI-Unternehmen der Welt werden. Aber die Erfolgsgeschichte ist nicht nur die eines Genies aus dem Silicon Valley. In seinem Bestreben, ChatGPT weniger gefährlich zu machen, setzte OpenAI ausgelagerte kenianische Arbeitskräfte ein, die weniger als 2 Dollar pro Stunde verdienen (…)
    Die Arbeit war für OpenAI lebenswichtig. Der Vorgänger von ChatGPT, GPT-3, hatte bereits eindrucksvoll bewiesen, dass er Sätze aneinanderreihen kann. Aber es war ein schwieriger Verkauf, da die App auch dazu neigte, gewalttätige, sexistische und rassistische Bemerkungen zu machen. Das liegt daran, dass die KI mit Hunderten von Milliarden von Wörtern aus dem Internet trainiert wurde – einem riesigen Fundus menschlicher Sprache. Dieser riesige Trainingsdatensatz war der Grund für die beeindruckenden sprachlichen Fähigkeiten von GPT-3, aber er war vielleicht auch sein größter Fluch. Da Teile des Internets voller Schädlichkeit und Verzerrungen sind, gab es keine einfache Möglichkeit, diese Teile der Trainingsdaten zu bereinigen. Selbst ein Team aus Hunderten von Menschen hätte Jahrzehnte gebraucht, um den riesigen Datensatz manuell zu durchforsten. Nur durch den Aufbau eines zusätzlichen KI-gestützten Sicherheitsmechanismus konnte OpenAI diesen Schaden eindämmen und einen alltagstauglichen Chatbot erstellen.
    Um dieses Sicherheitssystem zu entwickeln, nahm sich OpenAI ein Beispiel an Social-Media-Unternehmen wie Facebook, die bereits gezeigt hatten, dass es möglich ist, KIs zu entwickeln, die schädliche Sprache wie Hassreden erkennen und von ihren Plattformen entfernen können. Die Prämisse war einfach: Füttere eine KI mit markierten Beispielen von Gewalt, Hassreden und sexuellem Missbrauch, und das Tool kann lernen, diese Formen der Toxizität in der freien Natur zu erkennen. Dieser Detektor würde in ChatGPT eingebaut, um zu prüfen, ob er die Giftigkeit der Trainingsdaten widerspiegelt, und sie herauszufiltern, bevor sie den Nutzer erreichen. Er könnte auch helfen, giftige Texte aus den Trainingsdaten zukünftiger KI-Modelle zu entfernen.
    Um diese Kennzeichnungen zu erhalten, schickte OpenAI ab November 2021 Zehntausende von Textfragmenten an ein Outsourcing-Unternehmen in Kenia. Viele dieser Texte schienen aus den dunkelsten Winkeln des Internets zu stammen. In einigen davon wurden Situationen wie sexueller Kindesmissbrauch, Bestialität, Mord, Selbstmord, Folter, Selbstverletzung und Inzest detailliert beschrieben.
    Der Outsourcing-Partner von OpenAI in Kenia war Sama, ein Unternehmen mit Sitz in San Francisco, das Arbeiter in Kenia, Uganda und Indien beschäftigt, um Daten für Kunden aus dem Silicon Valley wie Google, Meta und Microsoft zu kennzeichnen. Sama vermarktet sich selbst als „ethische KI“-Firma und behauptet, mehr als 50.000 Menschen aus der Armut geholt zu haben.
    Die von Sama im Auftrag von OpenAI beschäftigten Datenetikettierer/innen erhielten je nach Dienstalter und Leistung einen Lohn zwischen 1,32 und 2 US-Dollar pro Stunde. Für diesen Artikel hat TIME Hunderte von Seiten interner Dokumente von Sama und OpenAI eingesehen, darunter auch die Gehaltsabrechnungen der Beschäftigten, und vier Sama-Mitarbeiter interviewt, die an dem Projekt gearbeitet haben. Alle Angestellten haben aus Sorge um ihren Lebensunterhalt unter der Bedingung der Anonymität gesprochen. Die Geschichte der Arbeiterinnen und Arbeiter, die ChatGPT möglich gemacht haben, gibt einen Einblick in die Bedingungen in diesem wenig bekannten Teil der KI-Industrie, der dennoch eine wichtige Rolle bei den Bemühungen spielt, KI-Systeme für die Öffentlichkeit sicher zu machen. „Trotz der grundlegenden Rolle, die diese Fachleute für die Datenanreicherung spielen, gibt es immer mehr Untersuchungen, die die prekären Arbeitsbedingungen dieser Beschäftigten aufzeigen“, sagt die Partnership on AI, ein Zusammenschluss von KI-Organisationen, dem OpenAI angehört. „Dies könnte das Ergebnis der Bemühungen sein, die Abhängigkeit der KI von diesen vielen Arbeitskräften zu verbergen, wenn die Effizienzgewinne der Technologie gefeiert werden. Aus den Augen, aus dem Sinn.“ (…)
    Drei Mitarbeiter erzählten TIME, dass sie pro Neun-Stunden-Schicht zwischen 150 und 250 Textpassagen lesen und beschriften sollten. Diese Textabschnitte konnten zwischen 100 und weit über 1.000 Wörtern liegen. Alle vier von TIME befragten Angestellten beschrieben, dass sie von der Arbeit psychisch gezeichnet waren. Obwohl sie berechtigt waren, an Sitzungen mit „Wellness“-Beratern teilzunehmen, sagten alle vier, dass diese Sitzungen nicht hilfreich waren und aufgrund der hohen Anforderungen, bei der Arbeit produktiver zu sein, selten stattfanden. Zwei sagten, dass sie nur die Möglichkeit hatten, an Gruppensitzungen teilzunehmen, und einer sagte, dass ihre Bitten, stattdessen Einzelgespräche mit Beratern zu führen, von der Sama-Geschäftsführung wiederholt abgelehnt wurden…“ Artikel von Billy Perrigo und Julia Zorthian vom 18. Januar 2023 in der Time externer Link („Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic”)
  • Siehe dazu auch den Artikel von Billy Perrigo vom 17. Februar 2022 in Time externer Link„Einblicke in den afrikanischen Sweatshop von Facebook“: „In einem tristen Bürogebäude in der Nähe eines Slums am Rande von Nairobi, Kenia, sitzen fast 200 junge Männer und Frauen aus verschiedenen afrikanischen Ländern an Schreibtischen, die an Computerbildschirme geklebt sind, auf denen sie Videos von Morden, Vergewaltigungen, Selbstmorden und sexuellem Kindesmissbrauch ansehen müssen. Diese jungen Afrikanerinnen und Afrikaner arbeiten für das Unternehmen Sama, das sich selbst als „ethische KI“-Outsourcing-Firma bezeichnet und seinen Hauptsitz in Kalifornien hat…“

Außerdem im LabourNet Germany zu Social Media und Arbeit:

Kurzlink: https://www.labournet.de/?p=212098
nach oben