Contenu Perturbant et Faible Rémunération : Des Travailleurs Kenyans Dénoncent l’Exploitation dans les Emplois de l’IA
Les travailleurs kényans formant l’IA font face à l’exploitation : faible rémunération, détresse émotionnelle due à un contenu perturbant, et poursuites judiciaires contre les entreprises technologiques pour de mauvaises conditions.
Pressée ? Voici les Faits Essentiels !
- Des travailleurs kényans étiquettent des images et des vidéos pour les systèmes d’IA à 2 $ de l’heure.
- Les travailleurs sont confrontés à une détresse émotionnelle due à des contenus perturbants tels que la violence et la pornographie.
- Les incitations du gouvernement kényan n’ont pas amélioré les salaires ni les conditions de travail pour les travailleurs locaux.
Les travailleurs kényans sont exploités par de grandes entreprises technologiques américaines pour former des systèmes d’IA artificielle, accomplissant des tâches laborieuses pour des salaires bien en dessous des normes de vie locales, selon les travailleurs et les militants, comme détaillé dans un rapport de CBS News.
Ces travailleurs, connus sous le nom de « humains dans la boucle », sont essentiels pour enseigner les algorithmes d’IA. Ils trient, étiquettent et passent au crible d’immenses ensembles de données pour former l’IA pour des entreprises comme Meta, OpenAI, Microsoft et Google. Ce travail essentiel et effréné est souvent externalisé vers des régions comme l’Afrique pour réduire les coûts, selon CBS.
Ces « humains dans la boucle » ne se trouvent pas seulement au Kenya, mais aussi dans des pays comme l’Inde, les Philippines et le Venezuela – des endroits avec de grandes populations de personnes bien éduquées mais sans emploi et à faible salaire, souligne CBS.
Naftali Wambalo, un travailleur kényan à Nairobi, passe ses journées à étiqueter des images et des vidéos pour les systèmes d’IA. Malgré un diplôme en mathématiques, Wambalo se retrouve à travailler de longues heures pour seulement 2 dollars de l’heure, selon CBS.
Il dit qu’il passe sa journée à catégoriser des images de meubles ou à identifier la race des visages sur les photos pour aider à former les algorithmes d’IA. « Les robots ou les machines, vous leur apprenez comment penser comme des humains, à faire des choses comme des humains », a-t-il déclaré, comme rapporté par CBS.
Le travail, cependant, est loin d’être facile. Wambalo, comme beaucoup de travailleurs de l’IA, est affectée à des projets par Meta et OpenAI qui impliquent l’examen de contenus perturbants, tels que la violence graphique, la pornographie et les discours de haine—des expériences qui laissent une empreinte émotionnelle durable.
« J’ai vu des gens être massacrés, des gens s’adonner à des activités sexuelles avec des animaux. Des gens qui maltraitent des enfants physiquement, sexuellement. Des gens qui se suicident, » a déclaré Wambalo à CBS.
La demande de travailleurs formés en IA ne cesse de croître, mais les salaires restent étonnamment bas. Par exemple, les employés de SAMA, une entreprise américaine d’externalisation employant plus de 3 000 travailleurs, sont contractés par Meta et OpenAI, comme l’a rapporté CBS.
Selon des documents obtenus par CBS, OpenAI a accepté de payer SAMA 12,50 $ de l’heure par travailleur, bien plus que les 2 $ que les travailleurs ont réellement reçus. Cependant, SAMA affirme que ce salaire est juste pour la région.
L’activiste des droits civils, Nerima Wako-Ojiwa, soutient que ces emplois représentent une forme d’exploitation. Elle les décrit comme du travail à bas coût, avec des entreprises qui viennent dans la région, promouvant ces emplois comme des opportunités pour l’avenir, mais qui finissent par exploiter les travailleurs, comme le rapporte CBS.
Les travailleurs se voient souvent proposer des contrats à court terme – parfois ne durant que quelques jours – sans avantages ni sécurité d’emploi à long terme.
Le gouvernement kényan a cherché à attirer des entreprises technologiques étrangères en offrant des incitations financières et en promouvant des lois du travail indulgentes, mais ces efforts n’ont pas abouti à une meilleure rémunération ou à de meilleures conditions de travail pour les travailleurs locaux, comme l’a noté CBS.
Le coût émotionnel est une autre préoccupation significative en raison du contenu qu’ils sont contraints de passer en revue.
Fasica, l’une des travailleuses de l’IA, a déclaré à CBS : « Je passais en revue des contenus très graphiques, très perturbants. Je regardais des corps démembrés ou des victimes d’attaques de drones. Vous l’appelez comme vous voulez. Vous savez, chaque fois que j’en parle, j’ai encore des flashbacks. »
SAMA, a refusé une interview en face à face avec CBS. Meta et OpenAI ont affirmé leur engagement en faveur de conditions de travail sûres, de salaires équitables et du soutien en santé mentale.
CBS rapporte qu’une autre entreprise américaine de formation à l’IA confrontée à des critiques au Kenya est Scale AI, qui gère le site web Remotasks. Les employés de cette plateforme sont payés à la tâche. Cependant, l’entreprise retient parfois les paiements, invoquant des violations de la politique. Un des travailleurs a expliqué à CBS qu’il n’y a aucun recours.
Alors que les plaintes augmentaient, Remotasks a fermé au Kenya. L’activiste Nerima Wako-Ojiwa a souligné comment les lois du travail dépassées du Kenya laissent néanmoins les travailleurs vulnérables à l’exploitation.
Nerima Wako-Ojiwa a ajouté : « Je pense que nous sommes tellement préoccupés par le fait de ‘créer des opportunités’, mais nous ne nous demandons pas, ‘Sont-elles de bonnes opportunités?’ »
Laisser un commentaire
Annulez