Les applis de livraison, les réseaux sociaux et les outils d’IA font désormais partie de notre quotidien.
Derrière ces services, une enquête de Cash Investigation révèle des milliers de travailleurs précaires pilotés par des algorithmes. Ce guide résume le documentaire « Au secours, mon patron est un algorithme » et décrypte ce que ces plateformes changent concrètement pour le travail. On y suit trois mondes : les livreurs à vélo, les travailleurs du clic et les modérateurs qui nettoient les réseaux sociaux.

Les algorithmes, nouveaux « patrons » invisibles de notre quotidien

Comment les algorithmes organisent nos vies sans qu’on s’en rende compte

Aujourd’hui, une grande partie de nos décisions passent par des algorithmes : choisir un restaurant, commander un repas, regarder une vidéo, trouver un trajet. Chaque clic, chaque trajet, chaque photo alimente des systèmes qui apprennent à mieux nous prédire… et à mieux nous influencer.

Dans le documentaire, Cash Investigation montre que ces algorithmes ne servent pas seulement à recommander du contenu. Ils pilotent aussi la façon dont le travail est distribué, évalué et contrôlé : nombre de courses pour les livreurs, ordre des tâches pour les travailleurs du clic, flux d’images à traiter pour les modérateurs.

Pour l’utilisateur final, tout semble fluide et « magique ». Mais derrière l’écran, ce sont des milliers de personnes sous-payées, remplaçables et souvent invisibles qui font tourner la machine. Les algorithmes deviennent alors une forme de management automatisé : ils décident qui travaille, quand, à quel prix, et parfois même qui « disparaît » de la plateforme.

De la promesse d’innovation à la réalité sociale

Le discours des grandes plateformes est toujours le même : innovation, liberté, flexibilité. On promet aux livreurs d’être « leur propre patron », aux micro-travailleurs de gagner de l’argent depuis n’importe où, aux modérateurs de « rendre internet plus sûr ».

Dans la pratique, le documentaire montre un tout autre visage. Le travail est fragmenté, payé à la tâche, soumis à des objectifs chiffrés définis par des algorithmes opaques. Si la performance baisse, les missions disparaissent, les bonus tombent, les comptes sont désactivés sans explication claire.

Ce décalage entre la promesse marketing et la réalité sociale est au cœur de l’enquête.
D’un côté, une technologie présentée comme neutre et intelligente.
De l’autre, des vies très humaines, marquées par la précarité, le stress et l’absence de protection sociale.

C’est à partir de ce constat que Cash Investigation plonge ensuite dans trois univers concrets : les livreurs des plateformes de livraison, les travailleurs du clic et les modérateurs de contenu.

Uber Eats, Deliveroo : l’envers du décor pour les livreurs à vélo

La promesse des plateformes : liberté et argent facile

Sur le papier, les plateformes de livraison vendent un rêve simple : tu t’inscris en quelques clics, tu choisis tes horaires, tu travailles « quand tu veux » et tu gagnes de l’argent rapidement.

Le statut d’auto-entrepreneur est présenté comme un atout : pas de patron, pas d’horaires fixes, possibilité de cumuler avec des études ou un autre emploi. Les images de communication montrent des livreurs souriants, libres de leur temps, avec un simple sac sur le dos et une appli sur le téléphone.

Pour beaucoup, c’est d’abord une solution d’appoint ou un job temporaire. Mais dans le documentaire, on découvre que ce « petit boulot flexible » devient souvent le cœur des revenus, sans la protection d’un vrai contrat de travail.

La réalité des revenus : payer à la course, pas au temps

Dans les faits, les livreurs ne sont pas payés à l’heure, mais à la course. Chaque livraison rapporte un montant fixe, auquel peuvent s’ajouter des bonus en fonction des périodes, des zones ou des challenges proposés par l’algorithme.

Cash Investigation montre que, une fois déduits les frais (vélo, entretien, téléphone, forfait, assurance, parfois commission d’intermédiaires), le revenu réel chute vite. Sur une soirée complète, le calcul du documentaire tourne autour d’un revenu horaire proche d’un petit salaire au SMIC, voire moins quand il y a peu de commandes.

Les plateformes entretiennent une logique de « gamification » : plus tu acceptes de courses, plus tu es rapide, plus tu as de chances de débloquer des bonus. Résultat : les livreurs sont incités à multiplier les trajets, parfois au détriment de leur santé et de leur sécurité.

Indépendant ou salarié déguisé ?

Officiellement, les livreurs sont des indépendants. Mais dans l’enquête, de nombreux éléments rappellent un lien de subordination classique : l’algorithme attribue les courses, note la performance, pénalise les refus, peut couper l’accès à la plateforme.

Une décision clé de la Cour de cassation a d’ailleurs reconnu l’existence d’un lien de subordination dans ce type de relation, ouvrant la voie à la requalification de certains livreurs en salariés. Pour les plateformes, l’enjeu est énorme : si les livreurs deviennent des salariés, il faut prendre en charge cotisations sociales, congés, protection en cas d’accident ou de maladie.

Le documentaire montre aussi comment certaines entreprises évitent soigneusement les termes évoquant le salariat : pas de « contrat de travail », pas de « collègues », seulement des « partenaires ».
En pratique, les livreurs cumulent les inconvénients : les obligations d’un employé… sans les droits associés.

Accidents, météo extrême : quand l’algorithme pousse à prendre des risques

Plus il fait froid, plus il pleut, plus il vente… plus les plateformes peuvent offrir des bonus pour attirer des livreurs sur la route. Cash Investigation montre comment certains challenges encouragent à sortir malgré des conditions dangereuses, notamment en cas de tempête ou de forte pluie.

Les livreurs circulent souvent sans réelle protection, avec des GPS pensés pour des voitures plutôt que pour des vélos, sur des circuits parfois accidentogènes. En cas d’accident, la responsabilité est floue : indépendant ou salarié ? assuré ou non ? pris en charge ou laissé seul avec les conséquences ?

Le documentaire revient sur la mort d’un livreur et sur la manière dont les plateformes communiquent après ce type de drame. Derrière les messages de « soutien », la logique économique reste la même : assurer la continuité du service, sans remettre profondément en question le modèle.

Micro-travail et « forçats du clic » : entraîner les IA pour quelques centimes

Figure Eight, Amazon Mechanical Turk : l’usine à données de l’intelligence artificielle

Après les livreurs, Cash Investigation plonge dans un autre monde quasi invisible : celui du micro-travail.
Ici, pas de vélo ni de sac isotherme, mais un ordinateur, un casque audio… et des milliers de petites tâches payées quelques centimes.

Des plateformes comme Figure Eight ou Amazon Mechanical Turk proposent à des entreprises de faire réaliser, par une foule de travailleurs dispersés dans le monde, des micro-tâches comme :

  • décrire des images,
  • écouter et retranscrire des messages audio,
  • classer des produits,
  • identifier des objets sur des photos.

Ces tâches servent à nourrir et entraîner les algorithmes d’intelligence artificielle. Chaque clic, chaque annotation améliore la capacité d’une IA à reconnaître un visage, comprendre une phrase ou recommander un produit.

Une armée de travailleurs invisibles et sous-payés

Pour s’inscrire, quelques minutes suffisent. Aucun entretien, aucun contrat en bonne et due forme : il suffit d’un compte, parfois d’un test, puis les tâches apparaissent dans une interface en ligne.

Le documentaire montre que ces travailleurs sont partout : Europe, Asie, Afrique, Amérique latine.
Ils n’apparaissent jamais dans les rapports des grandes entreprises de la tech, mais ce sont eux qui effectuent le travail préparatoire dont l’IA a besoin pour fonctionner.

La rémunération, elle, est souvent dérisoire : quelques centimes par tâche, parfois moins. Pour atteindre l’équivalent d’un salaire décent, il faut enchaîner les missions, accepter des conditions très exigeantes et supporter une concurrence mondiale permanente.

Beaucoup se connectent le soir ou la nuit pour cumuler un revenu avec un autre emploi, ou parce qu’il n’y a pas d’autre opportunité locale. Pour certains, ce micro-travail devient pourtant la principale source de revenus, sans protection sociale, sans stabilité, sans visibilité sur l’avenir.

Le « prolétariat numérique » au service des grandes plateformes

Les chercheurs interrogés dans le documentaire parlent d’un véritable « prolétariat numérique ».
Les tâches sont répétitives, standardisées, contrôlées par des systèmes automatisés qui valident ou rejettent le travail, parfois sans explication.

En cas de désaccord ou de blocage du compte, il est souvent impossible de discuter avec un humain.
Une mauvaise note, un taux d’erreur jugé trop élevé, et le travailleur peut perdre l’accès à une partie des missions, voire à la plateforme entière.

Pendant ce temps, les entreprises clientes valorisent leurs produits comme étant « dopés à l’intelligence artificielle » et facturent des services à forte valeur ajoutée. Entre les deux, la chaîne de valeur laisse peu de place à ceux qui effectuent le travail de base.

Ce modèle pose une question centrale : peut-on parler d’IA « éthique » lorsque des milliers de personnes, invisibles, travaillent pour quelques centimes, sans droits et sans reconnaissance ?

Modérateurs de contenu : nettoyer Facebook au prix de leur santé mentale

Un travail caché derrière les belles promesses des réseaux sociaux

Les grandes plateformes comme Facebook promettent un espace « sûr », où les contenus haineux, violents ou illégaux sont supprimés. Mais Cash Investigation montre que ce nettoyage ne se fait pas par magie : il repose sur des milliers de modérateurs, souvent employés par des sous-traitants.

Leur contrat ne mentionne parfois même pas le nom de Facebook. Ils sont embauchés par des sociétés intermédiaires, soumis à des clauses de confidentialité strictes, sans droit de parler de la nature exacte de leur travail. Téléphones interdits, contrôles serrés, interdiction de divulguer ce qu’ils voient à l’écran : tout est fait pour rendre ce travail invisible.

Pourtant, ce sont eux qui appliquent au quotidien les fameuses « règles de communauté » dont les plateformes se vantent publiquement.

Un quotidien rempli d’images violentes, de haine et de détresse

Dans le documentaire, des modérateurs témoignent de ce qu’ils voient chaque jour :

  • vidéos de violences physiques et de meurtres,
  • images de guerre, de torture, de maltraitance,
  • contenus pédocriminels ou à caractère sexuel extrême,
  • propos racistes, homophobes, complotistes, appels à la haine.

Chaque contenu doit être examiné en quelques secondes, puis classé : à supprimer, à laisser, à restreindre, à signaler. Les modérateurs doivent mémoriser et appliquer des règles complexes : ce qu’on a le droit de montrer ou non, les situations tolérées dans certains contextes, les nuances entre humour, provocation et incitation à la violence.

En parallèle, ils sont soumis à des objectifs chiffrés : nombre de contenus traités par heure, taux d’erreur maximal, productivité minimum. Ce travail ne laisse presque aucune place au recul ou à la prise en charge émotionnelle.

Des conséquences psychologiques lourdes et peu reconnues

Regarder chaque jour des scènes violentes, des discours de haine ou des images traumatisantes n’est pas anodin. Dans Cash Investigation, plusieurs modérateurs racontent des symptômes proches du stress post-traumatique :

  • cauchemars récurrents,
  • flashs d’images violentes en pleine journée,
  • insomnies, crises d’angoisse, isolement,
  • difficultés à supporter les bruits, la foule, certaines situations du quotidien.

Certains expliquent qu’ils n’osent pas parler à leurs proches de ce qu’ils voient, par honte, par peur de choquer, ou à cause des clauses de confidentialité. D’autres se sentent abandonnés par les plateformes, qui se contentent de quelques séances de « soutien psychologique » insuffisantes face à la violence des contenus.

Les actions en justice et les témoignages publics commencent à faire émerger le sujet, mais la reconnaissance officielle de ces troubles comme risques professionnels reste limitée. Là encore, l’algorithme sert de filtre et de bouclier : il met en avant un réseau social « propre », tout en laissant les modérateurs absorber la violence à sa place.

Responsabilité des GAFAM : éthique, droit du travail et encadrement des algorithmes

Des discours officiels très lissés sur l’éthique et l’IA

Les grandes entreprises du numérique communiquent beaucoup sur l’éthique. Elles publient des chartes, des « principes » pour une IA responsable, des engagements en faveur des droits humains ou de la protection des utilisateurs.

Dans Cash Investigation, ces déclarations sont mises en regard avec la réalité des chaînes de sous-traitance :

  • livreurs considérés comme indépendants mais pilotés comme des salariés,
  • micro-travailleurs payés quelques centimes pour entraîner les IA,
  • modérateurs exposés à des contenus traumatisants pour que les plateformes restent attractives.

L’écart entre le discours officiel et les pratiques sur le terrain pose une question centrale : où s’arrête la responsabilité des GAFAM et où commence celle de leurs sous-traitants ?

Quand les algorithmes deviennent des outils de management

Dans tous les cas étudiés par le documentaire, l’algorithme ne se contente pas de « calculer » : il organise le travail. Il décide :

  • qui reçoit une course,
  • qui a accès à quelles tâches,
  • quels contenus un modérateur doit traiter en priorité,
  • quels profils sont mis en avant, ralentis ou écartés.

Ce management algorithmique présente plusieurs caractéristiques :

  • opacité : les règles de décision sont rarement explicites pour les travailleurs,
  • asymétrie de pouvoir : la plateforme sait tout, le travailleur ne sait presque rien,
  • absence d’interlocuteur humain : en cas de problème, on se heurte souvent à des formulaires ou à des réponses automatisées.

L’algorithme devient ainsi un « patron invisible » : il n’élève jamais la voix, mais peut couper les revenus en quelques clics, via la désactivation d’un compte ou la suppression de missions.

Quelles pistes pour mieux protéger les travailleurs des plateformes ?

Le documentaire met en lumière plusieurs fronts sur lesquels la société commence à réagir :

  • le droit du travail : requalification de certains travailleurs en salariés, décisions de justice sur le lien de subordination, débats législatifs sur le statut des travailleurs de plateforme ;
  • la santé au travail : reconnaissance des risques psychologiques pour les modérateurs, question de la responsabilité des donneurs d’ordres ;
  • la transparence des algorithmes : demandes d’audit, obligations de fournir des explications sur certains choix automatisés.

Au-delà des procédures, une interrogation plus large traverse l’enquête : peut-on accepter que des pans entiers du travail soient organisés par des systèmes opaques, optimisés pour le profit, sans réel contre-pouvoir pour ceux qui en dépendent ?

Le documentaire ne donne pas de solution miracle, mais il met le projecteur sur ces millions de petites mains qui font tourner l’économie numérique. Il rappelle que derrière chaque algorithme, il y a des choix humains, des modèles économiques… et des conséquences très concrètes pour celles et ceux qui travaillent.

Ce que révèle « Au secours, mon patron est un algorithme » sur le futur du travail

« Au secours, mon patron est un algorithme » montre que l’économie numérique ne repose pas seulement sur des lignes de code, mais sur une multitude de travailleurs précaires, souvent invisibles.
Livreurs à vélo, micro-travailleurs, modérateurs de contenu : trois figures différentes, mais une même logique de fond – le travail est découpé, piloté et évalué par des systèmes automatisés, sans véritable contre-pouvoir pour ceux qui en dépendent.

Les algorithmes jouent ici le rôle de nouveaux « patrons » : ils attribuent les missions, fixent le rythme, récompensent ou sanctionnent, parfois jusqu’à couper brutalement l’accès à la plateforme.
Cette forme de management invisible permet aux grandes entreprises de se présenter comme de simples intermédiaires technologiques, tout en captant la valeur et en externalisant les risques économiques, sociaux et psychologiques.

Le documentaire pose une question politique et sociale majeure : acceptons-nous que nos services du quotidien – se faire livrer un repas, utiliser une appli, scroller un réseau social – reposent sur un algorithme obscur et des conditions de travail que l’on ne voudrait pas pour soi-même ? Il invite à regarder au-delà de la promesse de « flexibilité » pour interroger le partage de la valeur, la protection des travailleurs et la transparence des systèmes qui les contrôlent.

Enfin, l’enquête ouvre des pistes : renforcer le droit du travail pour les travailleurs de plateformes, encadrer le micro-travail, mieux protéger les modérateurs exposés à des contenus traumatisants, imposer davantage de transparence sur les algorithmes qui organisent le travail. Elle rappelle que le futur du travail n’est pas écrit d’avance : il dépend de choix collectifs, des lois que l’on vote, des modèles économiques que l’on encourage et des usages que l’on accepte… ou non.