samedi, avril 11, 2026
États-UnisLes pertes judiciaires de Meta entraînent des problèmes potentiels pour la recherche sur l'IA et la sécurité des consommateurs

Les pertes judiciaires de Meta entraînent des problèmes potentiels pour la recherche sur l’IA et la sécurité des consommateurs

Meta condamné : quand la recherche interne se retourne contre les géants de la tech

La condamnation retentissante de Meta cette semaine dans deux procès distincts aux États-Unis marque un tournant judiciaire et éthique pour l’industrie technologique. Les jurés ont estimé que le géant des réseaux sociaux, maison mère de Facebook et Instagram, n’avait pas suffisamment protégé les jeunes utilisateurs contre les préjudices liés à ses plateformes, notamment en matière de dépendance et de contenu dangereux. Au cœur des débats : une montagne de documents internes, dont des études et des rapports produits par les propres équipes de recherche de l’entreprise, qui contredisaient sa communication publique.

Le paradoxe de la recherche interne : outil de défense ou arme de preuve ?

Il y a plus de dix ans, alors qu’il s’appelait encore Facebook, Meta embauchait des chercheurs en sciences sociales pour évaluer l’impact de ses produits. Cette démarche semblait illustrer une volonté d’objectivité. « À une certaine époque, des équipes étaient créées en interne pour commencer à examiner les choses », témoigne Brian Boland, ancien cadre de Facebook qui a déposé dans les deux affaires. « Vous aviez des chercheurs absolument exceptionnels qui examinaient ce qui se passait sur ces produits avec un peu plus de liberté. »

Cette liberté a pris fin après les révélations de Frances Haugen en 2021. L’ancienne chef de produit, devenue lanceuse d’alerte, a divulgué des milliers de documents internes peignant un tableau alarmant des connaissances de l’entreprise sur les effets néfastes de ses plateformes, notamment sur la santé mentale des adolescents. Depuis, Meta et d’autres acteurs ont considérablement resserré l’accès aux données et réduit l’autonomie de leurs équipes de recherche.

Les preuves qui ont fait plier les jurys

Dans les procès du Nouveau-Mexique et de Los Angeles, les avocats des plaignants ont présenté aux jurés des documents internes accablants. Parmi eux :

  • Des enquêtes internes révélant qu’un pourcentage préoccupant d’adolescents recevait des avances sexuelles non désirées sur Instagram.
  • Des recherches, depuis interrompues, suggérant que les utilisateurs qui réduisaient leur temps sur Facebook voyaient leur niveau de dépression et d’anxiété diminuer.
  • Des échanges par courriel de dirigeants et des présentations internes mettant en lumière la priorité donnée à l’engagement et à la croissance, parfois au détriment de la sécurité.

La défense de Meta a argué que certaines études étaient anciennes, sorties de leur contexte et ne reflétaient pas l’évolution constante des politiques de l’entreprise. Mais pour les jurés, la dissonance entre ce que l’entreprise savait en interne et ce qu’elle affirmait publiquement a été déterminante. « Le jury a pu entendre les deux côtés de l’histoire et une présentation très juste des faits, et ils ont pu prendre une décision en fonction de ce qu’ils a vu », a concédé Brian Boland.

« Les chercheurs ne sont pas à acheter »

Lisa Strohman, psychologue et avocate consultante pour le procès du Nouveau-Mexique, pointe un aveuglement stratégique de la part des dirigeants. « Je pense que ce qu’ils n’ont pas reconnu, c’est que les chercheurs sont des parents et des membres de famille. Et je pense que ce qu’ils n’ont pas réalisé, c’est que ces gens n’allaient pas être achetés. » L’éthique professionnelle et les préoccupations personnelles de ces employés ont primé sur la loyauté corporative, transformant la recherche interne en une bombe à retardement judiciaire.

Sacha Haworth, directrice du Tech Oversight Project, renforce ce point : les documents utilisés à l’audience n’étaient pas tous nouveaux, mais leur présentation conjointe a créé un récit accablant. « Ce que les essais ont ajouté, ce sont les mêmes courriels, les mêmes mots, les mêmes captures d’écran, les présentations marketing internes, les mémos qui offraient le contexte nécessaire. »

Leçons pour l’ère de l’IA : répéter les erreurs du passé ?

Alors que l’attention mondiale se porte désormais sur les risques de l’intelligence artificielle générative, des entreprises comme Meta, OpenAI et Google sont accusées de reproduire les erreurs du passé. « Tout comme avec les médias sociaux avant eux, la visibilité publique sur ce que les entreprises d’IA étudient sur leurs produits est limitée », alerte Kate Blocker, de l’Institut Children and Screens.

Selon elle, la recherche actuelle dans le secteur de l’IA se concentre massivement sur la performance et la sécurité technique des modèles (« l’alignement »), mais néglige les impacts sur le développement cognitif et émotionnel des enfants et des adolescents. « Les entreprises d’IA ont une chance de ne pas répéter les erreurs du passé. Nous devons de toute urgence établir des systèmes de transparence et d’accès qui partagent avec le public ce que ces entreprises savent de leurs plateformes et soutiennent une évaluation indépendante plus poussée. »

Les verdicts contre Meta envoient un message clair : la recherche interne, lorsqu’elle est menée en toute indépendance d’esprit, peut un jour devenir une preuve irréfutable. À l’heure où l’IA générative se déploie à grande échelle, la tentation pour les entreprises de museler leurs propres chercheurs ou de ne publier que des études favorables est immense. L’histoire récente montre pourtant que la transparence, ou son absence, finit toujours par être jugée sur la place publique, et désormais, dans les prétoires.

Découvrez nos autres contenus

Articles connexes