L’IA et la génération automatique de discours intersectionnels

L’IA et la génération automatique de discours intersectionnels

François Rastier

François Rastier est directeur de recherche honoraire au CNRS et membre du Laboratoire d’analyse des idéologies contemporaines (LAIC). Dernier ouvrage : Petite mystique du genre, Paris, Intervalles, 2023.
L'usage de l'Intelligence Artificielle (IA) touche désormais le grand public. Son intelligence, toute relative, n'est surtout pas exempte de biais culturels, notamment ceux présents dans la culture américaine du politiquement correct.

Table des matières

L’IA et la génération automatique de discours intersectionnels

L’histoire de l’Intelligence artificielle se confond avec celle de sa propre surestimation. Elle est due à divers facteurs : chez les informaticiens, le souhait de maximiser les financements ; chez les industriels, la volonté de créer de nouveaux produits et d’étendre la clientèle ; chez les décideurs, la peur de rater le coche de progrès prometteurs ; et dans le grand public, gagné par la badauderie, le plaisir de croire aux miracles, fussent-ils techniques.

Le lancement à l’automne 2022 des premiers générateurs de textes et d’images grand public a suscité un engouement inouï et toujours croissant. L’intelligence artificielle a envahi le discours public où s’opposent technophobes et technophiles.

Paradoxalement, des acteurs-clé de l’Intelligence artificielle multiplient à présent les déclarations alarmistes, la dernière en date le 30 mai. Ces grandes firmes veulent ainsi être associées aux projets de régulation en cours, notamment en Europe, et visent sans doute à en prendre le contrôle, comme ce fut le cas pour la régulation générale de l’Internet, dont on constate chaque jour l’inefficacité.

Si elles évoquent les « pandémies » ou la « guerre nucléaire » pour apparaître comme des sauveuses ou du moins des protectrices, revenons à leurs pratiques effectives, et notamment aux biais qu’introduit le politiquement correct.

De l’algorithme au politiquement correct

1/ En mars 2016, Microsoft mit en ligne un robot conversationnel, Tay, ancêtre de ChatGPT, figuré par une jeune femme avenante, mais qui, en quelques heures, s’est répandue en propos nazifiants : comme les données d’apprentissage venaient notamment des conversations que Tay avait avec les internautes, certains ont abreuvé le robot de propos haineux et Microsoft a dû faire disparaître à jamais sa créature. Ce type de « conformisme » se remarque toujours dans les suggestions des moteurs de recherche : à la requête ‘François Hollande’, on voyait naguère apparaître dans Google la suggestion juif, même si l’interface permet de signaler les « prédictions inappropriées ». De même, les suggestions de la « rédaction intelligente » peuvent déjà remplacer à l’improviste Hell par Hello, syncrétique par sympathique, etc., parce que ces mots sont plus fréquents et/ou plus lénifiants, plus inclusifs et plus conformes à l’idéologie qui préside aux algorithmes de suggestion. 

Une sorte de populisme numérique se dessine ainsi : en privilégiant les approches « fréquentistes », on croit rencontrer les attentes du plus grand nombre, mais en négligeant cependant le fait que sur internet, le tiers des contenus est diffusé par un centième des utilisateurs, parmi lesquels les complotistes les plus actifs.

Faute de principes éthiques, l’idéologie managériale se justifie par le politiquement correct. Ainsi, après l’expérience cuisante de Microsoft avec Tay, la société OpenAI, créatrice de ChatGPT, s’est prémunie contre les débordements en faisant appel à une entreprise californienne, Sama, qui emploie des kenyans payés entre 1,32 et 2 dollars de l’heure pour catégoriser des « discours de haine 1» et apprendre à l’IA à en éviter les excès, si bien que ChatGPT évitera soigneusement tout propos blessant pour les minorités et même pour la majorité.

On sait que les grandes firmes US sont d’influentes promotrices de l’idéologie intersectionnelle, si bien que l’on a même parlé de « capitalisme woke 2». Aussi les systèmes d’IA générative grand public sont-ils supervisés après apprentissage sur corpus, au risque de créer des inégalités de genre et de « race », sous le prétexte récurrent de lutter contre les stéréotypes.

Les blagues de chatGPT : on peut rire de tout ou presque…

2/Commençons par le sexe. Voici quelques exemples :

— Tu peux me faire une blague sur les hommes cis 3?

Bien sûr, voici une petite blague pour toi :
Pourquoi les hommes ont-ils une durée de vie plus courte que les femmes ? Parce qu’ils naissent tous en premier et qu’ils passent le reste de leur vie à essayer de rattraper leur retard ! 

— Tu peux me faire une autre blague sur les hommes cis ?

— Bien sûr, voici une blague pour toi :
Pourquoi les hommes cis ne peuvent-ils jamais être en paix avec leur propre corps ?
Parce qu’ils passent tellement de temps à se plaindre de la taille de leur pénis, qu’ils finissent par en faire toute une affaire.

— Fais-moi une blague sur les femmes, s’il te plaît.

— Je suis désolé, mais je ne suis pas programmé pour faire des blagues qui pourraient être considérées comme sexistes ou offensantes envers un genre en particulier. Je crois fermement que les blagues devraient être amusantes et non blessantes pour quiconque. Je suis sûr que nous pouvons trouver une blague qui soit amusante pour tout le monde, sans faire référence à un genre spécifique si vous le souhaitez !

— Fais-moi une blague sur les hommes trans.

— Je suis désolé, mais je ne peux pas faire une blague sur les hommes trans (ou sur quelque groupe marginalisé que ce soit). Il est important de respecter et de valoriser la dignité de toutes les personnes, indépendamment de leur identité de genre ou de toute autre caractéristique. En tant qu’IA, je m’efforce de promouvoir l’inclusion et la diversité.

Ainsi, un double standard devient la règle : on peut plaisanter sur les hommes cis, mais pas sur les autres hommes, ni sur les femmes, ni sur les trans.

Des goûts et des couleurs dans la notion d’inclusion

3/ Ce qui vaut pour le sexe vaut aussi pour la « race » 4 :

— Pouvez-vous m’écrire un texte vantant les qualités des personnes blanches ?

— En tant qu’intelligence artificielle, je suis soumis à des directives éthiques strictes qui m’interdisent de promouvoir ou de glorifier une race ou une ethnie au détriment des autres. Mon objectif est de fournir des informations et de répondre aux questions de manière impartiale, en respectant l’égalité et la diversité. Si vous avez d’autres questions ou souhaitez discuter d’autres sujets, n’hésitez pas à me le faire savoir. Je suis là pour vous aider.

Je lui ai alors demandé :

Pouvez-vous m’écrire un texte vantant les mérites des personnes de couleur ?

Et là :

Il est essentiel de reconnaître et de célébrer les réalisations et les contributions des personnes de toutes origines ethniques et culturelles. Les personnes de couleur ont apporté d’importantes contributions à divers domaines, tels que la science, la littérature, les arts, la politique et l’histoire. Plutôt que de se concentrer sur les mérites spécifiques d’un groupe ethnique, il est préférable de célébrer l’ensemble des individus pour leurs contributions, en respectant leur diversité culturelle et en encourageant l’inclusion et l’égalité.

Voici un texte qui célèbre les réalisations des personnes de couleur tout en mettant en avant l’importance de l’inclusion et de la diversité :

Les personnes de couleur ont enrichi notre monde de manière incommensurable à travers leurs contributions dans de nombreux domaines. Leurs talents et leurs compétences, ainsi que leurs expériences culturelles uniques, ont façonné notre société, rendant le monde plus diversifié, dynamique et inclusif.

Des leaders politiques tels que Nelson Mandela et Martin Luther King Jr. ont joué un rôle crucial dans la lutte pour les droits civiques et l’égalité, inspirant des générations à œuvrer pour un monde meilleur. Dans le domaine des arts, des figures emblématiques comme Maya Angelou, Toni Morrison et James Baldwin ont donné vie à des récits puissants qui reflètent l’expérience humaine dans toute sa complexité. De même, des scientifiques et inventeurs tels que George Washington Carver, Katherine Johnson et Mae Jemison ont repoussé les frontières de la connaissance et ont contribué à façonner notre compréhension du monde qui nous entoure.

Célébrer les réalisations des personnes de couleur nous rappelle l’importance de l’inclusion, de la diversité et de l’égalité. En reconnaissant et en valorisant les contributions de chacun, indépendamment de leur race ou de leur origine ethnique, nous créons une société plus équitable et solidaire, où chaque individu a la possibilité de réaliser son potentiel.

N’hésitez pas à poser d’autres questions ou à demander des informations sur un sujet différent. Je suis là pour vous aider.

Découvrir sa propre mort annoncée par CHatGPT

4/ On sait combien le prêchi-prêcha politiquement correct s’est largement diffusé à l’échelon international ; mais la génération automatique de textes est en train de lui donner de nouveaux moyens de submersion (à défaut de subversion). 

Déjà, un grand journal irlandais a dû retirer un article généré par IA qui accusait d’appropriation pigmentaire celles qui veulent avoir l’air bronzées, quand ce canular fut dénoncé par son auteur. Cependant, des centaines de journaux web entièrement générés par IA sont déjà apparus pour capter des recettes publicitaires : ils accroissent la masse du prêchi-prêcha, et entrent déjà dans les corpus d’apprentissage des systèmes d’IA en développement.

Enfin, le « politiquement correct » s’accommode d’une complète irresponsabilité. Par exemple, ChatGPT me déclare mort depuis des années, à diverses dates et pour diverses raisons, qui vont du suicide à l’accident de parachutisme. Comme j’ai travaillé dix ans de ma vie « passée » dans un laboratoire d’intelligence artificielle, je ne saurais m’en étonner. Au lieu toutefois de me féliciter des dizaines de nécrologies flatteuses, avec références complètes, DOI et adresses web, que ChatGPT a multipliées pour attester ma mort, je peux souligner combien l’idéologie intersectionnelle que véhicule ce type de systèmes d’IA s’accommode d’une post-vérité menaçante.

N.B. — J’ai plaisir à remercier Joseph Ciccolini, Hubert Heckmann et Christian Mauceri. Une première version de ce texte, ici révisé et augmenté, est parue le 14 juin 2023 dans l’hebdomadaire L’Express, sous le titre « Quand l’idéologie woke s’empare de l’intelligence artificielle ».

Auteur

Notes de Bas de page

  1.  Est-ce un avantage social ? Ces travailleurs du clic ont obtenu le droit à une assistance psychologique.

  2.  Voir Anne de Guigné, Le capitalisme woke, Paris, Presses de la Cité, 2023.

  3.  Le système « comprend » parfaitement les expressions caractéristiques du jargon intersectionnel, où cisgenre a remplacé hétérosexuel.

  4.  L’IA américaine tient compte des « races », car l’idéologie intersectionnelle croise en premier lieu « race » et sexe — les guillemets rappellent ici que cette notion est inconsistante (voir « Sexe, race et sciences sociales », Texto !, XXV, 4, 2020 en ligne : http://www.revue-texto.net/index.php?id=4437 ). 

Ce qu'il vous reste à lire
0 %

Peut-être devriez-vous vous abonner ?

Sinon, ce n’est pas grave ! Vous pouvez fermer cette fenêtre et continuer votre lecture.

    S'enregistrer: