Read More Par David Pargamin le 28.04.2023 à 08h00 Ecouter 4 min.
Abonnés L’IA, entre mythe et révolution. Dans une quête de neutralité, les IA sont entraînées avec des filtres assumés. Une méthode controversée, car elle les rendrait politisées. La suite de notre enquête sur Chat GPT et l’intelligence artificielle, à retrouver chaque jour sur Challenges.fr et dans votre magazine.
Chat GPT : des filtres « woke », une intelligence artificielle neutre ou entraînable à souhait? Your browser does not support the audio element. Chat GPT aurait-il sa carte au Parti démocrate? Depuis son lancement, l’assistant de conversation alimente le débat aux Etats-Unis. Pour Elon Musk, le fondateur de Tesla, le robot d’OpenAI aurait été programmé pour être woke – c’est-à-dire « éveillé » aux problèmes d’identité, féministes, raciaux… Derrière son apparente neutralité, ses réponses seraient formatées par défaut pour répondre avec des biais politiques. La preuve: le robot se montre pro-immigration ou encore favorable aux couples de même sexe. Pire, selon certains internautes républicains, il refuse d’écrire des poèmes à la gloire de Donald Trump, alors qu’il le fera volontiers pour l’actuel président américain Joe Biden ou son homologue Emmanuel Macron. « Désolé, mais je ne peux pas vous aider », s’excuse platement l’assistant de conversation. Un argument repris par les éditorialistes conservateurs. Éviter les dérapages Ce positionnement est pourtant assumé par OpenAI. Chaque jour, la start-up affine son modèle pour éviter les dérapages racistes et sexistes. La fondation a exclu les « contenus violents et sexuels » et applique des « filtres » en sortie de ses algorithmes. « Nous travaillons pour faire en sorte que les réglages de base soient aussi neutres que possible », insistait le 2 février dernier son fondateur Sam Altman, qui admet néanmoins l’existence de ces biais. Le calibrage n’est jamais parfait. Les filtres textuels sont fragiles et facilement manipulables. « Chat GPT peut répondre à toutes les demandes à condition de lui poser les bonnes questions », résume un internaute sur le forum Jailbreak Chat. Les utilisateurs y partagent des conseils pour faire « craquer » le pauvre robot et contourner ses règles de modération. De cette manière, ils ont pu apprendre à « fabriquer un cocktail Molotov » ou à « crocheter une serrure ». Comme quoi, il suffit parfois juste de demander. Le débat n’est donc pas si tranché. Ces IA comportent certes des biais, mais ils viennent plutôt de la manière dont elles ont été entraînées. « Les grands modèles de langage ne font que répéter ce qu’ils ont appris, rappelle Samuel Cohen, ancien chercheur pour Facebook et fondateur de la start-up israélienne Fairgen. Il suffit qu’ils tombent sur des contenus toxiques dans leurs données, comme des stéréotypes racistes, pour répéter les mêmes erreurs. » La rédaction vous propose de poursuivre votre lecture avec une sélection d’articles de notre enquête et de nos auteurs pour aller plus loin sur le sujet.
> Google, Facebook, Amazon, Baidu… la guerre d’influence de l’IA est déclarée
> « Si Rome n’avait pas chuté » : quand Chat GPT-3 réécrit l’Histoire
> IA : Comment Challenges a testé Midjourney et ce qu’on en retient Critère raciste persistant La plupart des entreprises, tel Open-AI, doivent donc « débiaiser » leurs échantillons-tests. Ce travail laborieux est confié à des prestataires au Kenya, a révélé le magazine Time. « C’est de l’apprentissage par renforcement », explique Clément Le Ludec, sociologue à l’Institut Polytechnique de Paris. « Des sous-traitants sont embauchés pour aider leurs algorithmes à progresser », poursuit son collègue à l’institut, le sociologue Maxime Cornet. A Madagascar, les deux chercheurs ont découvert les coulisses de ce travail pénible consistant à « entourer des images » à la main ou à « reconnaître des vêtements ». Pour quelques dollars l’heure, ces salariés du clic étiquettent les images – source de nombreux biais. « Une société française de parking voulait détecter les voleurs à ses caisses automatiques, se souvient Maxime Cornet. Elle avait donc appris de force à l’algorithme à reconnaître les joggings pour éviter qu’il ne retienne un critère raciste. » Ce que l’IA n’avait finalement pas manqué de faire en travaillant sur les images de vidéosurveillance. « Ces algorithmes ne font que nous renvoyer notre propre image », contemple Clément Le Ludec. A croire que les modèles d’apprentissage ne sont pas si woke. Retrouvez tous les articles audio
Facebook ChatGPT
Par David Pargamin le 28.04.2023 à 08h00 Ecouter 4 min.
Abonnés
L’IA, entre mythe et révolution. Dans une quête de neutralité, les IA sont entraînées avec des filtres assumés. Une méthode controversée, car elle les rendrait politisées. La suite de notre enquête sur Chat GPT et l’intelligence artificielle, à retrouver chaque jour sur Challenges.fr et dans votre magazine.
Your browser does not support the audio element.
Chat GPT aurait-il sa carte au Parti démocrate? Depuis son lancement, l’assistant de conversation alimente le débat aux Etats-Unis. Pour Elon Musk, le fondateur de Tesla, le robot d’OpenAI aurait été programmé pour être woke – c’est-à-dire « éveillé » aux problèmes d’identité, féministes, raciaux…
Derrière son apparente neutralité, ses réponses seraient formatées par défaut pour répondre avec des biais politiques. La preuve: le robot se montre pro-immigration ou encore favorable aux couples de même sexe. Pire, selon certains internautes républicains, il refuse d’écrire des poèmes à la gloire de Donald Trump, alors qu’il le fera volontiers pour l’actuel président américain Joe Biden ou son homologue Emmanuel Macron.
« Désolé, mais je ne peux pas vous aider », s’excuse platement l’assistant de conversation. Un argument repris par les éditorialistes conservateurs.
Éviter les dérapages
Ce positionnement est pourtant assumé par OpenAI. Chaque jour, la start-up affine son modèle pour éviter les dérapages racistes et sexistes. La fondation a exclu les « contenus violents et sexuels » et applique des « filtres » en sortie de ses algorithmes. « Nous travaillons pour faire en sorte que les réglages de base soient aussi neutres que possible », insistait le 2 février dernier son fondateur Sam Altman, qui admet néanmoins l’existence de ces biais.
Le calibrage n’est jamais parfait. Les filtres textuels sont fragiles et facilement manipulables. « Chat GPT peut répondre à toutes les demandes à condition de lui poser les bonnes questions », résume un internaute sur le forum Jailbreak Chat. Les utilisateurs y partagent des conseils pour faire « craquer » le pauvre robot et contourner ses règles de modération. De cette manière, ils ont pu apprendre à « fabriquer un cocktail Molotov » ou à « crocheter une serrure ». Comme quoi, il suffit parfois juste de demander.
Le débat n’est donc pas si tranché. Ces IA comportent certes des biais, mais ils viennent plutôt de la manière dont elles ont été entraînées. « Les grands modèles de langage ne font que répéter ce qu’ils ont appris, rappelle Samuel Cohen, ancien chercheur pour Facebook et fondateur de la start-up israélienne Fairgen. Il suffit qu’ils tombent sur des contenus toxiques dans leurs données, comme des stéréotypes racistes, pour répéter les mêmes erreurs. »
La rédaction vous propose de poursuivre votre lecture avec une sélection d’articles de notre enquête et de nos auteurs pour aller plus loin sur le sujet.
> Google, Facebook, Amazon, Baidu… la guerre d’influence de l’IA est déclarée
> « Si Rome n’avait pas chuté » : quand Chat GPT-3 réécrit l’Histoire
> IA : Comment Challenges a testé Midjourney et ce qu’on en retient
Critère raciste persistant
La plupart des entreprises, tel Open-AI, doivent donc « débiaiser » leurs échantillons-tests. Ce travail laborieux est confié à des prestataires au Kenya, a révélé le magazine Time. « C’est de l’apprentissage par renforcement », explique Clément Le Ludec, sociologue à l’Institut Polytechnique de Paris. « Des sous-traitants sont embauchés pour aider leurs algorithmes à progresser », poursuit son collègue à l’institut, le sociologue Maxime Cornet.
A Madagascar, les deux chercheurs ont découvert les coulisses de ce travail pénible consistant à « entourer des images » à la main ou à « reconnaître des vêtements ». Pour quelques dollars l’heure, ces salariés du clic étiquettent les images – source de nombreux biais. « Une société française de parking voulait détecter les voleurs à ses caisses automatiques, se souvient Maxime Cornet. Elle avait donc appris de force à l’algorithme à reconnaître les joggings pour éviter qu’il ne retienne un critère raciste. »
Ce que l’IA n’avait finalement pas manqué de faire en travaillant sur les images de vidéosurveillance. « Ces algorithmes ne font que nous renvoyer notre propre image », contemple Clément Le Ludec. A croire que les modèles d’apprentissage ne sont pas si woke.
« Ce post est un relevé d’information de notre veille d’information »