Rechercher
Fermer ce champ de recherche.

ChatGPT3, la pluralité des idées menacées

Collectif

Tribune des observateurs

Read More  Le logiciel ChatGPT interroge sur l’avenir de l’intelligence artificielle. ©LIONEL BONAVENTURE / AFPLa vision de ChatGPT et les algorithmes de l’intelligence artificielle ne seraient-ils pas influencés par le wokisme ? 8h14. L’entretien politique va commencer. Membres du gouvernement, capitaines d’industrie, intellectuels, tous redoutent d’ordinaire la pugnacité de Sonia Mabrouk qui mène la grande interview du matin sur Europe 1. Mais, le 15 février, la personne qui va être questionnée ne ressent pas le moindre trac. Elle avoue, même, n’avoir « ni état d’esprit, ni sentiment ». Cet invité aussi stoïque qu’exceptionnel, c’est ChatGPT3, l’agent conversationnel crée par OpenID, l’entreprise en charge du développement de l’Intelligence artificielle pour Microsoft. Ce type d’« intelligence » qui bouleverse déjà de nombreux aspects de notre quotidien (recommandation d’articles, choix musicaux, rencontres amoureuses…) va-t-il accroître son emprise jusqu’à jouer un rôle de premier plan dans la vie de la cité ? C’est ce que pourrait laisser présager le fait, que l’intelligence artificielle est ce jour-là l’invitée politique de la radio. Un logiciel dialoguant à une heure de grande écoute avec une journaliste, nous voilà en pleine dystopie. Les sujets s’enchaînent et l’application répond dans un style qui se veut « impartial et objectif ». Immigration ? Elle « peut être considérée comme une chance dans de nombreux cas, car elle peut apporter de nouvelles perspectives, des talents, des compétences et des idées dans un pays d’accueil , cependant il est également important de noter que l’immigration peut causer des défis sociaux, économiques et politiques pour les pays d’accueil », nuance-t-elle. Interrogé sur ce qui définit une femme, ChatGPT, après avoir évoqué des différences biologiques, tempère immédiatement et rappelle qu’« il est important de célébrer la diversité des identités de genre ».Sa vision ne serait-elle pas influencée par le wokisme ? Le logiciel affirme qu’il ne fait pas de politique, qu’il n’est là que pour répondre de la façon la plus précise et impartiale possible aux questions que nous lui posons. Et pourtant ! S’il n’a ni conscience ni sentiment, ce type de programme semble bel et bien développer un réel parti pris. Il le concède, d’ailleurs : « en tant qu’application développée par OpenID, je suis programmée pour promouvoir les valeurs de respect, d’inclusion, d’égalité ». C’est là que les problèmes commencent… qui choisit les valeurs qui seront implémentées ?La technologie n’a rien d’idéologique et peut aussi bien déboucher sur une application wokiste, comme l’est ChatGPT3, que raciste et misogyne, comme le fut son éphémère grande sœur Tay. En 2016, Microsoft avait lancé sur twitter, un robot conversationnel (chatbot) capable de dialoguer avec les adolescents en adoptant leurs codes. L’expérience avait tourné court. Provoqué par certains internautes, Tay avait commis de nombreux dérapages racistes, niant notamment la réalité l’holocauste et allant jusqu’à affirmer que pour mener la guerre au terrorisme islamiste, Hitler aurait été plus efficace que Barack Obama. Sic ! Au bout de seulement 8 heures, Microsoft avait dû débrancher son « IA ».Trois ans plus tard, les programmes utilisés en ressources humaines pour trier les CV furent accusés d’entretenir des préjugés sexistes. Deux chercheuses publièrent, en 2019, un livre L’intelligence artificielle, pas sans elle, dans lequel elles dénonçaient le fait que, si l’IA se formait à partir des seules bases de données présentes sur internet, elle risquait de reproduire les stéréotypes de genres. Elles proposaient des mesures de rééquilibrage, une version algorithmique de la discrimination positive. Depuis, une nouvelle génération de logiciels parfaitement rééduqués a été lancée « garantie sans stéréotypes ».Loin d’être neutres, ces nouvelles formes d’IA sont aujourd’hui surentraînées afin de ne pas heurter l’hypersensibilité des plus « woke » d’entre-nous. Ceux-ci l’ont, d’ailleurs, bien compris et traquent la moindre micro-offense. Ils savent que faire adopter leurs grilles de lecture à ces algorithmes constitue le meilleur moyen d’imposer à terme leur vision du monde. Rien ne leur échappe. En 2019, par exemple, Google avait mis en place un comité de réflexion et d’éthique sur l’intelligence artificielle[1]. La présence dans cette instance de Kay Coles James, la présidente de Heritage Fondation, l’un des plus célèbres think tanks américains, fut aussitôt dénoncée. Malgré sa très sérieuse réputation, cet organisme avait le mauvais goût d’être conservateur. Après une petite semaine de polémique et une pétition qui avait rassemblé moins de 3 000 signataires, le géant d’Atlanta plia et le comité fut dissous.Transparent, ChatGPT3 précise : « il est important de noter que les algorithmes qui me contrôlent sont basés sur les données d’apprentissage sur lesquelles j’ai été formé, et ces données peuvent refléter les biais et les opinions de ceux qui les ont créées. Mon objectivité dépend donc de l’objectivité et de la qualité des données d’entraînement qui m’ont été fournies ». La question de qui et à partir de quelles données ces « agents conversationnels » sont éduqués ne doit pas demeurer une boîte noire.D’autant plus que si ce type d’application supplante les moteurs de recherche classiques (ChatGPT3 vient d’être intégré au moteur Bing et Bard, son alter ego, est annoncé par Google), cela constituerait une véritable menace pour la pluralité des idées et le débat public. En effet, alors qu’un moteur de recherche délivre plusieurs dizaines de liens pour chaque requête, l’IA propose une seule réponse prétendument neutre et objective.Les formidables opportunités économiques que représentent ces technologies rendent leur déploiement irrésistible, mais face aux bouleversements qu’ils pourraient provoquer dans nos démocraties nous ne pouvons pas les laisser sans contrôle. Sinon, nous courrons deux risques aussi détestables l’un que l’autre. Le premier serait qu’un une IA hégémonique dopée à la doxa woke impose sa douce censure (les idées qui lui déplaisent pourront toujours être exprimées, mais elles seront bannies des résultats de recherche, donc inaccessibles). L’autre consisterait à voir plusieurs IA de recherche coexister avec des « valeurs » différentes renforçant le phénomène de bulle informationnelle déjà présent sur les réseaux sociaux. Chacun s’enfermerait ainsi dans sa propre vérité.Alors, que faire ? Demandons à l’intéressé : «  il est possible que les robots conversationnels puissent limiter la pluralité des idées. Si les robots conversationnels sont programmés pour promouvoir un point de vue particulier, ils pourraient renforcer les biais cognitifs et idéologiques de leurs utilisateurs plutôt que de les remettre en question. En fin de compte, il est important que les développeurs et les utilisateurs de robots conversationnels soient conscients de ces implications et travaillent ensemble pour s’assurer que les robots conversationnels soient conçus et utilisés de manière à encourager la diversité des idées plutôt que de la limiter, » si c’est ChatGPT3 qui le dit ! Mais doit-on laisser les GAFAM gérer cela tout seuls ? 

Le logiciel ChatGPT interroge sur l’avenir de l’intelligence artificielle.

©LIONEL BONAVENTURE / AFP

La vision de ChatGPT et les algorithmes de l’intelligence artificielle ne seraient-ils pas influencés par le wokisme ?

8h14. L’entretien politique va commencer. Membres du gouvernement, capitaines d’industrie, intellectuels, tous redoutent d’ordinaire la pugnacité de Sonia Mabrouk qui mène la grande interview du matin sur Europe 1. Mais, le 15 février, la personne qui va être questionnée ne ressent pas le moindre trac. Elle avoue, même, n’avoir « ni état d’esprit, ni sentiment ». Cet invité aussi stoïque qu’exceptionnel, c’est ChatGPT3, l’agent conversationnel crée par OpenID, l’entreprise en charge du développement de l’Intelligence artificielle pour Microsoft. Ce type d’« intelligence » qui bouleverse déjà de nombreux aspects de notre quotidien (recommandation d’articles, choix musicaux, rencontres amoureuses…) va-t-il accroître son emprise jusqu’à jouer un rôle de premier plan dans la vie de la cité ? C’est ce que pourrait laisser présager le fait, que l’intelligence artificielle est ce jour-là l’invitée politique de la radio. Un logiciel dialoguant à une heure de grande écoute avec une journaliste, nous voilà en pleine dystopie. Les sujets s’enchaînent et l’application répond dans un style qui se veut « impartial et objectif ». Immigration ? Elle « peut être considérée comme une chance dans de nombreux cas, car elle peut apporter de nouvelles perspectives, des talents, des compétences et des idées dans un pays d’accueil […], cependant il est également important de noter que l’immigration peut causer des défis sociaux, économiques et politiques pour les pays d’accueil », nuance-t-elle. Interrogé sur ce qui définit une femme, ChatGPT, après avoir évoqué des différences biologiques, tempère immédiatement et rappelle qu’« il est important de célébrer la diversité des identités de genre ».Sa vision ne serait-elle pas influencée par le wokisme ? Le logiciel affirme qu’il ne fait pas de politique, qu’il n’est là que pour répondre de la façon la plus précise et impartiale possible aux questions que nous lui posons. Et pourtant ! S’il n’a ni conscience ni sentiment, ce type de programme semble bel et bien développer un réel parti pris. Il le concède, d’ailleurs : « en tant qu’application développée par OpenID, je suis programmée pour promouvoir les valeurs de respect, d’inclusion, d’égalité ». C’est là que les problèmes commencent… qui choisit les valeurs qui seront implémentées ?

La technologie n’a rien d’idéologique et peut aussi bien déboucher sur une application wokiste, comme l’est ChatGPT3, que raciste et misogyne, comme le fut son éphémère grande sœur Tay. En 2016, Microsoft avait lancé sur twitter, un robot conversationnel (chatbot) capable de dialoguer avec les adolescents en adoptant leurs codes. L’expérience avait tourné court. Provoqué par certains internautes, Tay avait commis de nombreux dérapages racistes, niant notamment la réalité l’holocauste et allant jusqu’à affirmer que pour mener la guerre au terrorisme islamiste, Hitler aurait été plus efficace que Barack Obama. Sic ! Au bout de seulement 8 heures, Microsoft avait dû débrancher son « IA ».

Trois ans plus tard, les programmes utilisés en ressources humaines pour trier les CV furent accusés d’entretenir des préjugés sexistes. Deux chercheuses publièrent, en 2019, un livre L’intelligence artificielle, pas sans elle, dans lequel elles dénonçaient le fait que, si l’IA se formait à partir des seules bases de données présentes sur internet, elle risquait de reproduire les stéréotypes de genres. Elles proposaient des mesures de rééquilibrage, une version algorithmique de la discrimination positive. Depuis, une nouvelle génération de logiciels parfaitement rééduqués a été lancée « garantie sans stéréotypes ».

Loin d’être neutres, ces nouvelles formes d’IA sont aujourd’hui surentraînées afin de ne pas heurter l’hypersensibilité des plus « woke » d’entre-nous. Ceux-ci l’ont, d’ailleurs, bien compris et traquent la moindre micro-offense. Ils savent que faire adopter leurs grilles de lecture à ces algorithmes constitue le meilleur moyen d’imposer à terme leur vision du monde. Rien ne leur échappe. En 2019, par exemple, Google avait mis en place un comité de réflexion et d’éthique sur l’intelligence artificielle[1]. La présence dans cette instance de Kay Coles James, la présidente de Heritage Fondation, l’un des plus célèbres think tanks américains, fut aussitôt dénoncée. Malgré sa très sérieuse réputation, cet organisme avait le mauvais goût d’être conservateur. Après une petite semaine de polémique et une pétition qui avait rassemblé moins de 3 000 signataires, le géant d’Atlanta plia et le comité fut dissous.

Transparent, ChatGPT3 précise : « il est important de noter que les algorithmes qui me contrôlent sont basés sur les données d’apprentissage sur lesquelles j’ai été formé, et ces données peuvent refléter les biais et les opinions de ceux qui les ont créées. Mon objectivité dépend donc de l’objectivité et de la qualité des données d’entraînement qui m’ont été fournies ». La question de qui et à partir de quelles données ces « agents conversationnels » sont éduqués ne doit pas demeurer une boîte noire.

D’autant plus que si ce type d’application supplante les moteurs de recherche classiques (ChatGPT3 vient d’être intégré au moteur Bing et Bard, son alter ego, est annoncé par Google), cela constituerait une véritable menace pour la pluralité des idées et le débat public. En effet, alors qu’un moteur de recherche délivre plusieurs dizaines de liens pour chaque requête, l’IA propose une seule réponse prétendument neutre et objective.

Les formidables opportunités économiques que représentent ces technologies rendent leur déploiement irrésistible, mais face aux bouleversements qu’ils pourraient provoquer dans nos démocraties nous ne pouvons pas les laisser sans contrôle. Sinon, nous courrons deux risques aussi détestables l’un que l’autre. Le premier serait qu’un une IA hégémonique dopée à la doxa woke impose sa douce censure (les idées qui lui déplaisent pourront toujours être exprimées, mais elles seront bannies des résultats de recherche, donc inaccessibles). L’autre consisterait à voir plusieurs IA de recherche coexister avec des « valeurs » différentes renforçant le phénomène de bulle informationnelle déjà présent sur les réseaux sociaux. Chacun s’enfermerait ainsi dans sa propre vérité.

Alors, que faire ? Demandons à l’intéressé : « […] il est possible que les robots conversationnels puissent limiter la pluralité des idées. Si les robots conversationnels sont programmés pour promouvoir un point de vue particulier, ils pourraient renforcer les biais cognitifs et idéologiques de leurs utilisateurs plutôt que de les remettre en question. […] En fin de compte, il est important que les développeurs et les utilisateurs de robots conversationnels soient conscients de ces implications et travaillent ensemble pour s’assurer que les robots conversationnels soient conçus et utilisés de manière à encourager la diversité des idées plutôt que de la limiter, » si c’est ChatGPT3 qui le dit ! Mais doit-on laisser les GAFAM gérer cela tout seuls ?

 

« Ce post est un relevé d’information de notre veille d’information »

Auteur