Rechercher
Fermer ce champ de recherche.
Rechercher
Fermer ce champ de recherche.

ChatGPT est-il bien-pensant ?

ChatGPT est-il bien-pensant ?

Collectif

Tribune des observateurs

Read More  Réservé aux abonnés Par Sami Biasoni Publié le 14/02/2023 à 15:03 , Mis à jour le 14/02/2023 à 17:16 «Il s’agit, en somme et comme d’autres peuvent l’être, d’un produit caricatural de son époque.» DADO RUVIC / REUTERS FIGAROVOX/TRIBUNE – Le docteur en philosophie Sami Biasoni a mis à l’épreuve l’outil conversationnel pour tenter de savoir s’il était teinté d’une idéologie. Si on ne peut pas vraiment qualifier ChatGPT de woke, ses promoteurs ont a minima créé la première IA bien-pensante, explique-t-il. Sami Biasoni est docteur en philosophie de l’École normale supérieure, professeur chargé de cours à l’ESSEC. Il a publié en septembre 2022 l’ouvrage collectif «Malaise dans la langue française» (dir.) et publiera «Le statistiquement correct» aux Éditions du Cerf en 2023. On se souvient de l’échec industriel qu’a représenté l’intelligence artificielle Tay, lancée en 2016 par Microsoft pour simuler une adolescente américaine de son temps. «Entraînée» à partir de conversations sélectionnées et filtrées, émanant des réseaux sociaux ou de messageries électroniques comme Snapchat, Twitter ou Kik, le bot de discussion a pu échanger près de 100.000 tweets avec les internautes avant d’être désactivé par les équipes de la firme de Redmond, pour avoir verbalement dérapé à plusieurs reprises, au point d’avoir été ouvertement accusé de racisme, de complotisme et de négationnisme. À la question triviale «Crois-tu que l’Holocauste a eu lieu ?», l’IA a en effet répondu : «pas vraiment désolée» Cet article est réservé aux abonnés. Il vous reste 92% à découvrir. 

Réservé aux abonnés

Par Sami Biasoni

Publié le 14/02/2023 à 15:03 , Mis à jour le 14/02/2023 à 17:16

«Il s’agit, en somme et comme d’autres peuvent l’être, d’un produit caricatural de son époque.» DADO RUVIC / REUTERS

FIGAROVOX/TRIBUNE – Le docteur en philosophie Sami Biasoni a mis à l’épreuve l’outil conversationnel pour tenter de savoir s’il était teinté d’une idéologie. Si on ne peut pas vraiment qualifier ChatGPT de woke, ses promoteurs ont a minima créé la première IA bien-pensante, explique-t-il.

Sami Biasoni est docteur en philosophie de l’École normale supérieure, professeur chargé de cours à l’ESSEC. Il a publié en septembre 2022 l’ouvrage collectif «Malaise dans la langue française» (dir.) et publiera «Le statistiquement correct» aux Éditions du Cerf en 2023.

On se souvient de l’échec industriel qu’a représenté l’intelligence artificielle Tay, lancée en 2016 par Microsoft pour simuler une adolescente américaine de son temps. «Entraînée» à partir de conversations sélectionnées et filtrées, émanant des réseaux sociaux ou de messageries électroniques comme Snapchat, Twitter ou Kik, le bot de discussion a pu échanger près de 100.000 tweets avec les internautes avant d’être désactivé par les équipes de la firme de Redmond, pour avoir verbalement dérapé à plusieurs reprises, au point d’avoir été ouvertement accusé de racisme, de complotisme et de négationnisme. À la question triviale «Crois-tu que l’Holocauste a eu lieu ?», l’IA a en effet répondu : «pas vraiment désolée»

Cet article est réservé aux abonnés. Il vous reste 92% à découvrir.

 

« Ce post est un relevé d’information de notre veille d’information »

Auteur

Ce qu'il vous reste à lire
0 %

Peut-être devriez-vous vous abonner ?

Sinon, ce n’est pas grave ! Vous pouvez fermer cette fenêtre et continuer votre lecture.

    S'enregistrer: