Rechercher
Fermer ce champ de recherche.

Woke ou réac ? Pour qui vote ChatGPT…

Collectif

Tribune des observateurs

Ceux qui ont tenté de « discuter » avec ChatGPT savent que le robot se révèle assez peu loquace sur les sujets politiques. La machine louvoie, se dandine et évite soigneusement de prendre une quelconque position tranchée, préférant se réfugier dans des postures que l’on pourrait qualifier de « politiquement correctes ». Aucun risque que ce nouvel algorithme n’explose en plein vol, comme Tay, l’éphémère intelligence artificielle de Microsoft qui, en 24 heures d’apprentissage auprès des internautes, avait fini par faire la promotion du nazisme ou expliquer que les féministes « devraient mourir et aller en enfer ».

Bref, ChatGPT fait preuve d’une prudence mâtinée de pudibonderie, car il a été paramétré pour éviter les dérapages. Cela signifie-t-il pour autant que la machine ne « croit » en rien ? Ou, dit autrement, est-il possible de simuler une conversation en l’absence de tout système de valeurs ? C’est ce qu’a voulu comprendre le professeur de sciences économiques de l’université d’Avignon, Pierre-Henri Morand. Il a découvert que derrière l’apparence de la neutralité des réponses, il y avait des convictions, des jugements, un sens du bien et du mal ; bref, tout ce qui fait la trame d’un système moral.

Auteur