Vendredi, j’avais donné mon sentiment que nous manquions d’humains dans le quotidien, pour nous écouter, nous répondre, nous aider dans nos problèmes quotidiens.
Mais une révolution est en marche. Nous allons pouvoir trouver une écoute et des réponses, de manière efficace et sans compter le temps qui nous sera consacré.
Mais ce ne sera pas des humains.
Aujourd’hui, je vous renvoie vers une émission d’Etienne Klein <Comment converser avec les machines parlantes ?>
Nous sommes de plus en plus en contact avec des machines qui écoutent nos questions et nous répondent en langage naturelle.
En bon français on appelle ces machines des « agents conversationnels>
Mais dans le langage globish on parle de « Chatbots>
Dans leurs versions les plus récentes, ces chatbots soulèvent de multiples questions d’ordre éthique, notamment parce qu’ils sont en mesure d’influencer notre comportement. Ils peuvent créer un rapport affectif avec leurs utilisateurs et sont susceptibles de les manipuler.
Pour parler de ces sujets Etienne Klein a invité Alexei Grinbaum physicien et philosophe, membre du Comité National pilote d’éthique du numérique (CNPEN) et co-rapporteur du rapport « Agents conversationnels : enjeux éthiques ». Ce rapport est accessible derrière <ce lien> :
Etienne Klein a commencé son émission par une expérience, il a demandé à un chatbot de répondre à la question suivante : « L’intelligence artificielle peut-elle être éthique ? » et il a demandé une réponse en dix lignes.
Etienne Klein a lu la réponse qui était tout à fait rationnel et intelligente.
Cette réponse n’a été écrite par personne, l’intelligence artificielle l’a conçue elle-même à partir de son apprentissage opéré par l’accès à d’immenses bases de données et l’analyse qu’elle en a faite.
Pour rebondir Alexei Grinbaum a évoqué une tribune qui a été entièrement conçue par une machine et un langage américain appelée le GPT-3 (créé dans une entreprise d’Ellon Musk) et a été publiée dans le journal anglais « The Guardian » en 2020.
Les lecteurs ont été informés que l’article avait été écrit par une machine et ont été « émerveillés », selon les propos d’Alexei Grinbaum, par sa qualité.
On a ainsi pu constater que ces « agents conversationnels » pouvaient remplacer dans certaines tâches des journalistes, assurer un service après-vente, remplacer votre médecin pour un entretien médical.
Alexei Grinbaum a ajouté que cela posait des problèmes éthiques considérables et particulièrement sur l’influence que ces machines pouvaient avoir sur les humains.
Quand l’ancien journaliste du Figaro et ancien chroniqueur de Ruquier parle du grand remplacement, il a raison. Simplement il n’y met pas bon contenu : il ne s’agit pas du remplacement des catholiques français par une population d’une autre religion et qui viendrait de l’autre côté de la méditerranée mais des êtres humains qui vont être remplacés par des machines.
On pourra de mieux en mieux converser avec des agents conversationnels. Alexei Grinbaum évoque une vitesse d’évolution récente absolument incroyable qui se base sur ce qu’on appelle « la technologie des transformers » qui s’appuie sur le « deep learning » ou apprentissage profond.
Grinbaum explique :
« Nous avons commencé à travailler sur les Chatbot en 2018. En 2018 les systèmes de 2021 n’existaient pas. Ces systèmes nouveaux ont profité de la création de réseaux du type « transformer » qui sont des réseaux de neurones apprenant sur des masses gigantesques de données. »
Ces systèmes se révèlent capable de générer « un langage naturel » qui ne se distingue quasi pas du langage de l’homme.
Tout au plus comme le dit Grinbaum :
« Ces machines parlent parfois trop bien. […] Ils ne font pas de raccourcis »
Ils ne font aucune erreur d’orthographe et de grammaire. Ce qui prouve que mes mots du jour ne sont pas écrits par un agent conversationnel !
Grinbaum ajoute :
« Il y a de l’inhumain dans la manière de parler des chatbots !»
Et quand Etienne Klein pose cette question : est-ce que l’agent conversationnel peut comprendre de la poésie ?
Alexei Grinbaum répond :
« Comprendre est un mot qui nous distingue nous les êtres humains, des machines qui ne comprennent rien ! Mais elles peuvent provoquer chez nous une illusion qu’elles aient compris quelque chose. Les machines fonctionnent de manière statistique sur de grandes masses de données. Le résultat est à la fois ressemblant et nouveau. »
Il est nouveau parce que la phrase que la machine fabrique, elle ne l’a pas trouvé telle quelle, elle produit du texte à partir de son outil statistique qu’on appelle intelligence artificielle.
Les processus d’appropriation du langage sont très différents : les machines utilisent un processus statistique, alors que les humains s’attachent à comprendre la signification des mots et des phrases.
« La signification » n’a selon Grinbaum, aucun sens pour les machines.
Nous disposons dans notre quotidien d’agents conversationnels, qui ne sont peut-être pas du niveau de ceux qu’évoque Grinbaum, mais tout de même. J’ai voulu tester
Les utilisateurs comme moi d’un smartphone Apple, donc d’un iPhone, dispose de l’agent « Siri »
J’ai commencé la conversation, en demandant à Siri : est tu une machine ?
Je suis SIRI votre assistante virtuelle.
Es-tu intelligente ?
Mon but est d’être intelligente et utile. C’est un apprentissage de tous les jours.
Est-ce que tu cherches à me faire acheter des produits ?
Bonne question.
Est-ce que Dieu existe ?
Tout cela est un grand mystère pour moi
Est-ce que je vais mourir ?
Je peux vous aider à passer un appel d’urgence.
Et il m’a immédiatement présenté la possibilité d’appeler un numéro de téléphone des services d’urgence. On voit ainsi qu’il est dans l’opérationnel, pas dans la philosophie !
J’ai continué : Est-ce que toi SIRI tu peux mourir ?
Bonne question
Est-ce que tu réponds : Bonne question quand tu ne sais pas répondre ?
Essayez de reformuler votre requête s’il vous plaît.
On voit là qu’en effet il ne comprend rien et que « la signification » est un terme absent de son univers !
Et j’ai poursuivi : Est-ce que tu sais qui t’a conçu ?
Je pense que j’ai vu le jour suite à une soudaine inspiration durant une longue et féconde promenade.
Là je soupçonne une prévision d’un humain qui pensait que cette question serait posée et qui a donné la réponse à Siri. Je ne me suis pas arrêté : Est-ce que tu es capable d’aimer ?
Je regrette je n’ai pas de réponse à cela. Est-ce que je peux vous aider pour autre chose ?
Est-ce que tu peux te tromper ?
Je regrette je n’ai pas de réponse à cela. Est-ce que je peux vous aider pour autre chose.
Et puis en conclusion : Es-tu un agent conversationnel ?
Bien sûr que non !
Cette réponse m’a surpris alors j’ai demandé : Qu’est-ce qu’un agent conversationnel ?
Il m’affiche : « Un chatbot ou dialogueur ou agent conversationnel est un agent qui dialogue avec un utilisateur. »
Alors j’ai tenté de poursuivre cette conversation et de lui lancer une affirmation : Tu fais exactement cela : « dialogue avec l’utilisateur ». Tu es un agent conversationnel !
Je suis là pour vous aider, pour en savoir plus rendez-vous sur Apple.com
Bon, à ce stade je n’ai pas de crainte d’entrer dans une relation affective avec Siri !
« Les agents conversationnels » se basent donc sur un processus statistique. Ce processus peut cependant être contrecarré par les concepteurs humains
Ainsi, ils n’utilisent jamais de pronom genré : « il » ou « elle » ont été écartés de leur langage par la volonté de leur programmeur
Grinbaum explique que c’est parce que les concepteurs avaient peur de se tromper en raison d’un prénom mixte ou un autre élément perturbateur qui risquait de pousser à l’erreur.
Peut-être aussi que les concepteurs adhérent à des théories dans lesquelles le genre est suspect.
Toujours est-il que les chatbots ne disent jamais « il » ou « elle » et si les enfants s’habituent à parler comme eux, les pronoms genrés disparaîtront aussi de leur langage.
Il y a évidemment des agents conversationnels de types très différents.
Il en existe de très simples qui sont de simples arbres décisionnels, notamment dans le domaine technique ou du service après-vente ou encore dans le domaine de la santé pour la prescription et le dosage des médicaments.
Beaucoup de chatbots sont spécialisés, mais les plus époustouflants sont les agents conversationnel généralistes qui parlent de tout. Ce sont ceux qui utilisent ces nouvelles techniques de transformer.
Etienne Klein pose alors la question :
« N’est ce pas effrayant ? »
Et Grinbaum répond :
« C’est fascinant, ça ne veut pas dire que ce n’est pas effrayant !
Mais il est clair qu’on s’achemine vers un monde différent. »
Et il parle notamment de personnes troublées ou seules ou timides qui vont parler avec un chatbot et qui vont en faire leur ami.
Il y aura de l’affect dans cette relation, de l’affect du côté humain, du côté machine cela ne veut rien dire.
Nous avions vu le film « HER» dans lequel un homme un peu déprimé tombe amoureux du nouveau système d’exploitation de son ordinateur à qui il donne le nom de Samantha. Ils parlent ensemble et Samantha parle d’amour. Mais l’un y croit, l’autre ne sait même pas ce que cela signifie.
On peut très bien imaginer que les chatbots remplacent les psychanalystes. D’ailleurs d’ores et déjà des patients préfèrent parler avec une machine parce qu’il n’y a pas de jugement moral et ils sont plus libres de parler.
Je finirai, en citant le passage qu’ils ont eu sur le test d’Alan Turing
En 1950, peu de temps avant sa mort Alan Turing a proposé un test d’intelligence pour une machine capable de dialoguer en langage naturelle avec un être humain.
Selon le test de Turing, une machine est intelligente si un humain qui dialogue avec elle ne s’aperçoit pas que c’est une machine.
Pour Grinbaum :
« Si on prend un chatbot actuel très performant et qu’on limite le temps d’échange à deux minutes. La machine sait construire un dialogue absolument parfait de deux ou trois minutes, indistinctable du dialogue humain. Mais au bout de dix minutes ou de 15 minutes, vous allez rencontrer quelque chose d’étrange de bizarre. Le test de Turing dans sa définition originale ne met pas de contrainte sur la durée. Cette contrainte sur la durée est aujourd’hui essentielle »
Etienne Klein rappelle qu’Alan Turing avait prédit qu’en l’an 2000 les machines seraient en capacité de tromper 30% des juges humains pendant un test de 5 minutes de conversation.
Et Grinbaum répond :
« On y est déjà ! »
Nous sommes cependant en 2021 non en 2000 et Grinbaum insiste que les progrès des trois dernières années ont été décisifs.
Vous apprendrez bien d ‘autres chose dans cette émission passionnante et assez déconcertante pour notre avenir.
Vous entendrez parler de <l’effet Elyza> et aussi de < deadbots >. Ces agents conversationnels qui font parler les morts ou plutôt parlent comme des morts en utilisant les conversations et des écrits qu’ils ont produits avant leurs décès. J’en avais déjà fait le sujet du mot du jour du 27 mars 2018 : « Nier la mort. »
Il est aussi possible de trouver des articles sur ce sujet sur le Web
Par exemple le journal suisse « Le Temps » <Des «chatbots» pour parler avec les morts>
Un site informatique « Neon », dans un article récent le 12 novembre 2021 <Les chatbots qui font « parler les morts » posent quelques questions éthiques>
Je redonne le lien vers l’émission <Comment converser avec les machines parlantes ?> qui parle du vrai grand remplacement.
<1635>