Jeudi 3 mai 2018

«Ne pas devenir les spécialistes de l’éthique tandis que les Chinois et les Américains deviennent des spécialistes du business.»
Antoine Petit, président du CNRS à propos du rapport Villani

Cédric Villani a donc produit un rapport sur l’intelligence artificielle (IA) : « Donner du sens à l’intelligence artificielle »

Je ne l’ai pas lu, j’ai entendu et vu plusieurs interventions de Cédric Villani qui parlait de son rapport et de sa réflexion sur le sujet.

Un spécialiste de l’intelligence artificielle Olivier Ezratty a écrit un article critique très complet sur ce sujet et que vous trouverez derrière ce lien : <Ce que révèle le Rapport Villani>

Mais le mot du jour d’aujourd’hui va insister sur un autre article concernant ce sujet et plus précisément le lien que fait ce rapport entre l’intelligence artificielle et l’éthique.

Cet article m’a été suggéré par Daniel qui me fait le plaisir de commenter très souvent les mots du jour.

Cet article se trouve sur le site dédié à l’innovation : https://www.frenchweb.fr et a été écrit par Philippe Silberzahn, professeur à EMLYON Business School et chercheur associé à l’École Polytechnique.

Il a pour titre : « IA et éthique: le contresens navrant de Cédric Villani »

Et voilà ce qu’il dit en substance :

Il attaque assez fort dès le départ :

«  Avec le rapport Villani sur l’intelligence artificielle, la France a renoué avec une vieille tradition: demander à quelqu’un d’intelligent d’écrire un rapport idiot. Enfin idiot, on se comprendra: le rapport que notre Médaille Fields vient de rédiger n’est pas tant idiot que convenu. »

S’appuyant sur des exemples historiques récents et moins récents, bien connus de nous tous, Philippe Silberzahn conteste fondamentalement la possibilité de donner, a priori, un jugement éthique sur une innovation :

« Le titre-même du rapport « Donner un sens à l’IA » est problématique. Quand on regarde l’histoire de l’innovation, le sens a toujours été donné a posteriori. Et ce pour une raison très simple: les ruptures technologiques présentent toujours des situations inédites sur le plan légal, social et éthique. Il est très difficile, voire impossible, de penser ces ruptures avant qu’elles ne se produisent, et avant que les effets ne soient visibles. On risque de penser dans le vide. Lorsque McKinsey conduit une étude de marché pour AT&T en 1989 pour évaluer le potentiel de la téléphonie mobile, les résultats sont désastreux: personne ne voit l’intérêt d’avoir un téléphone mobile. Personne ne peut simplement imaginer ce qu’on ferait avec. Seule l’utilisation effective a révélé les possibilités de la technologie, de même qu’aujourd’hui seule l’utilisation de Facebook en révèle les dangers pour la vie privée.

Plus généralement, les applications d’une nouvelle technologie sont impossibles à anticiper. Lorsque les ingénieurs français et autrichien découvrent les ultra-sons en 1911, ils s’en servent pour détecter les sous-marins. Quarante ans après, cette technologie est utilisée en médecine, c’est l’échographie. Cette utilisation est totalement imprévue et d’ailleurs, il était initialement question que ce soit pour la détection des cancers. Aujourd’hui, l’échographie est devenue banale et peu chère, à tel point qu’elle est utilisée dans les pays pauvres, en particulier en Chine et en Inde. Utilisée pour l’avortement sélectif, elle est directement responsable du fait notamment qu’environ 25 millions de femmes ne sont pas nées en Chine, causant un déséquilibre des sexes qui entraîne de lourds problèmes sociaux et donc politiques. Qui aurait pu penser qu’une technologie mise au point en Europe pour la lutte anti sous-marine soit la cause, un siècle plus tard, d’un bouleversement social en Asie? Penser les conséquences de l’échographie a priori aurait été totalement vain. »

Il nous pousse ensuite dans nos contradictions et pose la question subtile du constat éthique de l’automobile :

« Mais il y a pire. Toute technologie est duale, au sens où elle peut servir à faire le bien comme le mal. Imaginez que vous soyez ministre de l’environnement dans un pays éthique qui a mis le principe de précaution dans sa constitution (exemple fictif bien-sûr). Un groupe d’industriels vient vous voir pour obtenir l’autorisation préalable nécessaire à la commercialisation de leur nouvelle technologie. Elle apportera de toute évidence des bienfaits immenses, facilitant la vie de nombreux habitants. Son seul défaut: elle tuera environ un million de personnes par an dans le monde.

Que faites-vous?

Vous l’interdirez probablement et mettrez un comité d’éthique sur le dossier.

Cette technologie? C’est l’automobile. »

Michel Serres cite souvent <la fable de la langue> écrit par Esope, le fabuliste grec, au VIème siècle avant notre ère.:

« Le maître d’Ésope lui demande d’aller acheter, pour un banquet, la meilleure des nourritures et rien d’autre. Ésope ne ramène que des langues ! Entrée, plat, dessert, que des langues ! Les invités au début se régalent puis sont vite dégoûtés.

– Pourquoi n’as-tu acheté que ça ?

– Mais la langue est la meilleure des choses. C’est le lien de la vie civile, la clef des sciences, avec elle on instruit, on persuade, on règne dans les assemblées…

– Eh bien achète-moi pour demain la pire des choses, je veux de la variété et les mêmes invités seront là.

– Ésope achète encore des langues, disant que c’est la pire des choses, la mère de tous les débats, la nourrice des procès, la source des guerres, de la calomnie et du mensonge. »

La conclusion de Philippe Silberzahn qui cite le patron du CNRS, citation dont j’ai fait l’exergue de ce mot du jour, constitue un questionnement fort et complexe :

« En plaçant l’IA au service de l’éthique, le rapport commet donc deux erreurs: d’une part il ne se donne aucune chance de penser l’éthique de l’IA correctement, car nous penserons dans le vide – nous ne pourrons penser qu’en faisant, et d’autre part il condamne la France à regarder les autres danser depuis le balcon. Antoine Petit, le patron du CNRS lors de la conférence AI For Humanity où était présenté le rapport Villani, nous invitait ainsi à éviter un écueil: « Ne pas devenir les spécialistes de l’éthique tandis que les Chinois et les Américains deviennent des spécialistes du business. »

C’est tout l’enjeu et à vouloir mettre l’IA d’entrée de jeu au service de la diversité, de l’égalité homme-femme, du bien commun et des services publics, c’est sacrifier aux modes du moment en se trompant de combat.

On demandait à Cédric Villani de nous dire comment la France pouvait rattraper son retard en IA, c’est à dire de poser un raisonnement industriel, pas de signaler sa vertu à l’intelligentsia post-moderniste qui gouverne la pensée de ce pays.

Sans compter que comme souvent dans ces cas-là, le sens que l’on donne à éthique est bien restreint. Il peut être éthique de ne pas vouloir développer une IA aux conséquences négatives, mais il peut être également éthique d’essayer pour voir, car ce n’est qu’en agissant que nous saurons. Les entrepreneurs savent cela depuis longtemps, nos savants intelligents et ceux qui nous gouvernement l’ignorent, et se condamnent peu à peu à la paralysie par excès de prudence et, au fond, par peur du futur.

Nous devenons un vieux pays, et laissons progressivement les autres développer l’avenir.

Au fond, le rapport Villani est un rapport de vieux, la hype de notre ami Cédric en plus. »

Les craintes exprimées ne peuvent que nous interpeller.

Cela étant, au fur à mesure de l’utilisation de l’IA nous devrons rester vigilants.

En serons-nous capable entraînés par le vertige de la modernité ?

<1063>

2 réflexions au sujet de « Jeudi 3 mai 2018 »

  • 3 mai 2018 à 9 h 59 min
    Permalink

    En étant optimiste, l’IA nous aidera peut être à anticiper les conséquences de son propre développement, non ?

    Répondre
    • 3 mai 2018 à 15 h 40 min
      Permalink

      Je t’ai connu plus progressiste et confiant en l’avenir. l’IA en lien avec le big data va améliorer les diagnostics médicaux et aussi les thérapies.
      Peut être même que l’IA serait capable de diagnostiquer que la politique de Macron va creuser les inégalités et si l’IA le dit on le croira contrairement aux humains qui disent la même chose…

      Répondre

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *