

Que ce soit dans la presse, dans l’édition ou sur internet, il est souvent question de l’intelligence artificielle voire des intelligences artificielles et pourtant, c’est un domaine mal connu du grand public, où règne la confusion entre les fantasmes de science-fiction, la réalité scientifique, les annonces grandiloquentes et les informations déformées. Au-delà des questions entourant la perte de contrôle de l’homme sur les machines qui nous entourent, les craintes le plus souvent évoquées à propos des récents progrès de l’IA et de la robotique sont leur impact sur l’emploi ou encore les potentielles menaces sur la démocratie. Durant cette rencontre débat, Jean Sallantin et Jean-Michel Rodriguez vous proposent de réfléchir ensemble à cette question : Faut-il avoir peur de l’IA?
Jean Sallantin est directeur de recherche émérite au CNRS LIRMM (Laboratoire d’Informatique, de Robotique et de Microélectronique de Montpellier)
Ses recherches portent sur la rationalité dans l’activité de découverte scientifique conduite par des personnes assistées de machines capables d’apprendre. Il contribue au projet AREN en lien avec le rectorat et l’université qui consiste à développer et expérimenter une plateforme numérique dédiée au débat écrit, en ligne, des élèves afin de développer leur esprit critique.
Jean-Michel Rodriguez possède un Doctorat en Intelligence Artificielle obtenu à l’Université des Sciences et Techniques du Languedoc. Ses travaux de recherche sont axés sur l’évolution de l’Intelligence Artificielle, le traitement de la donnée et sur la gestion et le partage de la connaissance. Il donne, partout dans le monde, de nombreuses conférences sur le sujet. Il travaille actuellement chez IBM où il dirige une équipe internationale de développement ; l’innovation est au centre de ses activités et ayant déposé de nombreux brevets, il est devenu Master Inventor chez IBM. Il enseigne également à l’Université et au CNAM de Montpellier.
Faire des assistants intelligents est un domaine de recherche de l’intelligence artificielle. Un chatbot est un assistant virtuel qui simule l’humain et tente de faire croire qu’il est humain.
Le test de Turing est un protocole pour mesurer la capacité de faire illusion d’un chatbot.
La vision est un second domaine qui challenge la vision humaine sur la précision, l’interprétation des images en est en ce moment la limite. La vision artificielle se confronte aussi à celle de l’animal dont l’aigle, les mouches.
En robotique, troisième domaine, les robots ne prennent pas la place des humains surtout pour les métiers manuels en relation avec des humains. L’emploi intellectuel est plus impacté. L’autonomie des robots est leur limitation principale, elle vient des limitations des batteries. Mais cela pourra changer avec l’invention des piles à bactéries.
Un autre domaine de l’IA est la planification sous contrainte servant pour la logistique et la réalisation d’emploi du temps. Les temps de calculs machine sont fort longs mais ils vont être réduits drastiquement dans les 10 ans par l’usage des ordinateurs quantiques.
L’éthique est un autre domaine qui est popularisé par le dilemme posé à la voiture autonome ayant à choisir entre la vie de son passager et celle de piétons, jeunes ou vieux, jumeaux, animaux vagabondants.
Elle pose essentiellement les normes régissant les responsabilités des producteurs, des propriétaires et des utilisateurs de machines intervenant dans un mode habité par des humains. Mais que font les humains sur les routes fréquentés par des voitures autonomes?
Le débat se réalise selon la technique du débat mouvant.
Deux camps les » + : pas peur de l’IA » et les « – peur de l’IA » s’affrontent et cherche à attirer le public de l’autre camp par leurs arguments
Intervention de Jean Sallantin
Le débat mouvant est un protocole qui vous a permis de formuler des propos et répondus à un propos, mais personne n’a changé de camp montrant ainsi un changement d’avis.
De manière générale, tout débat organise ses échanges selon un protocole et l’analyse d’un débat est influencé par le protocole du débat.
Le grand débat national est un exemple présent de débat qui mélange plusieurs protocoles. Compte tenu du nombre de verbatim, son analyse utilise des outils d’intelligence artificielle du domaine du traitement du langage et de l’apprentissage automatique. L’IA intervient pour extraire et catégoriser les termes et pour apprendre des règles d’association entre termes. Toutes les autres étapes sont faites par des analystes humains.
Regardons l’allure des résultats présentés sur le site du grand débat national.
Les catégories que produisent les analystes ne regroupent pas beaucoup d’arguments.
Il n’est pas satisfaisant d’un point de vue morale d’un débat démocratique qu’une très grande part des arguments sont dans une catégorie poubelle.
D’un point de vue éthique, il n’est pas convenable que l’analyse, alors qu’elle dispose du résultat, ne permette pas à chacun de savoir ce qu’il est advenu de son propos.
D’un point de vue scientificité de l’étude, il n’est pas convenable que les participants ne puissent pas critiquer les conclusions de cette analyse les impliquant.
Le numérique peut-il apporter respect et confiance dans le débat public?
D’autant plus que le propre de homme est de chahuter les normes qui lui sont imposées. Le livre de Michel Serres « Morale espiègle » développe remarquablement ce point.
Nous allons présenter deux exemples montrant comment des humains bousculent des modèles réalisés avec des outils IA pour dévoiler des lacunes et des incertitudes. Ces deux démarches ont été validées lors de thèse que j’ai dirigées.
Des juristes juniors font valider une modélisation logique de la classe de contrat dont leur tuteur est un grand expert reconnu. Ils font alors le contrat le plus absurde respectant le modèle pour donner à l’expert un cas concret à critiquer leur permettant de corriger le modèle. La tactique fait converger le modèle en moins de 10 interactions vers des contrats déclarés par l’expert comme étant maladroits mais pas absurdes.
Le navigateur expert fait apprendre par une machine un modèle lui servant à décider de la position du défis français sur la ligne de départ. Pour cela il fournit des exemples de position de départ pour les bateaux ayant gagné des défis. Pour fabriquer son propre modèle l’expert propose un choix de position absurde et retient les règles de l’IA si cette dernière est parvenue à le réfuter.
A terme une IA apprenant à partir des débats doit servir à localiser des incertitudes et des lacunes concernant les débats préparant des prises de décisions.
L’homme ne programme plus les machines IA qui se programment elles-mêmes. De ce fait elle ne sont plus véritablement un outil. On a plus la main mise sur le choix des machines.
Les futures guerres seront des guerres technologiques. Pour des raisons éthiques la gâchette du drone est déclenchée par un doigt humain.
On peut définir les intelligence « faibles » comme celles qui n’apprennent que dans des domaines spécifiques. Une intelligence « forte » qui apprendrait comme le font les humains devrait dépasser celle de l’homme car la mesure où la puissance de calcul des machines leur permet d’apprendre plus vite ce que l’on a du mal à apprendre. C’est pourquoi il ne faut pas laisser exister des intelligences IA fortes.
Les verbatim des 4 nappes de la médiathèque
Les débats ont été marqués par des discussions avec les conférenciers mais aussi par le fait qu’il n’était pas proposé aux participants de prendre position sur une question clivante. La médiathèque avait déposé sur chaque table une fiche documentaire introduisant le thème.
IA et transport
IA et environnement
IA et éducation
IA et santé