Débat

Comment vivre avec des IA ? Débattez avec les acteurs du monde de l’entreprise

vivre avec

  Le Débat en amphi

amphi.06:03

Environ 70 participants avec environ 20 personnes venant d’entreprises se servant d’outils d’intelligence artificielle.

invivable

Lors du débat préparatoire interviennent des entrepreneurs utilisant le deep learning dans le marché très rentable de la publicité en ligne.

Cette niche précise est détaillée :   trading financier, media trading, vente de ciblage. Le premier lobbyiste du media trading auprès du parlement européen est google.

deeplearning

Le deep learning sert ici à engendrer facilement des résumés et à configurer une campagne de publicité. Il se fait à partir de l’usage d’outils de Google.

La discussion  a porté sur des problèmes d’éthique qui se posent aux entrepreneurs de ce domaine : comment faire de la publicité non invasive?

pasbeau

Comment éviter le profiling conduise des jugements subjectifs?

noir

Comment éviter les influences provenant de sites de mauvaise réputation?

Les 5 débats sur nappe

06:03

IA et législation

IA2-Legislation

  • (I;) (C;) (D;)Les états ont-ils la volonté/ les moyens / les connaissances pour mettre un cadre relativement aux industriels
  • (D;) Difficulté de définir les contours d l’IA pour la figer dans des textes de loi
  • Les acteurs majeurs sont américains et les lois européennes
  • Difficulté de légiférer sur une technologie non mature
  • (I;) La législation est au niveau des états quid d’une législation mondiale?
  • Qui est responsable d’une décision de l’IA
  • Quel libre arbitre des technologies?
  • Qui est responsable d’une IA :
  • L’IA doit pouvoir évoluer  :
    • gestion des incertitudes
    • gestion des incomplétudes
      • je ne sais pas tout
      • besoin d’un avis humain
  • (C;) héritage numérique suggestion de faire part mortuaire sur internet
  • former des groupes de travail pour informer le législateur
  • (C;) L’IA peut elle relever ses propres incohérence pour les signaler aux législateurs
  • Comment écrire une législation qui ne soit pas facilement contournante par des industriels
  • (I;) Donner son accord et être informé de l’existent d’une IA
  • Droit à l’Image, droit à l’oubli.
  • Prise de conscience
Rapporteur :Hélène Q. -> IA et législation
A notre connaissance, il n’existe pas de texte de loi relatif à l’intelligence artificielle, mais il en existe plusieurs liés aux données. En matière de protection de données personnelles, on peut citer le droit à l’image, le droit à l’oubli, et la Règlement Générale de Protection des Données (RGPD/GDPR). La Commission Nationale Informatique et Libertés (CNIL) est active dans ce domaine, elle a d’ailleurs émis récemment un rapport sur l’IA. Le sujet est important, il est par exemple déstabilisant de recevoir sur un réseau social des suggestions de la part d’un ami décédé, suggestions en réalité créées par une IA.
Nous assistons à une prise de conscience progressive des pouvoirs publics, sur l’intelligence artificielle. Barack Obama avait initié le mouvement, Emmanuel Macron poursuit la réflexion avec la mission Villani. La difficulté est que les lois sont émises par les états ou groupements d’états (Europe), alors que les acteurs économiques de l’intelligence artificielle sont mondiaux, essentiellement américains et chinois.
Une des questions clés est celle de la responsabilité. Connaissant le fondement probabiliste des intelligences artificielles, celles-ci doivent pouvoir s’auto-évaluer et soit prendre les décisions « évidentes », soit se déclarer incompétentes, soit donner des éléments pour décision humaine. Dans le premier cas, qui est responsable de la décision prise, sachant que la traçabilité des éléments ayant mené à la décision n’est pas toujours garantie (aspect « boîte noire » des réseaux de neurones profonds, conservation des données)?
Le minimum nous paraît la transparence. De la même manière que les étiquettes de produits alimentaires nous informent sur leur contenu, les chatbots et autres moteurs de recommandation devraient informer leurs utilisateurs de l’utilisation de techniques d’intelligence artificielle, et leur laisser le choix de donner ou non leur accord.
IA et vie privée
IA2-ViePrivee
  • (D;) Est-ce que la fonction confiance existe aujourd’hui
  • Faire un bouton confiance
  • Conscience du danger pas tout le monde
  • (D;) (C;)  droit à l’oubli
  • Confiance en la législation Les lois seront elles suffisantes?
  • (:D)  Les lois ne vont rien changer
  • Si la loi ne suffit pas, le consommateur doit agir
  • quand c’est gratuit c’est toi le produit
  • La priorité est l’éthique ou l’économique
  • Tout le monde n’est pas conscient des dangers
  • A qui appartient les données
  • (D;) quelle maitrise de mes données ?
  • (I;) même en faisant attention on laisse des traces
  • ( I;) BD et blockchain
  • On ne peut pas ne pas donner ses données
  • Des data center français et souverain
  • ( I;) Usurpation d’identité
  • (C;) L’anonymat est une question clé
  • (C;)  l’anonymat va durer jusqu’à quand?
  • tout le monde s’habitue à laisser trainer ses données
Rapporteur : Xavier M. -> IA et vie privée

 IA et vie privée : est ce que la fonction « confiance » existe aujourd’hui ?

Le premier sujet évoqué est celui de l’exploitation, par les IA, entre autres, de nos traces et de nos données numériques.

Le point soulevé est celui de la massification des usages liés aux solutions proposées par les GAFA, dont tout le monde s’accorde sur le fait qu’il est difficile de leur faire confiance, ainsi que le peu d’alternatives proposées. La volonté exprimée est bien celle de vouloir protéger ses données mais elle fait face à un vrai sentiment d’impuissance à le faire. Un participant va jusqu’à affirmer que la seule manière de retrouver un véritable sentiment de confiance est de ne plus utiliser du tout ces services.

Un sentiment de résignation est exprimé notamment par les plus jeunes, comme si rien ni personne, à date, ne pouvait freiner ces acteurs économiques majeurs dans l’exploitation de nos données, aujourd’hui et dans un futur proche (données de santé, financières, religion, orientation sexuelle…).

Le sujet de l’identité et du droit à l’anonymat, clé du sujet pour certains, est mis sur la nappe.

A date, rien ne semble ni garanti, ni maitrisé, les usurpations sont courantes, les croisements permettent l’authentification des usagers. Les fonctions de révocation des données ou bien de droit à l’oubli sont absentes des outils utilisés par les usagers.

Force est de constater que l’économique du numérique ne laisse finalement que peu de place à l’éthique, levier pourtant nécessaire à la construction d’un cadre favorable à la confiance. « Est il déjà trop tard ? », la question est posée.

Le débat s’oriente ensuite sur la gouvernance numérique (française et européenne), et plus précisément sur la confiance dans notre système législatif.

Certains participants font un constat argumenté sur le fait que nos gouvernements sont dépassés, notamment sur les sujets liés aux IA, sujets complexes et se développant très vite. Le flou des cadres juridiques et la dilution des responsabilités sont également mentionnés.

Le RGPD est évoqué et beaucoup de doutes sont à nouveau exprimés. Cette loi sera t’elle suffisante ? Ne sera t’elle pas vite dépassée ou bien trop facilement contournable ?

Certains participants modèrent alors le débat en insistant sur la nécessité de légiférer et que ce point de départ, certes perfectible, se doit d’être encouragé et soutenu par tous.

La majorité des participants acquiesce.

Un participant intervient : « si la loi ne suffit pas, c’est le consommateur qui doit agir »

Un second complète : « tout le monde n’a pas conscience du danger, il faut informer et éduquer davantage ».

En conclusion, nous pouvons faire le constat que dans le contexte technologique et numérique actuel et face aux enjeux de l’IA, nos visions, un peu brouillées par la complexité du sujet, s’accordent sur le fait qu’il n’existe pas vraiment de fonction confiance, ni assurée (corps social et institutions), ni décidée (échelle individuelle).

 

IA et emploi

IA2-Emploi

 

L’intelligence artificielle connaît une évolution large et rapide et est au cœur de plusieurs polémiques. Il est donc normal qu’elle soit source de questionnement et parfois de craintes, notamment à propos du marché de l’emploi. Les idées énoncées ici ont été celles énoncées par les différents participants au débat. Elles sont expliquées partiellement ci-dessous mais il ne s’agit que de la mise en commun des différentes opinions et idées qui ont émergé.

L’émergence de l’IA va-t-elle mener à une destruction importante de postes ? Même si cela reste une issue envisageable, il faut relativiser. Contrairement à ce que l’on pourrait penser, beaucoup de postes ont été créés ces dernières années, notamment grâce aux nouvelles technologies. Les demandeurs quant à eux sont plus nombreux car il y a une évolution de la population active (entrée des femmes et des enfants du Babyboom dans le monde du travail par exemple). De plus il serait anti productif de laisser l’intelligence artificielle absorber le pouvoir d’achat de la population car l’IA ne consomme pas et que les entreprises produisent pour vendre. On peut donc espérer une auto régulation. On ne peut pas devenir « rentiers de l’IA »

Il est cependant fort possible qu’il y ait un besoin d’adaptation, voire une « sélection naturelle » : le salarié qui survivra sera-t-il celui qui saura suivre les évolutions de l’IA ? On peut se demander si cela accélèrera ou détruira le principe énoncé par Schumpeter de « Destruction créatrice ». Réussira-t-on à remplacer tous les postes détruits par de nouveaux postes ? On peut penser également que l’IA aura moins d’impact en France qu’en Allemagne par exemple qui est encore assez industrialisée et délocalise moins à l’étranger. La question que l’on peut se poser est alors : l’IA va-t-elle réduire ou augmenter les décalages entre les différentes classes de métiers ?

Une adaptation possible évoquée consisterait à faire évoluer le système de l’emploi dans le sens de l’intégration des nouvelles technologies et de l’intelligence artificielle dans l’Entreprise. Les idées énoncées sont le revenu universel, l’évolution du travail à mi-temps, la valorisation des activités associatives … Cela nécessiterait cependant une période de transition qui susciterait du mécontentement. Un changement trop radical des habitudes pourrait recevoir un accueil agressif de la population. D’un autre côté, une réaction trop lente ou tardive des différents acteurs de l’emploi face à l’émergence de cette technologie risque de mener à une hausse du chômage importante qui pourrait aboutir à une véritable révolution.

Utopiquement, l‘intelligence artificielle supprimera les travails aliénants et valorisera les travails créatifs. Le temps de travail pourra également être revu à la baisse et laisser plus de temps pour le développement personnel, familial ou social. La notion de travail alimentaire disparaitrait presque totalement et il y aurait plus de temps alloué aux participations citoyennes.

Mais il est possible que les travails à forte valeur ajoutée soient affectés également et un travail que l’on peut considérer aliénant ne l’est peut-être pas pour tous. De plus avec la disparition de certains postes dits intellectuels, les débouchés pourraient être drastiquement diminués et certaines formations pourrait même devenir obsolètes. Il y aurait donc également besoin d’adapter le système éducatif et les formations disponibles. Si une intelligence artificielle venait à faire le travail d’un anesthésiste par exemple, il faudrait effectuer des modifications dans les sélections médecine.

On pourrait ensuite envisager de taxer l’utilisation de l’intelligence artificielle dans certains domaines pour maintenir la compétitivité du facteur humain. Cela peut cependant poser un problème de compétitivité avec les autres acteurs ou Etat qui continuerait à privilégier l’intégration de l’intelligence artificielle. De plus ce serait une charge importante pour les entreprises, notamment pour les plus petites qui sont déjà surchargées de taxes.

Le développement de l’Intelligence Artificielle peut également se manifester par un phénomène de concentration industrielle. Les grandes entreprises qui ont les moyens d’investir pourrait absorber les petites entreprises qui ne pourraient plus suivre au niveau du résultat. On assisterait alors à un déséquilibre des forces encore plus important et l’entrée de petits entrepreneurs sur le marché sera par conséquent plus compliquée.

Au-delà des questions d’embauche et de chômage l’intelligence artificielle pourrait avoir un impact important au cours de la vie professionnel. Même si on lui reproche encore de faire parfois des « traitements bêtes des données », cela pourrait servir d’outil à la décision pour le service des ressources humaines. En effet, à un certain stade, elle pourrait fournir un suivi des employés et de leur performance et proposer des remaniements par exemple. Le biais humain et le jugement personnel ne serait alors pas pris en compte pour l’évaluation d’un employé et d’un groupe. La décision finale devrait cependant toujours revenir aux directeurs et autres chefs de projets possédant un recul sur la situation.

Les verbatim  de la nappe

  • Vive Darwin !! : le salarié qui survivra n’est pas le plus compétent et le plus travailleur mais celui qui saura suivre les évolutions de l’IA
  • Utopie : l’IA supprimera le travail aliénant et valorisera le travail créatif
  • Est-ce que l’IA remplacera tous les emplois même à moins value pour l’entreprise
  • Mise en place du revenu universel
  • Les sociétés peuvent elles supporter des taxes de plus?
  • IA au recrutement ?
  • La France souffrira moins que d’autres pays ayant plus d’ouvriers
  • Des supermarché avec des IA apprenantes caissières : déshumanisation
  • (D;) Compétitivité envers les autres pays
  • (I;) (C;) (D;) IA tend vers la destruction de poste : principe de Schumpeter
  • Le système va t’il s’équilibrer?  son évolution est rapide, les travailleurs vont-ils s’adapter? le chômage est un danger pour la vie démocratique
  • (D;) IA et ressources humaines :  déshumanisation : risque de notation par les IA sur la valeur du salarié selon ses propres critères.
  • (D;) (I;) (C;)Place d l’emploi dans les mentalités est encore importantes : mais développement de la prise de conscience vis à vis du développement personnel.
  • (D;) (C;) tendre vers la destruction de poste
  • (I;) adapter les formations pour tenir compte de leur obsolescence future
  • IA entraine concentration sur des grandes entreprises => survie des petites?
  • (I;) Taxer l’I
  • (D;) (C;) L’IA peut desceller des talents et des configurations qui pourrait valoriser l’employé et l’entreprise
  • Trois choix de travailleurs :
    • Celui qui travaille pour pouvoir faire autre chose
    • Celui qui travaille pour son développement privé
    • Celui qui travaille pour manger
  • Lien entre l’IA, l’emploi et le développement personnel
Rapporteur : J. H. -> IA et emploi

L’intelligence artificielle et les nouvelles économies sociales et solidaires

IA2-EconomiesSolidaires

Rapporteur François Detailleur

6 mars 2018

L’un des premiers éléments qui a émergé de l’atelier est la différence des objectifs entre les GAFAM, principaux acteurs de l’intelligence artificielle actuellement, et les économies solidaires et sociales. Pour les participants à l’atelier, les GAFAM se caractérisent par une recherche du profit, laquelle n’est pas compatible avec les valeurs de l’économie solidaire et sociale. Il est de plus souligné les possibles différences entre les valeurs nord-américaines sur lesquelles se sont bâties les GAFAM et les valeurs françaises et européennes.

Il est rappelé que la recherche de profit est un aspect fondamental de l’économie et que cela n’est pas incompatible avec les économies sociales et solidaires, la différence avec les économies classiques et libérales étant la redistribution des profits. Il est également mentionné que les outils de l’IA peuvent apporter une aide dans certains modèles économiques, tel le modèle de Keynes (l’opposé du modèle libéral), qui nécessitent des ajustements constants. L’IA pourrait alors être considérée comme une aide prédictive dans les politiques publiques visant à favoriser les initiatives sociales et solidaires ou bien la réduction du chômage, à l’échelle d’un État comme d’un territoire. Ces remarques font se poser la question sur la part accordée au profit et à la rentabilité dans les économies sociales et solidaires, et par extension quel usage pour l’IA et quels algorithmes spécifiques.

Il est fait mention de l’abandon de l’IA Watson par une université d’Australie, laquelle en remplacement a développé son propre algorithme de chatbot. Un participant mentionne que dans les solutions actuelles de l’IA, « on subit » par un manque de connaissances sur l’IA et l’informatique en général. D’autant que dans les économies sociales et solidaires chacun peut être entrepreneur. Suite à cette intervention, un autre participant détaille certains modèles de l’économie sociale, les coopératives et les « actionnaires ESA ». Toutefois, le développement de modèles d’IA et leur application nécessitent des compétences actuellement très recherchées et à forte valorisation, ce qui peut conduire à des difficultés pour trouver des profils possédant ces compétences et souhaitant s’investir dans les domaines social et solidaire. Ce qui a conduit à la réflexion sur la nécessité d’un business model respectant les valeurs de l’économie sociale et solidaire qui serait non déficitaire malgré les coûts importants générés par le développement et l’usage de l’IA (développeurs, hébergement, calculs…), permettant l’innovation durable et dynamique.

Au cours des deux parties de l’atelier ont été évoqués des projets existants ou possibles qui, pour les participants, peuvent fournir des éléments de réponse au questionnement : PropreVille, un projet marocain d’entretien des villes, l’initiative #FrenchImpact1 lancée au mois de janvier 2018, les projets de Smart City ayant une application de l’IA dans le but d’améliorer le quotidien, avec l’aide au stationnement, la réduction de la pollution par une régulation proactive du traffic.

Addendum

Suite à l’atelier, j’ai interrogé des connaissances sur le même thème, et une remarque mérite particulièrement d’être mentionnée. L’IA est censée reproduire de façon performante et fiable des processus (intellectuels, cognitifs, etc) préalablement effectués de façon moins performante et fiable par des humains. Avant de réfléchir à la place de l’IA dans les économies sociales et solidaires, sommes-nous en mesure de définir avec pertinence les processus sur lesquels l’IA serait appliquée ?

Les propos inscrits sur la nappe

 

  • (I;) (C;)quelle part est accordée au profit et à la rentabilité
  • On subit parce que l’on n’est pas instruit : Dans ces économies chacun est entretenu
  • L’apprentissage permet le savoir
  • Objectifs différents de ceux des Gafa : pas les mêmes algorithmes
  • Dans sa propre ville : Difficile de trouver des compétences qui souhaitent s’investir dans le domaine solidaire et social
  • IA utile pour aider les politiques publiques?
  • IA système prédictif pour prévoir les effets des politiques publiques?
  • Entrepreneur social ESA SCOOP?
  • (I;) Supermarchés et entreprises coopératives
  • Les emplois ?
  • La répartition des profits générés par les IA
  • Trouver une autre utilité que le profit  financier
  • Avoir un business model qui ne soit pas déficitaire à cause des coûts des IA
  • le business modèle des communautés c’est de réduire le chômage
  • Smart city : IA pour améliorer le quotidien : pollution traffic
  • Pour les réponses aux questions étudiantes une université australienne  a   abandonné  Watson pour son propre chatbot
Rapporteur :François D. -> IA et économie solidaire

IA, entrepreneurs et éthique

IA2-Entrepreneurs-Ethique

IA, entrepreneurs et éthique

 Les grosses entreprises ne font plus rêver et, malgré leur besoin, manquent de capacité d’innover et de fédérer. Nous avons un problème culturel et un problème générationnel.

La France reste un pays conservateur (principe de précaution, peur de l’échec, prise du risque, menace, …) La jeune, et moins jeune, génération reprend sa vie en main pour exprimer ses besoins ainsi que ses valeurs. Nous avons tous un côté entrepreneur (salarié acteur) et le marché du travail s’atomise (de plus en plus de freelance, indépendants, coopératives, …). Cela amène les entreprises à porter une gouvernance entrepreneuriale plutôt que dictée par la rentabilité des actionnaires et investisseurs.

Les entreprises ne sont pas guidées par les valeurs portées par les individus, mais par l’atteinte d’objectifs de performance.

Exemple : En 2010, Google avait collecté les données des réseaux Wifi non protégés de particuliers (mots de passe, échanges de mails, informations sensibles sur les personnes, …) en profitant du passage des véhicules Google Street View qui devaient photographier les routes. La CNIL n’avait pu donner qu’une faible amende (100k€) et les données ont tout de même été exploitées par Google.

Dans le système capitaliste et libéral mondial, les entreprises qui détiennent le capital ont plus de pouvoir que les états. Les grandes entreprises qui dominent le marché de l’IA, domineront le monde.

L’IA permet d’augmenter les capacités humaines (transhumanisme) et peut accentuer des inégalités.

Exemple : Si lors d’une audience au tribunal, un avocat est augmenté par l’IA (ex : puce électronique), il pourra mieux défendre son client. Cela créera un déséquilibre qui aujourd’hui est plutôt financier.

Les entreprises sont soumises au RSE (Responsabilité sociétale des entreprises) pour intégrer la problématique de l’éthique en leur sein. Ce sont les dirigeants qui peuvent orienter selon leur libre-arbitre. La RSE est devenue un élément de cotation sur les marchés (notamment aux États-Unis).

L’éthique peut servir un intérêt. La technologie est aussi un moyen pour un groupe d’opérer des changements politiques.

  • Le luxe : l’expertise c’est la relation humain, c’est l’humain
  • (I;) (C;)Une gouvernance entrepreneuriale ≠ actionnaires et investisseurs
  • Les grosses entreprises ne font plus rêver
  • (D;) atomisation
  • encourager le risque
    • problème culturel en France
    • reprendre sa vie en main en orientant la vie de l’entreprise
    • problème générationel
  • CNIL et les faible amendes à GOOGLE
  • Google : dominer leur marché : dominer le monde
  • (I;) Transhumanisme : greffe de puce pour réalité augmentée
  • (I;) Si IA corrige mes fautes d’orthographe c’est génial
    • Si tribunal sans un avocat augmenté je suis désavantagé
  • CIC réponse par chatbot aux questions simples
  • (I;) Est-ce que l’éthique sert un intérêt ?
Rapporteur : Radouan BOULAM

Commentaires

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *