Débat

Comment vivre avec les IA ? débattez avec les chercheurs en sciences humaines et sociales

vivre avec
 Plus d’une quarantaine de personnes ont participé à l’atelier. Le thème :
Quel regard les sciences humaines peuvent apporter à l’IA?
Les experts : Sophie Martin, Denis Brouillet psychologues , Laurent Fauré  linguiste et Guillaume Bagnolini philosophe des Sciences)
fdd1004 1

Une posture critique : la mémoire, le langage, l’intelligence, le monde n’existe pas. C’est l’interaction qui fait exister. L’intelligence humaine est dans l’interaction avec des gens. Le handicap humain est le produit d’une interaction.

fdd1004 5

La cognition humaine n’est pas celle des machines.

fdd1004 11

Comment une intelligence artificielle peut-elle restaurer un fonctionnement adéquat pour une personne  handicapée?

fdd1004 6

Science du langage : réfléchir au traitement automatique du langage.

fdd1004 9

Les techniques  qui apparaissent changent nos rapports les uns avec les autres et avec notre environnement.

fdd1004 8

 La technique se sert de nous et nous nous servons des techniques.

fdd1004

 Il y a l’émergence d’un discours philosophique sur l’IA. Dans quelle mesure l’IA ne crée une obsolescence programmée de l’humain?

fdd1004 3

Quelles types d’intelligence artificielle, quelles types de technique, quels usages ?

fdd1004 4

Dans l’intelligence humaine  il y a du flair, de l’apprentissage, de la culture, de la technique, de l’interprétation.

La technologie est magique et à ses servants. Le monde se modifie avec les techniques.

fdd1004 7

C’est pas de l’IA qu’il faut avoir peur mais des hommes.

LES DEBATS SUR NAPPE

Interdisciplinarité & Design de la relation à la machine

fdd1004 12

IA3-design-Interdisciplinarite

  • B V : Où  sont les données?
  • Il n’y a pas de design venant des usagers et citoyens
  • IA le pouvoir mais aussi le contre pouvoir
  • Tous les savoirs et les techniques doivent coopérer à l’IA + implication des citoyens
  • Allons-nous vers une société de la délégation des responsabilités aux machines?
  • Le principe social est basé sur la délégation mais jusqu’où?
  • Est-ce aux hommes de s’adapter à l’IA ou le contraire? biais des boucles informationnelles dans la relation
  • Ne plus laisser le design au marketing  mais y intégrer des historiens et des psychologues
  • Construisons-nous de nouvelles dépendances plus pernicieuses car transparentes?
  • Quelle information de la Population pour la maitrise de son IA?
  • Quel effet miroir de l’IA sur l’être humain?
  • IA point de départ ou IA réponse à un besoin?
  • Adapter nos machines ou modifier nos comportements?
  • IA dans la machine ou ailleurs ?
  • Lien du reste du monde qui alimentent la connaissance ,avec IA en relation avec l’expert et le client
  • Comment se déconnecter à ce qui n’est pas une machine physique?
  • Quelles sont les disciplines des acteurs qui construisent l’IA?
  • BV Consentement éclairé : l’idée de contentement éclairé implique que l’usager soit éclairé par une information?

Synthèse

L’atelier a abordé différents questionnements autour de la relation de l’IA à la société et de l’interdisciplinarité de sa conception.

Tout d’abord une réflexion de nature politique doit nous conduire à « impliquer le citoyen et l’utilisateur dans le design de l’IA car tout le monde est concerné » et « ne pas laisser le design aux marketteurs ». La réflexion sur l’IA se doit d’être transversale aux différents métiers et usages et  « Mobiliser les scientifiques et les experts de toutes les disciplines (sciences humaines également), mais aussi les utilisateurs et les artistes ». Pour que la société civile puisse s’impliquer et que toute la population se sente concernée il faut repenser le rôle de l’information et des médias à l’égard de l’IA : « Quelle information de la population pour la maîtrise de « son » IA ? ». Cela implique une réflexion collective sur le type d’informations à diffuser pour favoriser l’appropriation, l’acculturation de la population, de la société à l’usage, aux potentialités et aux risques de l’IA. Le contenu de l’information à diffuser n’est en effet pas neutre car on constate un renforcement du « biais de confirmation » et un risque d’enfermement des individus à travers « les boucles informationnelles ».

Par conséquent, une réflexion de nature éthique doit permettre de réguler l’IA afin d’en éviter les dérives et d’en maîtriser les risques. C’est la raison pour laquelle il est impératif de « Discipliner et responsabiliser les concepteurs de l’IA ». Il est également indispensable de recueillir le « consentement libre et éclairé de l’utilisateur » de l’IA et de garantir une « utilisation éthique de la donnée ». Cela suppose une interrogation de la nature de la donnée, surtout quand celles-ci sont personnelles et portent sur la vie privée des individus : « que sont et où sont les données ? ». Par ailleurs, les enjeux économiques de l’IA et le poids financier des GAFA sont considérables et procurent aux GAFA un pouvoir important face aux Etats, même si l’IA peut offrir également un contre-pouvoir important à la société civile. En outre, le développement de l’IA semble faire émerger, sur le plan l’organisation sociale, une tendance à une délégation de responsabilités humaines à des machines, ce qui a des implications éthiques et juridiques importantes.

La relation de l’Homme à l’intelligence artificielle suscite également un questionnement philosophique sur la nature de l’humanité, de sa spécificité et de ce qui caractérise son rapport au monde, à l’altérité et à la machine. On peut se demander quel « effet miroir » pourra avoir l’IA sur les êtres humains et qui devra s’adapter à qui ? L’intelligence artificielle à l’homme ou l’inverse ? Probablement les deux. La nature de l’interaction entre l’homme et la machine sera-t-elle toujours maîtrisée et consciente, ou au contraire la machine sera-t-elle le support des projections inconscientes des utilisateurs ? Enfin l’IA dépasse-t-elle la machine qui la contient, et pourra-t-on réussir à se « déconnecter de quelque-chose qui n’est pas une machine physique » ?

L’IA semble aujourd’hui être « un point de départ » ; elle doit devenir une « réponse aux besoins » de l’homme à travers une réflexion collective sur sa nature et ses implications.

Responsabilité des créateurs d’IA et ses conséquences sociales

fdd1004 10

IA3-responsabilite

  • Apport des IA pour prendre du recul sur nos habitudes
  • outils et objectifs de l’IA : RR rentabilité ou éthique et valeur BVV
  • RRR  quête incessante de l’IA pénibilité du travail
  • R Créativité : chasse gardée de l’homme
  • On repousse les limites : même dans un autre système on aurait eu l’IA V
  • Diminution des contacts humains pour des raisons économiques  (les personnes âgées)
  • Alerter informer : l’éthique doit être au même niveau que la technique
  • Responsabilité individuelle V
  • L’IA ne peut pas penser comme nous
  • V l’artisanat donne satisfaction
  • Quel contrôle des créateurs  BBV : média, expert, public, marché, utilisateurs
  • Contrôle direct ou rétroactif?
  • Impact sur la répartition des richesses, IA entraine rentabilité? manipulations politiques?
  • Les créateurs d’IA ont un devoir de conseil sur leurs outils mais pas forcément des responsabilités politiques
  • Emancipation par rapport au travail

 

Synthèse par Guillaume Bagnolini

Au sein de notre atelier, nous avons abordé la question de la responsabilité des créateurs d’intelligence artificielle et des conséquences sociales.

Tout d’abord, nous avons vu l’intérêt important d’avoir un contrôle citoyen des technologies à base d’IA. Ce contrôle ne doit pas être réservé aux experts. Pour avoir un contrôle optimal, il faut que l’IA soit le plus transparente possible. Ainsi, une responsabilité importante du créateur d’IA est d’expliciter la construction de cette dernière et ce qu’elle peut produire. Nous nous sommes posés la question du contrôle des créateurs d’IA, est-ce possible de les contrôler ? Comment ? Par un comité d’éthique ? Nous étions pour créer des comités citoyens de réflexion et d’orientation des technologies telles que l’IA.

Il faut penser aux objectifs de l’IA. Pourquoi en conceptualiser une ? Dans quels buts ? Seulement un objectif de rentabilité ? Ainsi, les réflexions éthiques pourront être abordées de manière plus transparente. Les questions éthiques doivent être placées à la même position que les questionnements techniques.

L’IA va modifier nos habitudes et le monde du travail. C’est donc aussi aux créateurs de l’IA de se poser des questions sur les conséquences de la diffusion d’une technologie basée sur l’IA. Est-ce que l’IA va nous faire perdre notre créativité ? Est-ce qu’elle peut être créative ?

Cependant, une conclusion était de dire que même dans un autre système économique (non capitaliste) nous aurions tout de même la survenue de l’IA. Ce point n’a pas fait consensus au sein de l’atelier. Certains pensaient que l’IA serait peut-être advenue mais sous d’autres formes moins empreinte de notion de rentabilité et de performance. Il a été surligné que notre système technicien ne réfléchissait les problèmes qu’à travers des solutions techniques (le problème de la solitude des personnes âgées est réglé par une application, par exemple).

Sur quoi se base une IA ?  IA et sérendipité

fdd1004 14

fdd1004 13

IA3-serendipite

  • Sérendipité construire ou découvrir quelque chose sans le chercher
  • Sérendipité découverte inattendue
  • Un but peut être source de découverte
  • Est-ce que le hasard ou autre chose que le hasard
  • L’intelligence est partout
  • L’éthique est temporelle donc temporaire
  • Hasard+erreur=innovation
  • Sur quoi se base l’algorithme parcourssup : opacité des critères
  • Quel sérendipité dans un débat où on parle de tout sans savoir sur quoi on va aboutir

Une bonne IA doit se tromper pour être intelligente

fdd1004 2

IA3-se tromper

  • IA pour apprendre à mieux se connaitre, à connaitre son fonctionnement
  • Watson compile des données des utilisateurs et de la littérature pour proposer des choix et une biblio.
  • MOOC “apprendre  à apprendre”  En neuroscience et cognition, il y a  des applications à foison
  • Intelligence objet d’étude en tant que telle
  • Intelligence collective, sociale, situationelle, animale, humaine, machine, dialectique
  • Supervision par l’homme nécessaire  V mais il y a le métro sans conducteur
  • IA est en situation de handicap
  • L’usager à la fin ou IA autour de l’usager
  • Norme SEVESO  7 norme de sécurité repensée après chaque cataclysme
  • Un référentiel est un cadre de valeur
  • Norme = convention
  • Science sans conscience, Emergence d’une intelligence collective
  • Faire des erreurs pour ne plus les refaire
  • Se  tromper pour évoluer
  • S’octroyer le droit à l ‘erreur
  • Coût humain et structurel du risque
  • L’expérience est le meilleur des maitres
  • Confier sa ve à une machine? le pilote d el’avion
  • L’accident d’UBER est-il évitable
  • Intelligence = créativité
  • IA pas assez névrosée
  • Une bonne IA doit donner les mauvaises réponses
  • Elle doit maintenir éveillé,
  • Un déambulateur doit se tromper
  • Obligation d’équipes interdisciplinaires
  • IA et principe de précaution
  • La machine est souvent moins faillible que l’homme

Commentaires

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *