Vous êtes ici  :   Accueil > SE FORMER > Formations disciplinaires > JECO > 2018
Connectez-vous

Accueil

S'INFORMER ENSEIGNER ÉVALUER SE FORMER ORIENTER

2018

Publié le 23.11.2018 Modifié le : 15.12.2018

Écrire à l'auteur

Le  Freitag, 23. November 2018

2018 Jeco, IA / travail

C/r Mme L. Auffant

  • Jéco 2018, Palais de la Mutualité, Lyon

    Jeudi 8 Novembre 2018, 14h-15h30 

     

    Conférence : L’Intelligence Artificielle au travail, un autre quotidien ?

     

    Intervenants :

    Amélie Cordier : Directrice scientifique d'Hoomano
    Pablo Jensen : Chercheur CNRS au Laboratoire de Physique de l’ENS de Lyon et à l’Institut des Systèmes Complexes
    Yves Le Bihan : Président, Institut Français du Leadership Positif
    Julien Maldonato : Deloitte

     

    Modérateur :

    Dominique Leglu, Sciences et Avenir

     

    Présentation du thème dans le programme des Jéco

     

    Comment le développement de l'intelligence artificielle (IA) va t-il affecter nos existences et notre bien-être ? Le rapport sur l’IA rédigé par Cédric Villani, rendu public en mars 2018, souligne les potentialités de développement dans les champs de la santé, des transports, de l'environnement et de la défense liés à l'IA. Le développement de l'IA pourrait constituer la 4ème révolution industrielle, bouleversant l'organisation des entreprises et les métiers. Mais où en est-on réellement de la diffusion de l’IA dans la vie quotidienne et dans l’entreprise ? Comment éviter que le développement d'immenses opportunités nouvelles se fasse au détriment des plus fragiles ? Comment associer les perspectives nouvelles avec le respect des valeurs ? L’avènement de l'IA dans les entreprises impose également de réinventer la posture de leader économique. Si les systèmes intelligents parviennent à poser de meilleurs diagnostics et suggérer de meilleures décisions que les leaders humains, s'ils organisent plus efficacement l’intelligence collective pour trouver des solutions que ne le feraient ces leaders, alors que sera le « leader » de demain ?

     

    Vidéo de la conférence : http://www.touteconomie.org/index.php?arc=dc033d

     

    Compte-rendu :

                Remarque liminaire :

    Une table-ronde plutôt qu’une conférence, de nombreuses interactions entre les intervenants et la modératrice… et le public (qui a peur de l’IA ? Qui en a envie ? …)  incitant à regarder la vidéo puisque le compte-rendu ne rendra pas compte de toutes les interactions ni de l’ambiance plaisante dans laquelle s’est tenue cette conférence roborative.

     

    Dominique Leglu :

    Je commencerai par une citation de Jean-Gabriel Ganascia[1] qui distingue les tâches (peuvent être pénibles et peu valorisantes), les métiers (ensemble de tâches, les métiers vont évoluer) et les emplois : certains seront supprimés par l’IA alors que d’autres seront créés.

    L’IA (ou AI en anglais) peut ressembler aux Révolutions Industrielles précédentes. Il faut se préparer aux mutations des métiers. Néanmoins on peut aussi penser que l’IA est une grande transition qui ne durera qu’une vingtaine d’années.

    Quels seront les effets de l’IA sur le travail ?

     

    Pablo Jensen :

    Je ne veux pas me ridiculiser sur les évolutions futures de long terme, trop s’y sont essayé sur d’autres innovations et se sont trompés.

    Comment fonctionne l’IA ?

    L’IA consiste à suivre des règles explicites, des instructions. L’IA n’introduit pas d’invention. Les ordinateurs autonomes tels que Hal dans le film l’Odyssée de l’espace n’existent pas.

    L’IA a une rapidité pour suivre les règles supérieures aux capacités humaines. Ces capacités s’exercent toujours dans un monde cadré, un environnement contrôlé, qui a servi à dresser ces IA. L’ordinateur a une puissance dans le calcul rapide (exemple des victoires d’ordinateur au jeu de go). Par ailleurs, le mot « intelligence » est trompeur car il ne s’agit pas d’une intelligence au sens humain. L’ordinateur ne sait pas s’adapter en dehors des règles. Ainsi, il ne faut pas trop espérer des voitures autonomes parce qu’elles ne savent pas s’adapter face aux imprévus (exemple de l’accident du camion autonome qui n’avait pas détecté une voiture blanche en fonction de la luminosité). Néanmoins les machines nous surprennent tout le temps : par exemple des machines de traduction des langues vivantes qui ont des capacités d’apprentissage proches de celles des humains.

     

    Amélie Cordier :

    Hoomano est une entreprise spécialisée dans les interactions entre les humains et les robots.

    Je voudrais revenir sur les capacités d’apprentissage des machines : elles sont proches de certaines capacités d’apprentissage des humains qui eux utilisent plusieurs stratégies (ex : apprendre par cœur, apprendre en construisant du savoir, apprendre en expérimentant…). Les machines ont une forme de stratégie d’apprentissage proche quand on peut voir beaucoup d’exemples (ex : de nombreuses photos de chats) afin de comprendre à partir d’exemple (ex : ce qu’est un chat). L’apprentissage machine consiste à écrire un algorithme capable d’apprendre des connaissances avec un feedback de l’environnement humain. Le deep learning est une forme d’apprentissage machine quand on a beaucoup de données, une grande puissance de calcul, la disposition d’algorithmes open-source (ex de domaines : médecine, droit, marketing).

    L’IA peut être appliquée à la robotique sociale : interagir avec les êtres humains, parler, communiquer, transmettre une information, aider, décharger de tâches pénibles, divertir. L’entreprise Hoomano recherche comment améliorer les interactions entre les humains et les machines. Il est important de donner un corps à l’IA.

     

    Julien Maldonato :

    L’entreprise Deloitte a commencé par la comptabilité et l’audit. C’est aussi une entreprise de conseil. Aujourd’hui elle étudie les introductions des innovations technologiques de rupture. Elle a pour objectif d’améliorer la qualité de contrôle de l’IA. Quelques exemples :

    -          Algorithmes reconnaissant les documents demandés par une banque avant l’octroi d’un prêt

    -          Détection de fraude plus rapide que la détection par l’homme (rapidité à étudier des opérations et à repérer des suspicions de fraude).

    -          Robots conversationnels (chatbot) de nos jours circonscrits à des tâches spécifiques (oui SNCF par exemple)

    -          Utilisation en médecine. Diagnostic d’un grain de beauté : le robot aide le dermatologue. Utilisation également en oncologie.[2]

    Le champ des possibles est immense pour ces nouveaux outils, cela ne signifie pas néanmoins que les autres outils disparaissent. Le déploiement de ces outils est assez long (comme avec l’informatique).

     

    Yves Le Bihan :

    L’institut français du leadership positif donne des conseils aux managers[3]. Les outils utilisés relèvent des neurosciences, de la psychologie positive, de la méditation. Quels sont les marqueurs de la révolution digitale sur la posture de dirigeant et de manager ? Quelles sont les compétences dont on aura le plus besoin dans le management et dans l’entreprise ?

    L’IA nécessitera peu de compétences physiques et manuelles humaines comme compter, contrôler, effectuer des tâches répétitives et pénibles (ici l’IA peut remplacer les hommes). Par contre l’IA nécessitera des compétences cognitives supérieures (sens du discernement, sens critique, créativité) et des compétences socio-émotionnelles (ex : empathie).

     

    Pablo Jensen :

    Une des limites de l’IA est qu’elle n’a pas de corps comme le nôtre. Les hommes ont un réseau de neurones dont les objectifs sont fixés par les émotions (ex : faire attention quand on tient un couteau car on s’est coupé et on a ressenti une douleur). La machine ne décide pas elle-même de sa fonction d’objectif. Aujourd’hui, des gens s’amusent à tromper l’IA (exemple image d’un panda augmentée d’un bruit : l’IA ne reconnaît plus un panda). Selon Patrick Artus, pour une destruction de 3 emplois l’IA en créera 5 mais il ne s’agit pas des mêmes emplois.

     

    Amélie Cordier :

    Les tâches les plus menacées par l’IA sont l’analyse, la détection de fraude. Par exemple :

    -          Un surveillant est plus menacé qu’une professeure des écoles

    -          Un radiologue est plus menacé qu’une infirmière

    -          Un comptable est plus menacé qu’une secrétaire

    Les soft skills (souvent d’ailleurs des métiers féminins et parfois peu valorisés) sont moins menacées : l’empathie, la capacité de projection sont des compétences moins menacées.

    Les études ne sont pas toutes d’accord sur les métiers les plus menacés. On peut seulement dire que les compétences importantes changeront.

     

    Yves Le Bihan :

    On estime que les deux tiers des métiers qui concerneront les enfants actuellement en école maternelle n’existent pas encore. Les métiers qui ne sont pas concurrencés par l’IA seront davantage valorisés. Les robots ne sont pas capables de résonance affective, d’altruisme, de compassion.

     

    Julien Maldonato :

    Il y a 200 ans on commençait l’expertise comptable sans tableur Excel. De nos jours, la tâche est résolue par la machine et pourtant le comptable ne disparaît pas, il a davantage de temps pour effectuer d’autres tâches. L’IA a aussi remplacé les guichetiers à la banque (distributeurs automatiques) et les premiers niveaux de conseil mais pas les conseils plus complexes.

    Dans le domaine de l’empathie, les robots peuvent aider les autistes (expérience en Allemagne).

    Dans l’entreprise de nombreuses fonctions manipulant des données pourront introduire de l’IA : relations humaines, finances, comptabilité, production, service juridique. Potentiellement toutes les fonctions sont impactées mais pas à la même vitesse.

     

    Amélie Cordier :

    Les hommes sont des animaux sociaux. Ils sont obligés d’être empathiques, dotés de compassion, c’est une nécessité : ils ont besoin des autres pour vivre, pour leur bien-être, leur équilibre. Si on introduit des robots aussi intelligents que les humains, ces robots n’auront aucune raison d’avoir de la compassion pour survivre. Ces robots sociaux ne peuvent que stimuler une fonction d’empathie artificielle mais qui peut aider des personnes dans leur quotidien (ex de malades). L’empathie ne nécessite pas toujours d’être deux humains (exemple de personnes qui parlent à leur voiture « titine », la bichonnent…). Des travaux de recherches consistent à créer des modèles d’empathie artificielle pour mieux interagir avec les machines.

     

    Dominique Leglu :

    Parmi les questions de l’auditoire, une question sur l’éducation, les filières préparant le mieux à l’avenir.

     

    Yves Le Bihan :

    Les valeurs d’empathie, d’altruisme devraient être partagées par tous les professeurs. Il faudrait aussi pouvoir s’entraîner à exercer ces valeurs (exercices pratiques).

     

    Dominique Leglu :

    Une question sur comment se cultiver sur l’IA.

     

    Pablo Jensen :

    Dans le cadre d’un master des systèmes complexes (mathématiques, physique notamment), les étudiants sont initiés au traitement des bases de données mais aussi à exercer leur regard critique grâce aux sciences humaines et sociales. Par exemple quand on traite des données, elles doivent être pertinentes. Autre exemple le traitement de données peut ne pas être politiquement neutre. Pendant longtemps les bases de données étaient liées à la statistique, mot étymologiquement relié à l’État. Le problème est que de nos jours ce sont les GAFA qui possèdent les plus grandes bases de données. Et dans l’IA on a un système de monopole car le leader rafle tout. Se pose alors la question du traitement de ces données et du respect de la vie privée.

     

    Julien Maldonato :

    Avec la directive européenne récente sur la protection des données (RGPD : règlement général sur la protection des données), toute entreprise ne doit pas exploiter à mauvais escient les données de ses usagers, elle doit demander l’autorisation de les collecter et expliquer la finalité (l’usage) de cette collecte. Les entreprises sont plus vigilantes sur leur stockage des données. Se pose la question du rapport à la valeur : quel intérêt à partager mes données ? Pourquoi rester sous Google alors que des alternatives existent ? De plus, parfois l’utilisateur a l’impression de ne pas avoir le choix.

     

    Dominique Leglu :

    Une question a été posée sur les limites de cette collecte avec notamment l’exemple de l’échec du dossier médical partagé.

     

    Julien Maldonato :

    D’autres exemples témoignent du mauvais accueil face à cette collecte de données : les bracelets et les balances électroniques pour que les assurances santé m’incitent à perdre du poids, effectuer des activités physiques (alertes et notifications en fonction de mon comportement et afin d’améliorer mon bien-être).

    Dans le cas du dossier médical partagé, le corps médical y voit plus d’inconvénients (beaucoup de temps consacré à la saisie car peu de capteur évitant la saisie) que d’avantages : le patient se sentira-t-il mieux soigné avec ce dossier ?

     

    Pablo Jensen :

    Les données sont parfois comparées au pétrole du XXIème siècle. Le problème est que 90 % des données françaises partent aux États-Unis (GAFA). Quand l’État gérait la statistique c’était censé être pour le bien commun, c’est beaucoup moins le cas pour les GAFA. La technologie semble mener le monde, on peut se demander si l’on a le choix, surtout si on considère le nombre de chômeurs, peut-on accepter que des robots remplacent une infirmière ?

     

    Amélie Cordier :

    Est-ce que l’inventeur du couteau s’est demandé s’il avait eu raison de l’inventer puisque celui-ci pouvait être utilisé pour tuer quelqu’un ?

    L’IA est un outil comme un autre, ce sont les humains qui doivent cadrer son usage, poser les problèmes qui seront résolus par l’IA.

    Sur les questions de l’utilisation des données médicales par exemple il faut se poser la question du but : savoir si mes données personnelles amèneront mon assureur à me surveiller (cela n’incite pas à donner des informations) ou savoir que mes données permettront d’avancer plus vite dans la lutte contre une maladie sont des buts très différents. Le choix appartient à l’humain, pas aux robots.

    Les robots peuvent créer des emplois, aider, apporter un complément au personnel médical. Ainsi au Japon, face à une population vieillissante et à la pénurie de personnel, des robots aident le personnel médical dans son travail (ex des exosquelettes qui soulèvent des patients). Les infirmières n’ont pas disparu.

     

    Pablo Jensen :

    Il faut se méfier de l’idée que l’outil est neutre et que c’est son usage qui est bon ou mauvais. Ici l’outil n’est pas neutre : il bénéficie aux monopoles, aux GAFA. Un outil décentralisé aurait un autre sens éthique.

     

    Yves Le Bihan :

    Le pourquoi des données doit primer sur l’outil. De nouveau ce sont les capacités de discernement, de sens critique qui permettent de se demander pourquoi. L’art du questionnement doit être cultivé au pays de Descartes. Il ne faut pas subir, il faut rester libre.

    Paradoxalement des données en profusion peuvent bloquer la prise de décision des dirigeants alors que prendre des décisions est une qualité structurante des dirigeants, l’IA Einstein peut alors aider à la prise de décision. À Hong-Kong l’IA Vital (Validating Investment Tool for Advancing life sciences) a été utilisée pour un vote en CA en 2018 dans une entreprise spécialisée dans les investissements en capital risque (DVK : Deep Knowledge Venture). Il faut alors se demander quel est l’objectif poursuivi par l’entreprise : l’emploi, l’environnement, le profit…

     

    Amélie Cordier :

    Il faut pousser les personnes à se familiariser avec l’IA, comprendre de quoi ça parle quand on accepte, quel est le pouvoir du « clic ». La culture de l’IA doit se diffuser.

     

    Julien Maldonato :

    Nous sommes dans le Palais de la Mutualité, ce qui nous incite à nous souvenir de ce qu’est la mutualité : la solidarité pour protéger, la mise dans un pot commun au profit de tous. Hier c’était la mise en commun d’argent, demain ce sera des données. L’enjeu important est la souveraineté nationale dans ce domaine.



    [1] Auteur de Le mythe de la singularité, faut-il craindre l’intelligence artificielle ? , Seuil, 2017.
    [2] Le numéro 861 (novembre 2018) de Sciences et avenir contient un dossier  « Big data, IA au service de votre santé ».
    [3] Yves Le Bihan est l’auteur de : Le leader positif. Psychologie cognitive et neurosciences : les nouvelles clés du dirigeant,  Eyrolles, 2016.