Formation Professionnelle

Pourquoi l’intelligence artificielle a besoin des soft skills

1 Étoile2 Étoiles3 Étoiles4 Étoiles5 Étoiles (5 vote(s), note: 4,60 / 5)
Loading...

A priori, pas de rapport entre l’IA et les soft skills. Pourtant si. La première pourrait bien se nourrir des secondes pour mieux se faire comprendre, et surtout, pour répondre plus précisément aux attentes que nous – la société – attendons d’elle. Comment ? Aurélie Van Dijk et Frédéric Oru jettent les passerelles entre ces deux continents émergents.

Pourquoi IA a besoin des soft skills, Frédéric Oru et Aurélie Van Dijk nous éclairent

Toutes les études publiées par Accenture ou McKinsey, entre autres, le montrent : l’IA va permettre d’automatiser les tâches cognitives à faible valeur ajoutée. Cela aura pour conséquence de pousser les travailleurs à exploiter leurs compétences proprement “humaines”. Ainsi par exemple, les assistants comptables devront développer des compétences d’analyse et de conseil au client et les hôtesses de caisse consolider leurs compétences d’assistante à la clientèle et support commercial.

De façon générale, le travailleur de demain sera plus sollicité sur les soft skills dont les machines sont dépourvues. Vous savez les soft skills, ce sont ces compétences comportementales et transversales, qui ressemblent à des savoir-faire et savoir-être. Parmi les plus nommées : l’esprit critique, la créativité, la collaboration, l’empathie, la communication, l’autonomie, la flexibilité, la prise de risque.

L’intelligence artificielle sans soft skills n’est que ruine de l’avenir

Il y a une autre raison, moins connue et plus subtile, qui devrait pousser l’Education nationale et la formation continue à développer massivement les softs skills de leurs apprenants. Elle tient à la manière dont l’intelligence artificielle fonctionne et à la façon dont elle doit être programmée.

En informatique classique, le programmeur a un objectif pour la machine : il doit donner toutes les instructions pour remplir cet objectif dans tous les cas. En intelligence artificielle, le programmeur donne l’objectif à la machine, et la laisse tester toutes sortes de programmes jusqu’à trouver une série d’instructions qui remplit l’objectif dans la plupart des cas.

Pour illustrer cela, admettons que l’on souhaite qu’une machine reconnaisse un chat dans une image. Impossible de le faire en informatique classique : comment expliquer à une machine ce qu’est une oreille de chat en tenant compte de toute la diversité des espèces ? Avec l’IA, on donne à la machine des millions d’images de chats et de chiens, avec l’objectif de minimiser son taux d’erreur.

Ce nouveau paradigme de programmation entraîne un changement majeur : le programmeur doit “coder” l’objectif. Il doit alors traduire un enjeu humain dans un code informatique. Pour la reconnaissance des chats, ce n’est pas un problème. Mais il y a des sujets bien plus délicats.

Biais des algorithmes : reflets de nos inconscients ?

Pour le comprendre, prenons deux exemples auprès de ceux qui ont les mains dans « le cambouis » de l’IA. Guillaume Chaslot travaille chez YouTube comme Data Scientist quand il s’aperçoit que l’algorithme de recommandation avait tendance à privilégier des contenus complotistes, agressifs et clivants. Etait-ce une volonté des ingénieurs et dirigeants de YouTube de faire de la désinformation ? Pas du tout ! c’est simplement l’effet involontaire de l’objectif fixé à l’algorithme : maximiser le temps d’attention des utilisateurs. Et comme les théories du complot fascinent, qu’on y croit ou non, elles sont plus vues que les autres, donc plus recommandées.
Si vous avez huit minutes, regardez sa conférence Tedx : Quand l’IA nous dresse les uns contre les autres

Même constat vu des Etats-Unis sur un sujet plus délicat. Joy Buolamwini a montré dans sa thèse au MediaLab du MIT que les visages de femmes noires étaient très mal, voire pas du tout, reconnus par les systèmes de reconnaissance faciale. Est-ce que l’objectif de l’algorithme faisait un cas spécial ? Pas du tout : ce sont les données d’entraînement de la machine qui contenaient beaucoup moins d’images de femmes noires que de femmes ou d’hommes blancs. Là encore, ce n’était pas un choix délibéré des programmeurs mais un biais inconscient dans la manière de programmer la machine. A ce titre, sa conférence Tedx est également très éclairante : How I’m fighting bias in algorithms (Comment je combats les biais dans les algorithmes).

Que conclure de ces deux exemples ?

  • Les ingénieurs de l’IA vont devoir eux aussi développer leur soft skills. En effet, il s’agit pour eux d’être capables de coder dans la machine un objectif quantitatif qui reflète l’intention humaine sous-jacente dans sa globalité.
  • L’ingénieur n’étant que le bout de la chaîne, il est absolument nécessaire que tous les acteurs et décisionnaires aient une compréhension des limitations et des impacts de l’IA pour que le résultat soit conforme à l’objectif initial.
  • Tous les utilisateurs de l’IA vont devoir affûter leur esprit critique pour mettre en doute, interpréter et contrôler les résultats d’une IA. Ils devront également exercer leur intelligence émotionnelle et situationnelle pour aider la machine à améliorer ses résultats.

Dans le livre Human + Machine, Reimagining Work in the Age of AI, (Humain + machine, Re-imaginer le travail à l’âge de l’intelligence artificielle, éd. Harvard Business Review Press, 2018, ouvrage non traduit), Paul R. Daugherty et H. James Wilson, dirigeants chez Accenture, prédisent que le futur du travail sera une collaboration intime et permanente entre l’homme et l’IA. Les softs skills ne sont donc pas uniquement le moyen de garder son emploi en développant des compétences que la machine ne pourra pas apprendre ou appréhender, c’est aussi le moyen de travailler avec la machine pour qu’elle apporte les bénéfices dont la société a réellement besoin.

Aurélie Van Dijk et Frédéric Oru

Aurélie Van Dijk

Docteure en psychologie cognitive, Aurélie est aujourd’hui consultante formatrice et responsable de la gamme Learning chez CSP DOCENDI. Elle conçoit, anime et pilote des dispositifs de formation en intégrant les connaissances neuroscientifiques qu’elle a acquises dans le passé et qu’elle continue d’actualiser. Ses domaines d’intervention : Neurosciences & Pédagogie, Formation de formateur,  Attention & Concentration, Affirmation de soi.

Frédéric Oru

Consultant indépendant en intelligence artificielle, Frédéric Oru a une expérience internationale de plus de vingt ans au carrefour des mondes de la recherche scientifique, des grandes entreprises et des start-up. Il est ingénieur diplômé de l’Ecole Polytechnique et docteur ès Mathématiques, diplômé de l’Ecole Normale Supérieure.
Pour en savoir plus sur ses activités : www.aiforbetter.com

A lire, notre série sur l’IA et la formation

Intelligence artificielle : le droit 1, Big Brother 0, par Catherine Prébissy-Schnall, Maître de conférences en droit public, habilitée à diriger les recherches à l’Université Paris-Nanterre.

Intelligence artificielle, pédagogie et neurosciences par Aurélie Van Dijk et Frédéric Oru

icone commentaire Commenter cet article

obligatoire

obligatoire (ne sera pas publié)