La science-fiction a-t-elle rattrapé la réalité ? Dois-je craindre l’évolution de l’IA ? Vous n’êtes pas la seule personne à vous poser ces questions.

Bien entendu, les opportunités liées à l’IA sont immenses mais soulèvent aussi de nombreuses inquiétudes et questions éthiques : piratages informatiques, discriminations, dangers pour la protection de la vie privée, ou même prise de pouvoir de la machine sur l’homme. La liste est longue et si certaines angoisses tiennent du récit de science-fiction, d’autres sont bien réelles.

L’IA pourra-t-elle dominer l’humain ?

Parmi les fantasmes, commençons par nuancer le risque de domination mondiale par une « super intelligence artificielle ». En réalité, peu importe la quantité d’apprentissage réalisé par les IA, toutes les formes d’IA que nous connaissons de nos jours restent en fait « limitées », si on les compare à une intelligence humaine. Si nous sommes capables de faire plein de choses totalement différentes (conduire, dessiner, chanter, …), ce n’est pas le cas de l’IA. Cette dernière reste toujours limitée par le but initial que lui a attribué son concepteur. Par exemple, une IA spécialisée dans la reconnaissance de chiens sur des photographies ne sera jamais capable, de manière autonome, de se mettre à reconnaître des chats. Ce n’est tout simplement pas prévu par ses algorithmes de base.

Si une IA est donc potentiellement capable, à terme, de dépasser une intelligence humaine pour une tâche bien spécialisée, elle sera bien incapable de se montrer polyvalente comme nous pouvons l’être. « Terminator » est encore loin !

Des risques sous surveillance

De manière plus terre à terre, plusieurs risques bien réels sont pointés par les experts du sujet :

  • Le risque de piratage informatique. Imaginez que votre voiture autonome soit piratée ? Il faut dès lors prévoir la possibilité de désactiver d’urgence cette IA.
     
  • Le risque de discrimination. En effet, si les données dont l’IA se nourrit de manière autonome sont biaisées, ses résultats reflèteront ces biais. C’est ainsi qu’en 2016, l’IA chatbot « Tay » de Microsoft, censée discuter avec le public sur les réseaux sociaux, a dû être désactivée au bout d’à peine quelques heures car elle a rapidement commencé à relayer des propos racistes, sexistes ou homophobes. Cet exemple démontre que l’IA, aussi perfectionnée soit-elle, risque de reproduire les inégalités présentes dans nos sociétés si elles ne sont pas prises en compte dès sa conception.
  • L’atteinte à la protection de la vie privée. L’IA a besoin de données pour apprendre et devenir plus performante. Ces données peuvent avoir un caractère personnel et l’IA est également capable, en mettant en corrélation différentes bases de données, d’identifier des individus, même anonymisés. C’est un risque pour la vie privée et l’IA devrait donc être conçue en tenant compte de ce facteur. Au sein de l’Union européenne, le Règlement Général pour la Protection des Données (RGPD) protège contre ces utilisations abusives des données personnelles.
     
  • L’effet « boîte noire ». Avec le « Deep learning », l’IA imite de mieux en mieux le fonctionnement des réseaux neuronaux humains. Il devient donc de plus en plus difficile de comprendre le raisonnement utilisé par la machine pour aboutir au résultat final qu’elle nous présente. Ce risque de décisions incompréhensibles, qu’elles soient bonnes ou mauvaises, poserait des problèmes à la fois éthiques (quel degré d’autonomie resterait-il à l’être humain ?) et juridiques (qui est responsable de la décision prise par l’IA si on ne la comprend pas ?).

Une éthique de responsabilité

A ce sujet, il faut savoir que l’IA fait déjà l’objet de très nombreuses réflexions pour la réglementer juridiquement et limiter ces risques. Par exemple, l’Union européenne, et à travers elle la Belgique, travaille actuellement à la création de règles communes afin de s’assurer que l’IA respectera un certain nombre de règles éthiques.

Parmi ces règles, il y aura notamment l’obligation pour l’IA d’être conçue de telle sorte qu’elle donnera la priorité au soutien de l’être humain, à la sécurité et à la transparence de son fonctionnement. Le but est évidemment que l’IA serve au final l'intérêt supérieur des citoyens, et non pas l'inverse.