Un rapport rendu public le 20 février, tire la sonnette d’alarme : si on ne fait rien, l’intelligence artificielle (IA) pourra à court-terme menacer grandement les démocraties et leurs populations. Pavé dans la marre ou pessimisme anticipateur ?C’était il y a quelques jours, le 20 février : 26 experts anglo-saxons rendaient public leur rapport sur l’intelligence Artificielle (IA). Intitulé «L’utilisation malicieuse de l’intelligence artificielle: prévision, prévention et atténuation», ce rapport dresse un tableau effrayant des dangers de l’intelligence artificielle. Rédigé par des spécialistes dans le domaine, en cybersécurité et robotique appartenant à des universités prestigieuses (Cambridge, Oxford, Yale, Stanford) ou à des organisations non gouvernementales en pointe, ce rapport n’est pas passé inaperçu. Ni dans la presse d’outre-Manche. Ni dans celle de l’Hexagone.
« Nous ne nous sommes concentrés que sur les technologies d’IA qui existent (ou du moins au stade de la recherche ou de prototypes) ou qui sont plausibles dans les cinq prochaines années », précisent les auteurs du rapport. Et si, dans ce laps de temps, rien n’est fait pour prévenir le détournement de l’IA à des fins criminelles ou délictuelles, c’est la sécurité des personnes, la cybersécurité et l’équilibre politique qui seront gravement mis en péril, selon eux. Dans ces trois domaines, « les attaques qui seront permises par l’utilisation croissante de l’IA seront particulièrement efficaces, finement ciblées et difficiles à attribuer ».
Des scénarios glaçants
Le rapport pointe le danger d’une utilisation de l’IA par des terroristes « comme utiliser des drones ou des véhicules autonomes pour transporter des explosifs et causer des accidents ». Parmi les scénarios catastrophes imaginés dans le rapport, celui d’un robot nettoyeur trafiqué qui se glisserait subrepticement parmi d’autres robots chargés de faire le ménage dans un ministère berlinois. Un jour le robot intrus passerait à l’attaque après avoir reconnu visuellement le ministre des Finances : après s’être rapproché de lui, il exploserait de façon autonome, tuant sa cible.
Lire aussi :
Sophia : le premier citoyen robot humanoïde
Autre danger : l’utilisation de programmes d’IA dans un but politique. On l’a déjà vu ces derniers mois avec les soupçons de manipulation des dernières élections présidentielles américaines par la Russie. Dans cette guerre de l’information, le rapport anglo-saxon évoque les technologies déjà capables de fabriquer des vidéos et des sons trompeurs, permettant par exemple de faire dire n’importe quoi à une personnalité politique.
L’IA peut mener à « des campagnes de désinformation automatisées et hautement personnalisées » alertent les auteurs du rapport : en analysant les comportements des internautes, il serait possible de concevoir des messages sur mesure, qui leur seraient envoyés dans le but d’influencer leur vote. Bref, « la cybercriminalité, déjà fortement en hausse, risque de se renforcer avec les outils procurés par l’IA », déclarait à l’Agence France-Presse, Seán Ó hÉigeartaigh, directeur du « Centre for the Study of Existential Risk » de l’Université de Cambridge, un des auteurs du rapport. Les attaques par hameçonnage ciblé (spear phishing) pourraient par exemple devenir beaucoup plus aisées à mener à une large échelle.
Un rapport alarmiste ?
Heureusement, les chercheurs et auteurs du rapport ne se contentent pas de lister les dangers qui nous attendent au tournant. Ils proposent aussi des pistes pour lutter contre ces dérives. Ils préconisent ainsi une plus grande transparence dans les travaux menés dans le domaine de l’IA, un meilleur encadrement de ses acteurs par des experts en cybersécurité, la promotion d’un débat citoyen autour des enjeux de l’IA, la nécessité de poser un cadre éthique et enfin, une bonne information des décideurs politiques sur les questions soulevées par l’IA.
Lire aussi :
L’automatisation : menace ou chance pour l’emploi ?
Alors, que penser de ce rapport médiatisé ? « Les auteurs de ce genre de rapport ont l’habitude d’être alarmistes » confie à Aleteia Claude de Ganay, député LR du Loiret et auteur d’un rapport d’information sur le sujet au nom de l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST). Ce rapport était même intitulé « Pour une intelligence artificielle maîtrisée, utile et démystifiée ». « L’IA ? Il y a les pour et les contre… C’est un classique : à chaque invention ou développement, deux camps s’opposent, tempère-t-il. Les risques existent, c’est sûr, mais c’est à nous de les contrôler. Il faut être vigilant par rapport à la vie humaine, à la protection des données et s’interroger sur l’utilisation terroriste possible de l’IA. Mais on est très loin de la mainmise de l’IA sur l’homme. Le jour où vous verrez un robot exprimer un sentiment, vous m’appellerez… »
L’homme dépassé par ses découvertes
Selon lui, si la prudence est de mise, rien ne sert de dresser l’épouvantail d’une apocalypse prochaine : l’intelligence artificielle sera ce que l’homme, avec son intelligence naturelle, en fera. « Tous les progrès techniques présentent potentiellement un danger. Quand on a inventé l’avion, imaginait-on le 11 septembre 2011 ? Et si on avait pressenti le danger d’une utilisation terroriste de l’avion, devait-on se passer de son développement ? » s’interroge le député.
Lire aussi :
Quel est le comité qui veille sur les États généraux de la bioéthique ?
C’est donc aux hommes de faire en sorte de ne pas être dépassés par leurs découvertes. Pour cela, Claude de Ganay promeut la mise en place d’un cadre éthique à l’IA : « Ce cadre n’existe ni en France, ni en Europe et c’est à l’échelle de l’Europe que l’on doit y travailler ». Il faut dire que la France ne semble plus peser lourd dans ce domaine à l’échelle internationale. D’ailleurs, le Figaro commentant le rapport anglo-saxon, notait « qu’aucune institution française n’a participé à ce travail, malgré la réputation mondiale des chercheurs nationaux dans l’IA ». « Sans un cadre éthique, prévient le député LR, on continuera d’être les spectateurs passifs et inquiets des avancées de l’IA ».
Ne pas devenir victime de sa créature
Nacim Ihaddadene, abonde dans le même sens. Cet enseignant-chercheur à l’Institut Supérieur de l’Électronique et du Numérique (l’ISEN rattaché à l’université catholique de Lille) a pris connaissance du rapport dès sa publication. « Les usages malveillants que les auteurs de ce rapport pointent sont bien réels mais ils ne doivent pas occulter tout le bien que peut apporter l’IA, notamment dans le domaine de la santé ». Le chercheur lillois l’assure : « Certains cancers sont par exemple mieux diagnostiqués à l’aide de l’IA que par le biais de la seule intelligence humaine. Et que dire de l’amélioration que représente une voiture autonome pour un handicapé ? Pourtant, cette autonomie est une avancée de l’IA ».
Lire aussi :
La CNIL recommande que l’intelligence artificielle soit au service de l’humain
Finalement, sous prétexte de dangers malicieux, il ne faudrait pas jeter le bébé avec l’eau du bain. Si le rapport rendu public le 20 février a une utilité, c’est bien celui de participer à l’éclosion d’un débat public autour des enjeux de l’IA de demain. Et d’en soulever les questions éthiques. Pour que l’homme ne soit pas un loup pour l’homme et qu’il ne devienne pas la victime de sa créature (l’IA), il est urgent pour lui de revenir aux sources de l’éthique. Cette dimension sera-t-elle au cœur du rapport sur l’IA que le Premier ministre, Édouard Philippe, a confié récemment au député LREM Cédric Villani ? Initialement attendue fin janvier, il faudra attendre début avril pour en savoir plus.