Intelligence Artificielle : Toulouse se réjouit de sa labellisation, mais ne doit pas s’aveugler

Cocorico, bravo, Eureka ! Toulouse a obtenu un label et un important financement de l’Etat, la ville va devenir un grand centre de recherche et développement en intelligence artificielle, dans trois thématiques : aéronautique, spatial et transports; environnement; santé. Le projet a été proposé par un groupement de laboratoires de recherches, d’établissements universitaires et d’entreprises Toulousains, sous la coupe de l’Université Fédérale de Toulouse. Il fait passer un peu la pilule des échecs répétés pour obtenir le label Initiative d’Excellence. Mais je ne vais pas revenir sur ce chapitre, largement couvert par la presse, et par moi-même en particulier lorsque je travaillais pour Educpros.fr (L’Etudiant).
De mon expérience dans le secteur technologique (notamment pour Midenews (La Mêlée Numérique)), je sais une chose : lorsque ce genre d’événement se produit – obtention d’un grand financement public dans les nouvelles technologies, soutien d’une filière par les collectivités, l’Etat… – il semble que l’esprit critique doive s’amenuiser, voire s’abolir complètement sous le feu nourri des satisfecit. On ne peut que constater que les voix qui émettent publiquement des doutes sont peu nombreuses. Du reste, les universitaires ne sont pas toujours les plus courageux quand il s’agit de prendre position publiquement dans un débat sensible mais qui se trouve biaisé par le souci des carrières. Des carrières qui peuvent être relancées en s’inscrivant dans le cadre de grands projets comme celui-ci. Des trajectoires qui peuvent à l’inverse se trouver entravées par des prises de position trop critiques face à un mouvement académique de cette ampleur. Alors règne plutôt l’autocensure. Je ne généralise pas. Mais j’ai pu le constater.
En ces occasions, on assiste ainsi, de la part d’élus, de décideurs de tous secteurs, à une série de discours béats sur ces nouvelles technologies, bonnes par nature. Alors qu’il s’agit bien sûr de ne pas confondre technologie et usage de la technologie.
Or, ici, de quoi est-il question ? De l’une des technologies à la fois les plus prometteuses, porteuses de progrès révolutionnaires mais aussi de dangers profonds, sur le plan démocratique. Ce monde de la décision s’appuyant sur des algorithmes pourrait devenir des plus dystopiques si nous n’y prenons pas garde !
Les armements extraordinairement efficaces qui vont en émerger – je pense à l’épisode MetalHead de BlackMirror – sont également des plus effrayants.

Le projet Toulousain, dédié à des applications dans les secteurs pré-cités, semble ne pas être concerné par les aspects les plus controversés de l’Intelligence Artificielle. Mais il est d’ores et déjà prévu de doter la gouvernance de cette vaste programmatique d’un conseil éthique, dont, pour l’heure, on ne connaît pas les contours précis ni le nom de ses membres. Philippe Raimbault, le président de l’Université Fédérale de Toulouse, que j’ai eu au téléphone, est parfaitement conscient de cet enjeu.
L’IA, si elle n’est pas maîtrisée et entourée de sévères garde-fous, peut conduire à des dérives très dangereuses. Par exemple, aux Etats-Unis, des logiciels du genre « Pré-crime » (voir cette vidéo : https://www.cnbc.com/video/2019/03/16/artificial-intelligence-algorithms-in-the-criminal-justice-system.html), un peu en mode Minority Report (le film de Spielberg), ont été développés. Ils conduisent certains juges à allonger la peine de prison d’une personne en fonction de son passé, de son lieu d’habitation, de son origine ethnique, etc. En fonction de sa potentialité à récidiver. Autrement dit, il s’agit d’être jugé sur un crime futur que l’on a donc pas commis mais qui est présupposé par la machine !
Et des biais racistes, générés par une misconception de la base de données et amplifiés par le logiciel, et ont été révélés il y a trois ans par le site d’investigation américain Propublica.
 
Pour ceux qui voudraient approfondir la question des biais pouvant être produits par des algorithmes d’Intelligence Artificielle, je propose de lire cet article de recherche Toulousain très intéressant : Loyauté des décisions algorithmiques. Contribution au débat public initié par la CNIL : Ethique et numérique : https://hal.archives-ouvertes.fr/hal-01544701
Je renvoie également sur ce sujet à cette vidéo de Cathy O’Neil, une data-scientist américaine, qui explique pourquoi ces « Armes de Destruction Mathématiques » doivent être combattues. Elle est militante, et il faut aussi prendre son message avec un regard critique. Mais c’est intéressant (et des plus inquiétant).

Enfin, je renvoie aussi à cette interview d’Alain Connes, mathématicien lauréat de la médaille Fields (l’équivalent du Nobel en maths), qui se montre des plus critique sur les conséquences et la vision du rapport Villani sur le sujet (http://www.enseignementsup-recherche.gouv.fr/cid128577/rapport-de-cedric-villani-donner-un-sens-a-l-intelligence-artificielle-ia.html).
« Ne vendons pas notre âme à l’intelligence artificielle », alerte Alain Connes. « Vers quoi va-t-on avec l’intelligence artificielle ? On va vers l’enrégimentement des gens. Et c’est pas par hasard si l’un des organismes à l’origine de percées dans l’intelligence artificielle, notamment en matière de voiture autonome, c’est Darpa. Et le D de Darpa, c’est défense. C’est donc un organisme qui veut développer des procédés à des buts militaires […] Finalement, le big data va remplacer l’homme parce que pour contrôler une immensité de données quels sont les buts ? De manipuler la société. Pour lui retirer de l’argent, la faire voter pour Trump, il y a quantité de buts possibles. C’est ça qui m’effraie. »
Frédéric Dessort

Répondre

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s