Aveyron : "Il faut éduquer le public", prévient Raja Chatila, spécialiste de l'intelligence artificielle, en conférence le 12 avril

Abonnés
  • Raja Chatila sera à Conques le vendredi 12 avril.
    Raja Chatila sera à Conques le vendredi 12 avril. Photo - DR
Publié le
Philippe Routhe

"On ne manipule pas un objet sans être au courant du danger qu’il peut représenter." Professeur émérite à la Sorbonne, Raja Chatila figure parmi les grands spécialistes de l’Intelligence artificielle. Il sera présent à Conques, le 12 avri à 18h30, pour une conférence qui s’annonce passionnante, inscrite dans le cycle de conférences 2024 organisé par l’association artistique et culturelle de Conques et le centre de documentation historique.

Auteur de plus de 180 publications sur le sujet, il est, entre autres, président de l’initiative mondiale IEE basée aux États-Unis, sur l’éthique des systèmes autonomes et intelligents. Et a été coprésident jusqu’en 2023 du partenariat mondial sur l’IA. Raja Chatila fait partie des quelques premiers à avoir signé une lettre ouverte demandant un ralentissement dans la course dangereuse de l’IA.

"Si les modèles de fondation ne sont pas réglementés, les industries qui les utilisent pour développer et fournir des applications spécifiques seront les seules responsables de toute fiabilité défaillante du modèle. Cette situation est injuste. Elle rend ces industries vulnérables et dépendantes des fournisseurs de modèles de fondation."

"Fondements scientifiques et enjeux éthiques" sera le thème de sa conférence, donnée vendredi 12 avril, à 18 h 30, au centre culturel européen de Conques.

Mesure-t-on aujourd’hui l’ampleur du phénomène que représente l’intelligence artificielle et représente-t-elle un danger ?

Non, on ne la mesure pas bien car il y a une difficulté à appréhender véritablement ce que c’est. Si on ne comprend pas le principe du fonctionnement et les limitations qui vont avec, cela pose des difficultés. Un objet que l’on ne comprend pas bien, on n’en comprend pas bien les dangers. On les ignore. Dans la manière de diffuser l’IA, il y a danger. Mais il faut donc comprendre de quoi il s’agit, c’est un des premiers sujets que j’aborderai lors de la conférence à Conques. Plus que des dangers, je parlerai de limitations.

C’est-à-dire ?

Elles sont liées à l’existence d’un système. La performance de l’IA la rend attractive. Et, dans le domaine industriel ou autre, cela peut aboutir à des enjeux économiques importants. Gain de production, capacité de traitement de données… En fonction, on va être conscient des limitations nécessaires. Puis, il y a la construction du modèle statistique de données, où seront pris différents éléments corrélés entre eux pour obtenir un modèle, avec l’algorithme qui est derrière. Ce modèle dépendra donc de ses données initiales. Tous ces facteurs vont influencer la qualité de résultats. On se rend compte qu’il peut y avoir des biais. De la discrimination par exemple.

On peut demander à une IA de classer des pommes en fonction de leur couleur. Si dans ses données, on lui dit qu’il y a beaucoup de vert, beaucoup de jaune et peu de rouge, cela aura des conséquences. Le sujet de la pomme, dans ce cas-là, est neutre. Mais remplacé par les êtres humains par exemple… On devine le danger. En fait, les limitations se transforment en danger dès lors que c’est en rapport avec nos valeurs humaines. Cela influence le résultat et peut avoir des conséquences qui mettent en danger la société.

Il y a la fiabilité des données ?

Une autre limitation est ce que j’appelle le manque de robustesse. Le modèle est donc basé sur des statistiques et des données, le résultat qui est donné est avant tout une probabilité. Qui peut se tromper, car il se base sur un modèle statistique.

Une légère modification des données d’entrées peut aboutir à un résultat complètement différent. En termes d’imagerie médicale, par exemple, une différence invisible à l’œil nu peut classer la maladie bénigne ou cancéreuse. Le danger peut donc venir du manque de robustesse. Avec des conséquences plus ou moins graves.

Puis, il y a les systèmes dits génératifs qui ne font que classer des données et sont produits à partir d’une requête, en s’appuyant sur des modèles statistiques. Le problème est qu’il va emmagasiner aussi bien des choses erronées que des choses vraies. Le système étant déterminé comme sachant, on prend comme argent comptant ce qu’il dit. Or, il faut quand même vérifier… Sans le vouloir, on peut aussi produire et propager de fausses informations.

Le point commun à tout cela est le rôle de l’être humain…

Il est indispensable dans la construction initiale. Il faut pour cela éduquer le public sur les limitations pour qu’il prenne conscience de ce qu’il fait. On ne manipule pas un objet sans être au courant du danger qu’il peut représenter. Pour cela, il y a des aspects réglementaires qui existent, comme l’Europe qui a récemment fixé un cadre. Il y a une chaîne, nous sommes l’utilisateur final, mais à chaque maillon, il y a une responsabilité. Tout le monde a un rôle à jouer. Et si la réglementation est nécessaire, elle n’est pas suffisante. Il y a des choix et des décisions qui sont du domaine de l’éthique.

Une culture à adopter ?

Mais c’est valable pour toutes les technologies. Une voiture peut aller vite, mais il y a des zones de réglementation. Les constructeurs ont eu une obligation de mettre des ceintures sur les voitures, mais vous êtes libres de la mettre ou pas… Le constructeur peut également décider d’aller plus loin que ce que la contrainte lui impose… Ou, au contraire, cacher quelque chose.

Vous travaillez sur des bases existantes, mais comment envisagez-vous l’avenir avec l’IA ?

Il est difficile à imaginer, mais si on regarde les efforts réalisés par rapport aux investissements sur l’IA, et sauf catastrophe, l’IA va continuer à se développer. Le système va s’améliorer. L’IA ne va en tout cas pas disparaître du jour au lendemain. Ensuite, on peut le comparer au pétrole. Il a profondément transformé notre société, la planète, nos villes, le climat, nos vies… Et nous met en danger. Quand il a été utilisé, on n’a pas imaginé qu’il servirait à la production de plastique par exemple. Puis, il y a ceux qui tout de suite ont dit non aux pétroles, ce sont les Amish… Mais comparaison n’est pas raison. C’est difficile à prédire mais il n’y a pas de retour possible. L’IA va résoudre des problèmes et en créer d’autres…

Entrée : 5€ par personne (gratuit pour les adhérents).
Cet article est réservé aux abonnés
Accédez immédiatement à cet article
2 semaines offertes
Voir les commentaires
Réagir
Vous avez droit à 3 commentaires par jour. Pour contribuer en illimité, abonnez vous. S'abonner

Souhaitez-vous recevoir une notification lors de la réponse d’un(e) internaute à votre commentaire ?