Aller au contenu principal Skip to page footer

#23 - L'intelligence artificielle : comment rendre les algorithmes plus justes et plus éthiques ?

Jean-Michel LOUBES .

Expert international en IA : mathématicien renommé, leader en IA de confiance à Toulouse, avec plus de 100 publications.
Reconnu pour son travail sur la transparence algorithmique, il collabore avec des industries et institutions académiques de premier plan. Un pionnier de l'IA éthique.

 

Thématiques du podcast

 

Pourquoi est-il important de rester lucide face aux avancées technologiques de l'IA ? L'intelligence artificielle est-elle la clé de l'innovation future ou une source de préoccupations ? Comment l'éthique influence-t-elle le développement et l'innovation en matière d'IA ? Comment les entreprises peuvent-elles intégrer l'éthique dans leurs processus d'innovation en IA ? Le techno-réalisme peut-il offrir une alternative viable au techno-solutionnisme ? Comment pouvons-nous garantir une utilisation éthique de l'intelligence artificielle dans notre quotidien ?

Description

 

Entretien entre France CHARRUYER et Jean-Michel LOUBES, professeur et vice-président de l’Université Toulouse III-Paul Sabatier, directeur scientifique de l’ANITI (Artificial and Natural Intelligence Toulouse Institute), sur le rôle des biais dans les algorithmes ; un enjeu clé pour aller vers une IA de confiance.

Qu'est-ce que le biais en IA ? Les biais sont-ils capables du meilleur comme du pire ? Face à l'enjeu de l'industrialisation de l'IA, comment pouvons-nous combattre ces biais pour rendre les algorithmes plus justes et plus éthiques ?  Un nouvel épisode des Causeries Data qui nous emmène dans les entrailles de la machine..

Transcription du podcast

France Charruyer : Bonjour à tous bienvenue pour une nouvelle causerie data entre France Charlie et votre serviteur et le chercheur professeur Jean-Michel Loubes Bonjour Jean-Michel

Jean Michel Loubes: Bonjour France

France Charruyer : Qui êtes-vous Jean-Michel ?

Jean Michel Loubes : Je suis professeur des universités, à l'université de Toulouse je travaille dans le laboratoire de mathématiques de Toulouse donc je suis un mathématicien. Je suis un mathématicien qui s'intéresse aux algorithmes et tout particulièrement qui s'intéresse aux problématiques sur les biais

France Charruyer: Pourquoi un autre podcast sur l'IA vous demandez-vous ?! Parce qu'avec Data Ring on nage pas en surface ! Plongeant tête la première pour explorer non seulement l'IA et comment cela fonctionne mais pourquoi elle ne fonctionne pas toujours et ce que cela va signifier pour nous, nos familles, nos emplois, nos loisirs nos façons de vivre de penser et d'habiter le monde la conversation avec les causeries datas c'est apporter un éclairage différent alors on va prendre le temps de poser des questions brûlantes sur les biais algorithmiques qui peuvent faire rougir un vieux PC à l'explique habilité impossible des IA ou pas parce que parfois peut-être qu'elle semble avoir leur propre volonté ce n'est pas moi qui le dis c'est Stanford mais je vais le questionner et en passant par les implications éthiques et légales qui donneraient des sueurs froides même aux robots les plus froids alors Jean Michel on va démarrer avec la question d'usage comment définissez-vous les systèmes d'intelligence artificielle dans le contexte actuel

Jean Michelle Loubes : Alors c'est une question compliquée parce que il y a c'est un domaine de l'informatique qui se concentre sur la création de systèmes capable d'effectuer des tâches qui si elles étaient accomplies par des humains nécessiteraient une forme d'intelligence donc on voit qu'il faut commencer par définir qu'est-ce que l'intelligence et c'est un concept qui est très complexe parce qu'il englobe plusieurs aspects de la capacité cognitive c'est la capacité de penser de manière logique de résoudre les problèmes de prendre des décisions d'analyser des situations complexes et aussi de pouvoir apprendre de l'expérience et de s'adapter alors est-ce que les machines et à travers l'intelligence artificielle en sont capables et bien depuis quelques années de la théorie de l'apprentissage a permis aux machines d'apprendre par elles-mêmes à partir d'instructions qui ne sont pas données par une personne mais qui sont générées directement par l'ordinateur. L'ordinateur apprend donc de lui-même de à partir de données qui lui sont fournies un modèle et peut arriver à avoir des modèles qui permettent des prises de décision

France Charruyer: Vos travaux Jean-Michel portent sur l'équité la robustesse dans l'apprentissage automatique du moins les travaux que vous avez menés chez amity j'ai cru comprendre que vous alliez intervenir également parce que vous êtes modeste à TSE, la Toulouse School of Economics comment définiriez-vous un biais dans le contexte de l'IA et pourquoi est-il crucial de le quantifier et de les comprendre

Jean Michel Loubes: Le terme biais est un terme aussi compliqué qu'il faut bien entendu définir donc biais ça vient du latin bi axis 2 axes ça veut dire que lorsqu'on est face à un problème on peut le voir selon 2 directions une direction principale et puis une direction un peu inattendue qui surprend donc si on regarde dans le dictionnaire l'étymologie la décision biaisée c'est une décision qui dévie par rapport à un comportement attendu et le biais c'est la variable qui entraîne cette déviation donc en fait un biais algorithmique se réfère à des situations où un algorithme ou un système de traitement de données automatiques donne des résultats qui vont être systématiquement différents pour certains groupes de personnes et ainsi il y a donc une déviation pour une minorité de personnes par rapport à un comportement majoritaire

France Charruyer : Oui ! Mais par définition un système d'IA il discrimine c'est ce qu'on va lui demander

Jean Michel Loubes: Tout à fait !  En fait on peut regarder les conséquences de de ces biais le système il doit être discriminé c'est-à-dire qu'il doit arriver et à effectuer une tâche qui permet de classifier la population en en sous-groupe mais on attend que cette classification soit réalisée pour de bonnes raisons des raisons qui ont du sens par rapport à la tâche que l'algorithme est censé couvrir et justement quand il y a des biais peut-être qu'on en reparlera tout à l'heure les raisons pour lesquelles la discrimination est faite sont des raisons qui sont totalement différentes des vraies raisons de cette tâche par exemple si on peut prendre un exemple dans un système de recommandation où on cherche à prédire à donner des conseils à une personne sur le métier donc elle doit effectuer une personne qui a fait des études autour de la biologie ou médicale on peut lui recommander d'être par exemple chirurgien lorsque on introduit la variable genre ou même lorsque l'algorithme détecte que la personne à qui il doit faire cette recommandation est une femme l'algorithme peut souvent avoir tendance à recommander plutôt un métier d'infirmière que chirurgien c'est en ce sens que c'est un biais puisqu'on s'attend à ce que 2 personnes qui ont des CV similaire avec les mêmes compétences reçoivent la même recommandation alors qu'ici la variable genre qui semble ne pas être causale entraîne un changement de l'algorithme

France Charruyer : est-ce que vous pouvez nous donner un cas d'usage par exemple au-delà des recrutements sur des biais de genre ?

Jean Michel Loubes : on peut, par exemple, penser à un algorithme de gestion du personnel qui essaie d'apprendre pourquoi les personnes sont malheureuses au travail l'algorithme analyse un certain nombre de données et préconise un certain nombre d'actions les actions ça peut être plus de temps libre plus de responsabilités des formations on s'est aperçu que ces algorithmes avaient des comportements différents en fonction du genre c'est à dire que l'arrivée a beaucoup mieux détecter le mal-être au travail des hommes il était beaucoup plus sensible aux indications variable donc ça veut dire qu'il apprenait dans les données qu'il observait le mal-être au travail des hommes à travers les recommandations des supérieurs les retours d'expérience des employés il était capable de prédire que ces personnes étaient malheureuses et donc donner des  recommandations pour les rendre plus heureuse et surtout évitée qu'elle change qu'elle change d'emploi alors que pour les femmes les raisons étaient essentiellement masculines donc ça ne marchait pas du tout pour les femmes et il y avait 2 conséquences très importantes la première conséquence était tout d'abord mais une source de une rupture d'équité entre le traitement pour les employés et d'autre part comme l'algorithme préconisait souvent pour que les gens restent sur place des augmentations de salaire on avait des recommandations des augmentations de salaire plus importantes préconisées pour les hommes que pour les femmes qui aboutissaient à un déséquilibre entre les salaires entre hommes et femmes l'entreprise

France Charruyer : c'est pareil ça je crois qu'on l'a vu également dans les algorithmes de recrutement puisqu'en moyenne les femmes gagnent semble-t-il 24% en rémunération moins que les hommes et donc ça amenait statistiquement les algorithmes dans leur on va dire demande et dans leur approche de la rémunération des femmes à sous-évaluer la rémunération qui pouvait être faite à une femme ça on en avait beaucoup parlé est-ce que vous avez travaillé sur ce sujet

Jean Michel Loubes : Oui, tout à fait et ça me permet de de redéfinir l'impact du biais parce qu'en fait le biais algorithmique i il est essentiellement de de nature la première nature du biais est un biais décisionnel on a envie qu'une variable n'influe pas dans la décision c'est à dire que on apprend comportement optimal une décision optimale et on n'a pas envie que des variables qui selon nous n'ont pas un effet causal entre en jeu et change la décision si l'exemple on n'a pas envie que dans un recrutement pour une personne on regarde au-delà des compétences on pense que le genre n'influe pas sur les compétences donc ce biais c'est un biais qui va contre le fait qu'on veut la même décision pour tous mais y a un autre type de biais c'est un biais sur la performance de l'algorithme en imagine un algorithme ici moi l'algorithme de d'aide au management dont je vous ai parlé cet algorithme est bien c'est sa performance qui dépend du genre il marche très bien pour les hommes mais il marche pas bien pour les femmes et ça c'est un autre type de billet un peu plus compliqué que le premier puisqu'ici on a envie que l'algorithme fonctionne de la même façon pour tout le monde donc y a pas de variable de sous-groupe qui soit impactées plus qu'un autre non pas en termes de décision mais en termes de performance de l'algorithme

France Loubes : nous avons tous des biais on a des biais de confirmation on a des billets d'adhésion on a des biais culturels. Mon développeur lorsqu'il programme parfois il peut aussi transmettre ce propre biais et puis nous avons également ce qui vont commanditer le programme qui eux aussi vont avoir leurs biais. Donc on a deux écueils, c’est les instructions qui vont être donnés et l’information au développeur  dans la prévention des biais et puis ensuite les instructions pour des questions évidentes de responsabilités qui doivent être donnés à ce dites développeurs à ses dites développeurs parce qu'ils n'ont pas forcément la même logique si je suis dans une université et que je fais un tri des CV qu'est-ce que j'attends, moi dans ce tri sélectif des CV qu'est ce que c'est qu'un bon CV on n'a pas tous la même définition du bon CV

Jean Michel Loubes : donc nous avons vu que les biais c'étaient des une variable qui crée des déviations et en fait des difficultés c'est que comme dit Cathy O’Neill dans son livre weapons of maths destruction les armes les maths comme alors ça en français ça marche moins bien mais les comme arme de destruction massive les biais euh sans partout et ce c'est justement c'est le fait qu'il y ait des biais qui fait que les algorithmes fonctionnent et que les algorithmes peuvent apprendre donc il y aurait des mauvais biais et des bons biais qui déterminent le mauvais biais du bon biais bien en fait on a besoin de d'éthique on a besoin de morale et on a besoin de lois donc la définition de ce que c'est qu'un bon CV c'est quelque chose de compliqué parce que quand on veut identifier les biais dans les algorithmes les biais peuvent venir de plein de choses ça peut venir des biais qui sont directement codés dans par le par le programmeur alors ces biais là en science c'est des biais qu'on peut facilement vérifier parce que si on a accès au code on peut facilement regarder que le programmeur a choisi délibérément de favoriser une classe de la population plutôt qu'une autre

France Loubes: ma fameuse logique de transparence et d’explicabilité

Jean Michel Loubes : Tout à fait ! C'est pour ça que c'est important de demander au législateur lorsqu'il fait l'audit des algorithmes de pouvoir à minima regarder les instructions qui ont été données soit à l'algorithme soit le code qu'il a qu'il a créé quand c'est possible mais ce qui est plus compliqué c'est que les biais dans des algorithmes d'ia sont des biais que l'algorithme va lui-même détecter de 2 manières d'abord dans les données d'entraînement c'est-à-dire que les données utilisées pour entraîner un algorithme comportent des biais en fait ça peut être elles peuvent avoir des biais parce qu'elles sont pas représentatives de toute la population

France Charruyer : donc une sous-estimation

Jean Michel  Loubes: voilà on peut avoir une des quand on c'est des des biais qui sont bien connus comme le biais de sélection par exemple quand on crée des données d'apprentissage sur lesquelles l'algorithme va créer son modèle  bien on regarde une sous-partie et cette sous-partie de la population ne peut ne peut ne pas être représentatif de la population globale et comportée des biais mais cela se produit également lorsqu'on essaie d'apprendre un comportement et que de facto apprendre ce comportement et plus délicat chez une sous-partie de la population que pour un autre et ça c'est des biais qui sont très proches des biais humains que nous avons tous lorsque nous raisonnons par stéréotype

France Charruyer : les fameuses problématiques auxquelles on est confronté dans les algorithmes de traduction alors ce que je dis infirmier, infirmière en anglais nurse et la que la traduction devient forcément une infirmière et que le médecin c'est un médecin là j'ai cette problématique ce genre de biais automatiques qu'est-ce qu'on peut faire pour lutter contre ça est-ce que c'est possible déjà parce que là on a une sous-représentation comment on fait

Jean Michel Loubes: alors ce qu'il faut comprendre c'est que la problématique de biais c'est pas simplement le biais dans les données mais c'est aussi comment l'algorithme va apprendre ce biais le propager et parfois même l'amplifier donc même si les données sont biaisées on peut essayer alors tout d'abord il faut évaluer ce biais évaluer c'est-à-dire donner sa définition et ça c'est un travail pluridisciplinaire mais une fois qu'on a trouvé la bonne définition par rapport aussi aux impacts que va créer le biais il va falloir arriver à mesurer certifier la présence de biais dans les données dans les sorties de l'algorithme et ensuite arriver à comprendre l'impact de l'algorithme sur le biais ambiant. Une fois qu'on a évalué les performances de de l'algorithme si on a identifié par exemple que l'algorithme fonctionnait moins bien pour certains groupes ou qui avaient des décisions qui étaient trop dépendantes de certaines variables dont on pense soit pour des raisons morales éthiques ou l’égales qu'elle devrait être prise différemment il va falloir corriger donc corriger le biais c'est possible à condition de d'abord de le chercher donc d'être conscient qu'il peut y avoir du biais et ne pas prendre les vérités algorithmiques pour des vérités plus importantes qu'elles ne sont et donc il va falloir arriver avec à mesurer ce biais et on peut le corriger

France Charruyer : Donc on introduit une discrimination positive par exemple on met un peu plus de CV de femmes puisqu'on a on est confronté à l'invisibilité des femmes aussi dans le numérique mais c'est aussi le frais d'une réalité donc on tord la réalité ça pose des problèmes éthiques aussi

Jean Michel Loubes : Alors non je dirais-je je dirais pas ça on on va alors d'abord la réalité numérique que l'on tord c'est pas forcément la réalité des données et la réalité des données n'est pas la réalité du monde dans lequel on cherche à vivre par exemple si je veux un algorithme de recommandation pour savoir si des femmes peuvent accéder à des grandes responsabilités dans l'entreprise si je prends les données numériques c'est-à-dire je prends par exemple les femmes le nombre de femmes qui dirige les entreprises du CAC 40 je pense que les données seront biaisées et que il y a beaucoup plus d'hommes qui dirigent donc en fait quelle est la réalité des données de ce monde numérique par rapport au monde potentiel au monde dans lequel on aimerait vivre est-ce vraiment changer la réalité qui essayait de reconstruire un monde où il y aurait une espèce une équité entre genre par exemple

France Charruyer : et entre couleur de peau puisqu'on a eu la problématique hein dans les algorithmes de reconnaissance faciale

Jean Michel Loubes : Tout à fait ! Il y a beaucoup de de biais mais au-delà de la du simple rééquilibrage base apprentissage on peut aussi essayer de contraindre l'algorithme de contraindre l'IA à apprendre des modèles plus justes et ça ce sont des méthodologies informatiques et mathématiques qui permettent de contrôler toute la phase d'apprentissage et de pouvoir s'assurer que les biais ne vont pas jouer un rôle déterminant dans la construction du modèle

France Charruyer : comment on peut contribuer à une meilleure interprétation et acceptation lien avec ces travaux sur l'exploitabilité la détection des biais

Jean Michel Loubes:  alors comprendre les biais c'est une des phases de l'explicabilité des algorithmes

France Charruyer : La fameuse première marche

Jean Michel Loubes : Arriver à comprendre à se prémunir des biais la première chose à faire c'est d'arriver à les comprendre et d'arriver à les mesurer donc pour les mesurer il faut pouvoir se donner une définition donc c'est la première chose c'est expliciter ce qu'on cherche et ensuite lorsqu'on cherche les mesures dans les algorithmes on essaie de comprendre ce qui est créé par l'algorithme donc c'est explicabilité de l'algorithme mais ça va mais l'explicabilité des algorithmes va bien au-delà puisque l'explicabilité c'est arriver à comprendre la décision c'est-à-dire pouvoir expliquer aux usagers comment la décision a été prise mais cette explicabilité c'est quelque chose qui doit in fine permettre à la personne de reprendre du pouvoir sur l'algorithme donc expliquer la décision ne suffit pas il faut donner des raisons qui sont des raisons causales pour que la personne puisse elle-même être capable d'influer sur la décision de l'algorithme être capable de changer en modifiant certains paramètres et donc cette explicabilité causale c'est un des thèmes principaux de la recherche scientifique en IA actuelle c'est quelque chose qui est assez compliqué à obtenir puisque les algorithmes sont fondés plutôt sur des corrélations que sur des causalités c'est comme ça qu'ils sont construits

France Charruyer : mais alors quels sont les défis concernant l’explicabilité dans les réseaux dans non profonds

Jean Michel Loubes : alors on est on est confronté à un dilemme on a des réseaux de neurones qui plus ils sont gros plus ils sont complexes mieux ils prédisent donc on a envie d'utiliser des réseaux qui sont très complexes avec un grand nombre de paramètres on est à 300 milliards actuels pour les gros modèles de langage et plus ces modèles sont complexes et plus ils s'apparentent à ce qu'on appelle des boîtes noires c'est-à-dire que lorsqu'on a reçu une décision on n'arrive pas à comprendre les raisons pour lesquelles la décision a été prise cette boîte noire est très compliquée à disséquer à ouvrir et parce que même si on avait accès à tout l'algorithme on devrait comprendre 300 milliards de paramètres et c'est à dire que le réseau a appris des données en se créant lui-même une espèce d'alphabet de dimension 300 milliards dont la logique et propre aux machines et n'est pas du tout compréhensible par les êtres humains donc quand on l'explicabilité des algorithmes c'est pas essayer de suivre tous les paramètres du réseau mais essayer de comprendre comment se propage l'information et comment on arrive à expliquer dans notre logique notre logique humaine cet espace de représentation qu'a construit l'algorithme ces espaces de « feature » ou un « bedding » si on reprend les termes techniques et arriver nous à leur donner du sens il y a beaucoup de recherches pour essayer de d'arriver à redonner de la logique humaine à ces alphabet construit par les machines

France Charruyer : Est-ce qu'il y a pour un homme cet aveu d'impuissance et pour une femme aussi d'ailleurs ?

Jean Michel Loubes :  Pas du tout ! C’est un challenge ! c'est un challenge qu'on doit qu'on doit relever à la fois les scientifiques qui travaillent sur ces algorithmes essayer de de de donner du sens à ces espaces à ces espaces de représentation grande dimension non seulement en donner du sens mais qu'on on voit que ces espaces souvent ne marchent pas puisqu'il y a beaucoup de de problèmes si on prend les modèles de langage à tous cette problématique liée aux hallucinations de ces modèles de langage donc on voit bien que même c'est ces gros modèles manquent de logique donc essayer de réduire cette dimensionnalité et d’essayer d'apporter de la logique extérieure d'essayer d’hybrider l'IA avec des connaissances logiques un petit peu comme ce qui se faisait pour des systèmes experts c'est sans doute une des solutions pour essayer d'améliorer l'IA

 L'hybridation avec des contraintes physiques des contraintes logiques c'est à dire ne plus laisser la machine apprendre toute seule avec des données mais essayer de la guider lors de son apprentissage un petit peu lorsque quand vous avez des enfants vous les envoyez à l'école et à l'école on ils sont face à des experts qui font essayer de guider leur apprentissage

France Charruyer : Donc tout va bien on va dépenser beaucoup d'argent pour envoyer les IA à l'école et on se pose beaucoup moins de questions pour tous ceux qui vont je pense toujours à Meknès payer 2$ de l'heure qui vont modestement au mieux au Brésil à photographier des cacas de chien dans ce que j'ai appris pour améliorer les algorithmes d'apprentissage profond et de reconnaissance faciale pour les aspirateurs, mes fameux kenyans qui vont trier sans parfois comprendre ces bases de données d'apprentissage et toujours plus je veux dire d'investissement pour faire en sorte que les I s'améliorent mais ce que les humains vont arriver à s'améliorer suivre le rythme

Jean Michel Loubes : alors si on repart sur la problématique des biais c'est un domaine qui est très intéressant parce que quand on essaie d'étudier des béats les biais algorithmiques en fait ça révèle nos propres biais ça révèle les plusieurs aspects importants de notre intelligence la manière avec laquelle nous pensons nous traitons l'information ça nous quand on essaie de détecter et de corriger ces biais algorithmiques ça nous apprend tout d'abord que comme ces machines apprennent à partir des données que nous leur fournissons,  bien elles elle ses données près reflète et amplifie nos stéréotypes ensuite bien que l'intelligence humaine est capable de logique profonde, les biens analytiques révèlent que on peut nous aussi échouer à anticiper les conséquences complexes et systémiques de nos propres créations intelligentes donc en fait si ces machines créer du biais c'est aussi parce que nous les avons nous avons choisi de mauvais objectifs des mauvaises indicateurs de performance et qu'on les amène à avoir des raisonnements biaisés cette présence de biais aussi ça peut nous permettre de prendre conscience des efforts qu'on doit que notre société doit mettre en œuvre justement pour corriger ces biais mais le fait même qu'on puisse arriver à s'interroger sur la présence de biais et ça c'est quelque chose de qui révèle aussi notre si on est si on est optimiste notre capacité en tant qu humain d'essayer de de réfléchir sur nos propres créations et de vouloir améliorer le les algorithmes et donc la société

France Charruyer : on peut s'interroger sur les investissements qui vont être consacrés pour faire en sorte que les IAI à l'école pour s'hybrider au mieux et le fait que le travail humain les savoir-faire vont être on va dire ravalés à une portion congrue qu'est-ce que ça dit de nous

Jean Michel Loubes: d'abord ça montre l'interaction étroite entre technologie et société il démontre comment nos valeurs nos normes nos structures sociales sont intégrées dans la technologie que nous créons et il montre de la même façon que cette technologie influe sur la société ça montre que quand on crée ces algorithmes il faut peut-être essayer d'encadrer ce processus de de création ça montre aussi qu'on a besoin de de surveillance peut-être de textes de loi surveillance

France Charruyer : Surveillance, j'aime pas trop le mot parce que on est en train de de sombrer dans un capitalisme de surveillance avec une horizontalisation de cette surveillance est ce qu'on n'est pas peut-être on va on va reprendre parce que on va on va faire attention aux mots et aux concepts qu'on est en train de déployer sur cette gouvernementalité algorithmique qui va nous dévorer me semble il ramener un peu non pas de bon sens mais d'équité de robustesse d'explicable était dans les algorithmes c'est se poser la question encore et toujours de l'usage in fine des systèmes d'IA. Ce n'est pas la même chose de savoir si j'ai envie de manger grâce à un algorithme un yaourt à la fraise ou à la framboise l'impact n'est pas le même que celui qui va peser sur un algorithme de recrutement

Jean Michel Loubes : tous ces débats ça montrent la complexité des conceptions de la morale et de l'éthique qui sont cruciaux dans le contexte de de l'ia ça nous pousse à réfléchir ce que sur ce que nous considérons comme juste équitable et éthique dans un monde totalement automatisé mais parfois le diable est dans les dans les détails on peut regarder un système de recommandations on peut se dire que c'est pas grave d'avoir des recommandations sur un site de vente qui soit par exemple genré ou qui ou l'influence ethnique ou l'origine ethnique joue un rôle très important mais si ce même site est utilisé pour par exemple des annonces d'emploi Et bien on va conditionner l'accès à l'emploi à des recommandations qui sont biaisées

France Charruyer :  mais le droit à régule toujours ses rapports de force donc justement là on arrive sur ces tentatives de régulation un peu partout dans le monde avec des monopoles je pense aux grandes plateformes et aux gros opérateurs des larges language model qui se présentent comme des pompiers pyromanes c'est-à-dire qu'ils allument un feu puis ensuite il vous est-il s'érigent en sauveur de l'humanité pour avoir une régulation sur mesure nous avons en Europe fait le choix de L’AI act qui se veut la première régulation mondiale qu'est ce que vous pouvez nous en dire est-ce qu'on va s'en sortir avec la régulation est-ce que ça suffira qu'est-ce que des chercheurs comme vous peuvent nous apporter

Jean Michel Loubes : des chercheurs comme moi nous avons besoin de travailler en interaction avec justement des d'autres chercheurs dans des champs comme le droit l'éthique c'est justement le cette problématique on le voit bien est une problématique vraiment multidisciplinaire puisque quand on cherche simplement à apporter des solutions techniques Eh bien on souvent on on échoue dans notre  ambition sociale donc on a besoin donc le la régulation et je pense quelque chose de de nécessaire parce que arriver à demander de l’explicabilité et de l'intelligibilité aux décisions algorithmiques lorsque ces décisions algorithmiques sont utilisées dans des systèmes à haut risque comme l'accès aux ressources publiques l'accès on le voit de plus en plus à la santé l'accès même au transport Eh bien cette décision l'impact de la vie de tous les jours alors

France Charruyer : Pour rappel et à Act adoptent une régulation qui est fondée sur une approche à 2 niveaux une approche dite par les risques avec une granularité du risque : risque faible risque minimal risque élevé et donc les obligations va être plus importantes pour les 10 risques élevés mais est-ce que cette approche se suffit à elle-même puisqu'elle se double du nôtre régulation sur la puissance de calcul est-ce que vous considérez que cela suffit ou est-ce qu'il ne faudrait pas en plus être plus pragmatique introduire du droit souple et avoir une régulation par l'usage parce que c'est compliqué de réguler de manière générale

Jean Michel Loubes : Je suis convaincu que la régulation de l'IA  en général passe par l'étude des cas d'usage parce que c'est très compliqué d'établir des règles générales qui seraient valides pour tout système d'i a ça pourrait peu dans certains cas freiner l'innovation technologique par contre s'intéresser au cas d'usage arriver à encadrer et à comprendre surtout l'impact des décisions algorithmiques et à partir de là, donner un sens à ce que devrait être un bon algorithme paraît une bonne voie à suivre je connais pas le texte de de l’IA act parce que il est pas encore disponible

France Charruyer : on fera un podcast spécifique sur la question rassurez-vous

Jean Michel Loubes : il me semble qu'il définisse justement avec la granularité dont vous avez parlé certains domaines d'application et qu’en fonction des risques de ces cas d'usage les règlements vont changer donc je pense que ça c'est plutôt une bonne chose d'arriver à s'intéresser aux conséquences et à adapter la régulation en fonction de l'impact

France Charruyer : moi ce qui me trouble c'est la l'espèce de forum légal shopping auquel on est en train d'assister c'est à dire que pour des raisons de croissance de performance de stimulation de l'innovation chaque pays est en train où chaque empire en fonction de la façon dont vous les qualifier est en train d'avoir sa propre régulation l'approche anglaise est sur la notion des sandbox c'est-à-dire des bacs à sable qui vont permettre de développer ces fameux cas d'usage c'est une approche beaucoup plus souple sur l'intérêt légitime là où en Europe on a une approche beaucoup plus stricte que certains dénoncent au plus haut degré de l'état au plus haut niveau de l'état est ce que le fait de vouloir notre champion absolument ça a encore du sens quand on sait que capitalistiquement il s'appuie sur Google est-ce que l'Open source sur des modèles plus petits est ce qu'il ne faudrait pas faire vous le disiez tout à l'heure c'est très compliqué de pouvoir rendre explicable des grands modèles de langage qui fonctionnent sur 300 milliards de paramètres est-ce qu'il ne faudrait pas être plus modeste puisqu'ils hallucineraient moins si on était sur des modèles plus petits ça serait peut-être moins énergivore est-ce qu'on se pose sérieusement la question de l'impact environnemental ça consomme énormément d'eau quand je parlais des cas d'usage est-ce que l’IA il a ne doit pas être réservé justement du fait de son impact à des universités à des chercheurs on l'avait vu sur Bloom ils ont pas voulu faire un boom capitalistique alors qu'ils étaient déjà très avancés en estimant que leur création n'était pas suffisamment sûre encore est-ce qu'on doit pas être plus modeste

Jean Michel Loubes : si on parle d'impact écologique c'est une c'est une vraie problématique mais qui mais qui est double parce que vous avez d'un côté l'utilisation d'algorithmes très compliquée sur des tâches qui sont sans doute pas intéressantes et d'autre part vous avez beaucoup de recherches de personnes qui essaient d'avoir de créer des IA qui sont beaucoup plus frugales qui consomment moins d'énergie la problématique de cette recherche de frugalité c'est l'effet rebond bien connu dans en sciences quand vous essayez de créer une IA beaucoup plus frugale et bien beaucoup plus de personnes vont développer et in fine l'impact écologique et plutôt négatif. Faut-il réserver l'i a à la recherche je ne pense pas puisque on voit alors actuellement les plus gros chercheurs en IA sont dans des entreprises américaines et C'est d'ailleurs une des problématiques principales qui est que en Europe on n'a pas réussi à créer un champion de l'i a même si c'est à souligner si la plupart des chercheurs qui ont créé ces IA sont des chercheurs européens et beaucoup français qui sont partis en Amérique ou dans d'autres dans d'autres pays et ça peut permettre de s'interroger sur l'attractivité de l'Europe et de la France pour les pour les chercheurs

France Charruyer : Donc des chercheurs tels que vous sont en recherche de laboratoire s'ils veulent rester en France qu'ils soient financés donc la science a toujours été un savoir critique mais on a besoin qu'il se construise toujours contre le savoir de la majorité donc aujourd'hui on peut aussi se poser la question de la rationalité. La rationalité inhérente au système d'IA et l'impossibilité de prévenir complètement les biais et puis peut être parfois c'est nécessaire d'avoir des biais dans certains contextes est-ce que ça ne va pas affecter notre approche de l'éthique et de la réglementation de l'IA. Il y a des chercheurs qui aujourd'hui vous disent aussi thinking Fast and slow comment je fais alors ça je crois que c'est Daniel Kahneman qui qui parle comme ça comment dans cette approche modeste entre guillemets mais lucide et je vous remercie vraiment d'être lucide sur le fait de notre non pas impuissance mais le constat que nous faisons face au monopole aujourd'hui américain et aux risques de McDonaldlisation de la pensée quel qu'est-ce que vous aimeriez dire à ceux qui nous écoutent qu'est-ce que vous aimeriez faire ce serait quoi votre envie pour pour aller plus loin au-delà de vos propres travaux et de ce que vous faites pour les organisations

Jean Michel Loubes : France on vous connaît il y a 3 questions et encore 3 c'est parfois c'est peut-être faible dans cette dernière question une des questions à laquelle j'ai envie de de répondre C'est pourquoi faire de de l'IA ce que l'IA par ces progrès va servir les hommes va les éclairer va les libérer de de l'ignorance est ce qu'on peut créer une IA qui va peut-être contribuer à rendre les hommes les hommes meilleurs ça c'est une dans un monde où nos actions sont dictées par le passé où la volonté humaine est subordonnée aux prédictions d'hier si on a une IA qui est la même pour tous vous avez parlé de McDonaldlisation de la pensée notre avenir va s'assombrir avec cette espèce d'université menaçante une IA qui arriverait à sortir le les mêmes décisions pour tous une espèce de vérité immuable une réalité figée c'est vous me dépeignez un monde orwellien quasiment dépourvu de liberté et dans ce monde il y aura peu de place à la singularité peu de place à la créativité alors moi je suis un peu plus optimiste parce que les IA elles-mêmes peuvent faire preuve de de créativité alors c'est pas une créativité débordante mais en fait ce qui est important c'est que si on arrive à rendre L’IA explicable à contrôler un petit peu les décisions au moyen de de réglementation on pourra imaginer un dialogue entre l’IA et l'homme en est en train d'essayer d'avoir des IA apprenantes mais si on arrive à mieux évaluer mieux comprendre les décisions de l'IA on peut imaginer un partenariat et que ça passe simplement le Machine learning mais que ce soit aussi le Human learning que l'on puisse apprendre de la machine

France Charruyer : merci vraiment Jean-Michel alors rejoignez-nous pour ces conversations. Peut-être machine demain qui sont à la fois sérieusement informatives et agréablement divertissante vous le voyez parce qu'en fin de compte si on ne peut même pas rire de l'apocalypse des robots ou de la nôtre de quoi peut-on rire et à bientôt dans l'arène des IA ou Sam Altman règne peut-être jardinier de pixels qui aiment leurs graines les machines s'éveillent empruntent nos esprits lentement donc cassez les