L’explicabilité des IA génératives, un atout et un impératif pour les entreprises

Article publié le 11 octobre 2023

L’intégration de l’IA, en particulier des IA génératives, comme ChatGPT, Bard ou MidJourney, offre aux entreprises des avantages considérables en termes de performance opérationnelles (automatisation de tâches répétitives, amélioration de la relation client…). Cependant, il est crucial que les décisions rendues par des IA soient compréhensibles et transparentes, non seulement pour pouvoir être adoptées en entreprises mais aussi pour répondre aux exigences règlementaires du RGPD et de l’AI Act.

En effet, sans cette explicabilité, les entreprises peuvent rencontrer des problèmes tels que le manque de justification des décisions algorithmiques.

Par exemple, si pour évaluer la solvabilité de demandeurs de prêts, une banque utilise une IA dont l’algorithme prend en compte des données telles que les historiques de crédits, l’âge, le niveau de revenus et la capacité de remboursement et que l’explication algorithmique n’est pas claire et transparente, elle s’expose alors à des risques majeurs sur le plan de la conformité, ainsi qu’à des litiges potentiels. Sans que compter que la présence de biais discriminatoires basés sur le sexe ou encore l’appartenance ethnique l’expose également à des risques sur le plan éthique du fait d’un nom respect du principe d’équité.

L’explicabilité, et donc la transparence, d’une décision reposant sur un algorithme d’IA est donc essentielle dans le développement d’une IA de confiance. Cette transparence est d’autant plus importante dans des secteurs sensibles comme la défense et la santé, où l’évitement de certains biais est indispensable.

Les défis techniques de l’explicabilité en IA sont donc réels, notamment avec des modèles complexes de machine learning. Mais des progrès sont en cours, avec des investissements croissants dans des projets open source visant à rendre les algorithmes plus transparents. L’open source en offrant un accès public aux algorithmes permet aux chercheurs, développeurs et experts en IA d’analyser et de comprendre le fonctionnement interne des modèles, ainsi que de les évaluer et de les développer sur un mode collaboratif.

Par ailleurs, l’Union européenne, par la réglementation AI Act et les travaux de recherche qu’elle cofinance, stimule le développement d’une IA explicable en Europe et entend se positionner comme leader mondial pour une IA plus responsable.

Pour en savoir plus : Une approche européenne de l’intelligence artificielle | Bâtir l’avenir numérique de l’Europe (europa.eu)

Pour en savoir plus : Pourquoi l’explicabilité est fondamentale pour que l’IA soit acceptée par les entreprises (maddyness.com)

DIVA, c’est quoi ?

En Pays de la Loire, l’EDIH DIVA est un collectif d’experts du numérique, de l’innovation et du développement économique qui œuvre pour permettre aux entreprises ligériennes d’accélérer leur transformation digitale tout en développant des usages utiles et éthiques de la donnée par les entreprises.

Vous vous questionnez sur les sujets de la DATA et de l’IA ? Vous vous demandez si ces sujets vous concernent ? Vous souhaitez vous faire accompagner dans votre projet ?

Ce site utilise des cookies et vous donne le contrôle sur ce que vous souhaitez activer