Le dogme d’une l’IA éthique, pour tous, au service du bien?

Résumé  partiel de l’article de Thierry BERTHIER, dans Contrepoints, 24 avril 2018

 

Le rapport sur l’intelligence artificielle (IA) rédigé par le mathématicien et député Cédric Villani, a été rendu public le 28 mars 2018.

 

L’une des lignes de force du rapport Villani est celle d’une « IA éthique » développée pour le bien commun, accessible à tous, profitant à tous, ouverte à la diversité. Omniprésentes dans le rapport, ces recommandations ont été réaffirmées lors de la remise du rapport par Cédric Villani.

 

Sur le fond, on ne peut qu’être d’accord avec cette attente d’éthique et d’orientations positives dans les plateformes embarquant de l’intelligence artificielle. Pour autant, il faut préalablement s’entendre sur la définition d’une éthique projetable sur des composantes d’IA.

 

S’agit-il de contraintes fonctionnelles à implémenter by design dans les plateformes, de bornes d’application de la solution développée, de restrictions aux seules données éthiquement admissibles dans le cadre d’un processus d’apprentissage, de limitation de l’autonomie d’exécution d’une composante de Machine Learning, d’un robot ou d’un véhicule autonome ?

 

On comprend que la recommandation d’éthique impacte le périmètre fonctionnel d’une IA aujourd’hui faible et verticale et qu’elle introduit de fait un niveau de complexité supplémentaire dans la conception des plateformes.

 

Il n’existe aucun consensus international sur ce qui est éthique et ce qui ne l’est pas en matière d’intelligence artificielle, comme sur beaucoup d’autres sujets. La géométrie variable de l’éthique du numérique en fonction de la culture, des traditions, des croyances et des biais cognitifs des populations ne facilite pas son intégration « by design » à l’IA.

 

La demande d’éthique est corrélée au consentement algorithmique de l’utilisateur, aux craintes associées au développement de l’IA et aux empreintes idéologiques du demandeur. Puisque ma catégorisation personnelle de l’éthique de l’IA ne correspond pas forcément à celle de mon voisin, il faut que l’éthique de l’IA soit adaptative à toute échelle et qu’elle satisfasse l’ensemble des attentes.

 

 

L’éthique est-elle soluble dans l’intelligence artificielle ?

 

La course à l’intelligence artificielle nous oblige à revoir nos schémas intellectuels et nos biais idéologiques. L’éthique de l’IA ne doit pas transformer les futurs produits « Made in France » en boites de contraintes limitant leurs performances.

Un second argument allant à l’encontre d’une IA « universellement éthique » réside dans la forte spécialisation des plateformes.

 

Considérons cinq exemples :

1) l’éthique d’une IA intervenant dans l’élaboration de contrats d’assurance (calculant le risque du futur assuré) ou de prêts immobiliers,

2) l’éthique d’une IA déterminant le meilleur protocole de traitement d’un patient souffrant d’un cancer,

3) l’éthique d’une IA intervenant dans un système de trading haute fréquence (HFT),

4) l’éthique d’une IA pilotant une voiture autonome,

5) l’éthique d’une IA embarquée dans un système armé semi-autonome puis autonome

 

Ces cinq cas d’usage de l’IA induisent des séquences fonctionnelles et des temporalités différentes, des marchés différents, des clients différents, des mesures de gains différents, et des mécanismes concurrentiels (relevant de la théorie des jeux) différents.

 

Aussi, vouloir plaquer un canevas universel d’éthique numérique préfabriquée sur ces cinq cas d’usage relève de l’utopie. Dans certains cas, incorporer une contrainte éthique à la plateforme reviendra à la disqualifier immédiatement de la compétition et la rendra inutile et impropre à tout  déploiement. La réflexion éthique doit donc s’effectuer de manière verticale, au cas par cas, en ayant une connaissance la plus exhaustive de l’écosystème sur lequel la plateforme à « rendre éthique » doit être déployée.

 

Le risque dogmatique d’une IA française ou européenne, garantie Full-éthique, a été parfaitement résumé par Antoine Petit, Directeur Général du CNRS, dans son discours lors de la remise du rapport Villani. Selon lui, l’Europe et la France ne doivent pas se laisser enfermer par la Chine et les États-Unis dans le rôle du garant mondial de l’IA éthique au détriment de l’IA Business, de l’IA opérationnelle et stratégique. Sa mise en garde était, dans le contexte de la remise du rapport Villani, d’une très grande pertinence.

 

Avant de fixer unilatéralement des bornes éthiques sur les composantes d’IA françaises, nous devons prendre du recul et nous interroger : L’éthique est-elle calculable dans un ordinateur ?

 

* * *

 

Sauf preuve du contraire, l’intelligence des ordinateurs est aujourd’hui surtout appréhendée par leur capacité de calcul « Seule cette forme d’intelligence est en jeu, alors que l’homme a de nombreuses formes d’intelligence (rationnelle, émotionnelle, artistique, relationnelle…) …

 

L’idée est souvent répandue que ‘’penser, c’est calculer’’. Cela entraîne bien des confusions. l’homme doté d’une intelligence faite pour la vérité et la sagesse, a un autre registre de pensée beaucoup plus varié, vaste et subtil. Notre conscience se situe dans un corps façonné par des milliers d’années d’évolution, avec de belles capacités de raison, de création, de vie psychique et de profondeur spirituelle, qui vont bien au-delà des combinatoires les plus sophistiquées. » (Intelligence artificielle, Conférence des évêques de France, 16 02 2018)

 

La conscience humaine nécessaire à l’éthique va bien au-delà du calcul mathématique.

 

                                                                                              Résumé par Etienne FAUVET , 23 mai 2018,

pour la commission Faits de Société.