L'intelligence artificielle : exemples de dilemmes éthiques

Dernière mise à jour21 avril 2023

Les biais de l’IA

Entrez « les plus grands personnages historiques » dans votre moteur de recherche préféré et vous verrezprobablement une liste des personnalités masculines les plus connues dans le monde. Combien de femmes comptez-vous ?

Une recherche d'image pour « écolière » révélera très probablement une page remplie de femmes et de filles dans toutes sortes de costumes sexualisés. Étonnamment, si vous tapez « écolier », les résultats montreront surtout de jeunes écoliers ordinaires. Aucun ou très peu d'hommes dans des costumes sexualisés.

Ce sont là des exemples de préjugés de genre dans l'intelligence artificielle,résultant de représentations stéréotypées profondément ancrées dans nos sociétés.

Les systèmes d'intelligence artificielle donnent des résultats biaisés. La technologie des moteurs de recherche n'est pas neutre, car elle traite des données complexes et hiérarchise les résultats en fonction des préférences de l'utilisateur et de sa localisation. Ainsi, un moteur de recherche peut devenir une chambre d'écho qui maintient les préjugés du monde réel et enracine davantage ces préjugés et stéréotypes en ligne.

Comment pouvons-nous garantir des résultats plus équitables et plus pertinents ? Pouvons-nous signaler les résultats de recherche biaisés ? Quelle serait ou devrait être la représentation exacte des femmes dans les résultats de recherche ?

Les préjugés de genre devraient être évités ou du moins minimisés dans le développement des algorithmes, dans les grands ensembles de données utilisés pour leur apprentissage et dans l'utilisation de l'IA pour la prise de décision.

Afin de ne pas reproduire les représentations stéréotypées des femmes dans le domaine numérique, l'UNESCO lutte contre les préjugés de genre dans l'IA par le biais de sa Recommendation sur l'éthique de l'intelligence artificielle, le tout premier instrument normatif mondial en la matière.

Artificial Intelligence: example of biased AI

L'IA à la Cour de justice

The use of AI in judicial systems around the world is increasing, creating more ethical questions to explore. AI could presumably evaluate cases and apply justice in a better, faster, and more efficient way than a judge. 

L'utilisation de l'IA dans les systèmes judiciaires du monde entier augmente, entraînant  de nouvelles questions éthiques à explorer. L'IA pourrait-elle évaluer des affaires judiciaires et appliquer la justice mieux qu’un juge, de façon plus rapide et plus efficace ?

Les techniques d'IA peuvent avoir un impact considérable dans un large éventail de domaines, qui vont des professions juridiques et des systèmes judiciaires au soutien à la prise de décisions des organes publics législatifs et administratifs. Elles peuvent par exemple aider les avocats à améliorer leur efficacité et leur précision dans le domaine du conseil juridique et du contentieux, ce qui serait bénéfique aux avocats, à leurs clients et à l’ensemble de la société. Les logiciels actuellement à la disposition des magistrats peuvent être complétés et améliorés par des outils d'IA qui les aident dans leurs décisions. Cette tendance croissante à utiliser des systèmes autonomes a été appelée l'automatisation de la justice.

Beaucoup affirment que l'IA pourrait contribuer à créer un système judiciaire pénal plus équitable, dans lequel les machines pourraient évaluer et peser les facteurs pertinents mieux que les êtres humains, en tirant parti de leurs rapidités et de leurs importante capacité à analyser des données. L'IA permettrait donc de prendre des décisions en toute connaissance de cause, sans biais ni subjectivité.

Mais les défis éthiques sont nombreux :

  • Le manque de transparence des outils d'IA : les décisions de l'IA ne sont pas toujours intelligibles pour les humains.
  • L'IA n'est pas neutre : les décisions basées sur l'IA sont susceptibles d'être inexactes, de donner lieu à des résultats discriminatoires, ou de contenir des biais.
  • Les pratiques de surveillance pour la collecte de données ainsi que la protection de la vie privée des personnes dans les tribunaux.
  • Les nouvelles préoccupations en matière d'équité et de risque pour les droits humains et d'autres valeurs fondamentales.

Et vous, seriez-vous prêt à être jugé au tribunal par un robot? Et cela, même si nous ne sommes pas sûrs de la manière dont il parvient à ses conclusions ?

C'est pourquoi l'UNESCO a adopté la Recommandation de l'UNESCO sur l'éthique de l'intelligence artificielle, le tout premier instrument normatif mondial en la matière.

Artificial Intelligence in the court of law

L'IA crée de l'art

L'utilisation de l'IA dans le domaine de la culture soulève des réflexions éthiques intéressantes.

En 2016, un tableau de Rembrandt, « the Next Rembrandt » (« le prochain Rembrandt ») a été conçu par un ordinateur et réalisé par une imprimante 3D, 351 ans après la mort du peintre. 

Pour atteindre de telles prouesses technologiques et artistiques, 346 peintures de Rembrandt ont été analysées pixel par pixel et mises à l'échelle par des algorithmes d'apprentissage profond pour créer une base de données unique. Chaque détail de l'identité artistique de Rembrandt a ensuite pu être capturé et servir de base à un algorithme capable de produire un chef-d'œuvre sans précédent. Pour donner vie au tableau, une imprimante 3D a recréé la texture des coups de pinceau et des couches de peinture sur la toile pour un résultat époustouflant qui pourrait tromper n'importe quel expert en art.  

Mais qui peut être désigné comme l'auteur ? La société qui a orchestré le projet, les ingénieurs, l'algorithme, ou... Rembrandt lui-même ?

En 2019, l'entreprise de technologie chinoise Huawei a annoncé qu'un algorithme d'IA avait réussi à compléter les deux derniers mouvements de la Symphonie n°8, la composition inachevée que Franz Schubert avait commencée en 1822, quelques 197 années auparavant. Que faire lorsque l'IA est capable de créer elle-même des œuvres d'art ? Lorsqu’un auteur humain est remplacé par des machines et des algorithmes, peut-on envisager d’attribuer des droits d'auteur ? Un algorithme peut-il et devrait-il être reconnu comme un auteur, et jouir des mêmes droits qu'un artiste ? 

Des œuvres d'art produites par des IA obligent à redéfinir ce qu’est un  « auteur », pour pouvoir rendre justice au travail de création à la fois du « véritable » auteur et des algorithmes et technologies qui ont produit l'œuvre d'art elle-même.

La créativité, comprise comme la capacité de produire des contenus nouveaux et originaux en faisant appel à l'imagination ou à l'invention, joue un rôle central dans les sociétés ouvertes, inclusives et pluralistes. Pour cette raison, l'impact de l'IA sur la créativité humaine mérite un examen attentif. Si l'IA s’avère un puissant outil de création, elle soulève d’importantes questions sur l'avenir de l'art, les droits et la rémunération des artistes et l'intégrité de la chaîne de valeurs de la création. 

Nous devons élaborer de nouveaux cadres pour distinguer la piraterie et le plagiat de l'originalité et de la créativité et reconnaître la valeur du travail créatif humain dans nos interactions avec l'IA. Nous avons besoin de ces cadres pour éviter l'exploitation délibérée du travail et de la créativité des êtres vivants, et garantir une rémunération et une reconnaissance adéquates des artistes, l'intégrité de la chaîne de valeurs culturelles, et la capacité du secteur de la culture à fournir des emplois décents.

C'est pourquoi l'UNESCO a adopté la Recommandation de l'UNESCO sur l'éthique de l'intelligence artificielle, le tout premier instrument normatif mondial en la matière.

Artificial Intelligence creates art

La voiture autonome

Une voiture autonome est un véhicule capable de détecter son environnement et de se déplacer avec peu ou pas d'intervention humaine. Pour que le véhicule se déplace en toute sécurité et comprenne son environnement de conduite, une très grande quantité de données doit être constamment capturée par une myriade de capteurs différents situés dans la voiture. Ces données sont ensuite traitées par le système informatique de conduite autonome du véhicule.

La voiture autonome doit également être considérablement formée afin de comprendre les données qu'elle collecte et de pouvoir prendre la bonne décision dans toutes les situations de circulation imaginables.

Des décisions morales sont prises par tout un chacun au quotidien. Lorsqu'un conducteur choisit de freiner pour éviter de heurter un piéton, il prend la décision morale de faire passer le risque qu’encoure le piéton aux personnes dans la voiture.

Imaginez une voiture autonome avec des freins cassés allant à toute vitesse vers une grand-mère et un enfant. En déviant un peu, un des deux peut être sauvé.

Cette fois, ce n'est pas un conducteur humain qui va prendre la décision, mais l'algorithme de la voiture.

Qui choisiriez-vous, la grand-mère ou l'enfant ? Pensez-vous qu'il n'y a qu'une seule bonne réponse ?

C'est un dilemme éthique typique, qui montre l'importance de l'éthique dans le développement des technologies.

C'est pourquoi l'UNESCO a adopté la Recommandation de l'UNESCO sur l'éthique de l'intelligence artificielle, le tout premier instrument normatif mondial en la matière.

Artificial Intelligence: example of the autonomous car