• Feite Kraay, Author |
11 minutes de lecture

La caricature éditoriale d’une édition récente de mon journal matinal montrait un robot géant et menaçant appelé « Intelligence artificielle » retenant par le dos de son sarrau un scientifique feuilletant frénétiquement un Guide de l’utilisateur. Une autre caricature montrait un homme qui lit les gros titres du journal en déjeunant et qui se demande à haute voix : « Devrais-je m’inquiéter au sujet de tout ce qu’on dit sur l’IA? », ce à quoi son grille-pain répond, avec un sourire sournois : « Mais non, pas du tout! ».

En mars 2023, une lettre ouverte demandant au gouvernement d’imposer un moratoire immédiat de six mois sur la poursuite du développement de l’IA générative a été publiée. Cette demande visait à permettre la mise en œuvre de protocoles de sécurité partagés pour assurer une sécurité « hors de tout doute raisonnable » des systèmes d’IA. Des dizaines de milliers de personnes ont signé la lettre, ce qui a fait les gros titres pendant un certain temps. Puis la poussière est retombée et la demande ne fait plus les manchettes. Même si les intentions des auteurs de la lettre ouverte sont louables, je pense que la mise en place d’un moratoire est impossible en pratique, et que, un peu comme les caricatures, les raisons qu’ils ont invoquées passent à côté des risques réels que pose l’IA.

Sonner l’alerte
Les auteurs s’inquiètent notamment de la place que prendra l’IA par rapport à l’humain, et se demandent si tous les emplois finiront par être automatisés, même ceux qui permettent aux personnes de s’épanouir. Si la question est sans doute légitime, elle ne concerne pas uniquement l’IA. Toutes les technologies sont en compétition avec l’humain, depuis, au minimum, la révolution industrielle. J’ai récemment écouté une webémission dans laquelle l’animateur mentionnait que les travailleurs du savoir, dont plusieurs œuvrent dans le secteur de la technologie, sont maintenant les plus vulnérables face à l’IA. En réponse à cette affirmation, je dirais – peut-être avec désinvolture – que je suppose que c’est maintenant à notre tour d’y passer. Sans minimiser les sentiments des personnes touchées par les perturbations issues des technologies, je rappelle que le marché du travail n’est pas un marché à somme nulle – il y a des gagnants et des perdants. En fait, la technologie finit par devenir complémentaire à l’humain. Celui-ci s’est toujours adapté en se tournant vers des tâches à plus grande valeur, ce qui entraîne une augmentation nette de l’emploi et de l’activité économique. Les travailleurs du savoir et les autres peuvent – et vont – apprendre à utiliser l’IA comme un outil qui les soulagera de certaines tâches, ce qui leur permettra de libérer leur créativité et leur sens de l’innovation pour faire évoluer de nouveaux domaines.

La lettre ouverte mentionne également que l’IA représente un changement profond dans l’histoire de la vie sur Terre, et les auteurs se demandent si ces esprits non humains finiront par nous dépasser en nombre et en intelligence pour nous rendre obsolètes et nous remplacer, et si nous risquons de perdre le contrôle de notre civilisation. Je répondrais qu’il s’agit d’un faux-fuyant. J’ai déjà écrit sur ce que je pense être les limites inhérentes à l’IA dans le cadre de la technologie actuelle, et je demeure convaincu que les scénarios dystopiques qu’on échafaude sont extrêmement improbables. Malgré tous les efforts que nous déployons dans le développement de cette technologie, l’IA est encore loin de l’envergure et de la sophistication nécessaires pour donner vie à ces scénarios, et je ne suis pas sûr qu’elle atteindra de tels sommets un jour. J’ai suggéré qu’une approche basée sur l’informatique quantique pourrait aider, mais je reconnais que c’est hautement spéculatif et théorique. L’informatique quantique est actuellement utilisée pour améliorer certains sous-ensembles précis de l’IA, comme l’apprentissage machine, mais il n’est pas possible de prévoir si ces technologies finiront par être douées de cognition, ni quand.

Un troisième point soulevé dans la lettre concerne le fait que les machines inondent nos canaux d’information de propagande et de faussetés. Ce point constitue un demi-pas dans la bonne direction, car la propagande en ligne est un problème depuis déjà quelques années. Plusieurs personnes et groupes utilisent déjà des technologies sophistiquées pour influencer l’opinion publique; l’IA ne sera qu’un outil de plus à leur disposition. Nos moyens de défense contre la propagande demeurent les mêmes : garder l’esprit ouvert, apprendre à penser de façon critique et vérifier les faits. Par contre, c’est dans les faussetés à propos de l’IA que l’on trouve les problèmes les plus préoccupants. Voyons cela de plus près.

Les véritables préoccupations
Les vrais problèmes liés à l’IA sont plus subtils que ceux décrits dans la lettre ouverte, car ils ne résultent pas directement du fait qu’une personne utilise l’IA comme outil. Ils résident plutôt dans les contre-vérités, les biais et les inexactitudes, conséquences involontaires de la complexité et de la sophistication du fonctionnement actuel des systèmes d’IA. Les développeurs n’intègrent pas délibérément des réponses discriminatoires ou fausses dans leurs systèmes, et pourtant, elles se produisent. Examinons quelques exemples pour comprendre comment, ce qui mettra également en lumière les raisons pour lesquelles il est si difficile de résoudre ces problèmes.

Dans un billet précédent, j’ai parlé de certains systèmes d’IA en soins de santé qui ont abaissé les normes de soins à des patients noirs comparativement avec ceux attribués aux patients blancs. Il s’est finalement avéré que le problème se cachait dans les innombrables données sous-jacentes.En effet, le système attribuait aux patients des cotes de risque – donc des normes de soins – en fonction du coût cumulatif annuel de leurs soins de santé. Cette hypothèse semblait sensée : un coût cumulatif plus élevé devrait signifier qu’il s’agit d’un patient ayant des besoins plus importants en matière de soins de santé. Cependant, le système n’a pas saisi le fait qu’en moyenne, les patients noirs de la même tranche de coûts que les patients blancs étaient considérablement plus malades – les cas d’hypertension artérielle, de diabète et d’autres maladies étant plus nombreux chez ces personnes. Cela sous-entend que, globalement, les patients noirs ont tendance à avoir recours moins fréquemment au système de santé que les patients blancs, probablement en raison de la présence de préjugés systémiques et d’un niveau d’accès inéquitable aux soins à la base.

Considérons les données d’un autre point de vue : un patient noir coûte au système de santé 1 800 $ de moins par année qu’un patient blanc présentant des symptômes similaires. Ainsi, puisque l’algorithme d’IA de l’hôpital se base sur les données relatives au coût, cela sous-entend que le patient noir doit être beaucoup plus malade qu’un patient blanc pour être priorisé dans son traitement. Moins de 18 % des patients ayant reçu des soins supplémentaires étaient noirs; ce nombre aurait été d’au moins 46 % si le système de prise de décisions avait été impartial.

Rétrospectivement, il est facile de comprendre de quelle façon le biais a été induit, mais il est très difficile de le prédire. De plus, il s’agit d’un cas unique et propre au domaine des soins de santé. Les systèmes d’IA d’autres secteurs – finance, assurance, justice pénale – comportent aussi des biais issus de problèmes complètement différents, tapis sous plusieurs couches de données et de règles les interprétant.

Un des problèmes connexes est l’inexactitude. L’IA générative a l’amusante tendance à inventer des réponses de temps à autre, mais l’inexactitude des résultats des algorithmes d’IA peut entraîner de fâcheuses conséquences. Les fonctions d’amélioration d’images en sont un bon exemple. Certes, elles sont utiles pour corriger une photo un peu floue prise avec un téléphone intelligent, mais dans le même billet précédent, j’ai mentionné comment un système d’IA conçu pour améliorer les images obtenues par IRM avait généré des résultats incorrects menant à des diagnostics erronés. Encore une fois, les intentions des développeurs étaient louables. En effet, plus un patient reste longtemps dans un appareil d’IRM, plus l’image qui en résulte est bonne; toutefois, si on réduit la durée de l’examen, on réduit aussi les risques pour le patient et on augmente le nombre de patients pouvant passer un tel examen.

Pour cette raison, des systèmes d’IA ont été conçus pour améliorer la résolution des images d’IRM et ainsi générer une image de haute qualité malgré un délai de numérisation raccourci. On peut apprendre au système d’IA à reconstruire une image à partir de données antérieures, c’est-à-dire à partir d’une vaste collection d’autres images à haute résolution dans lesquelles il peut détecter des schémas qui sont semblables à ceux des sections de l’image à basse résolution. Grâce au filtrage par motif, le système peut créer une nouvelle image haute résolution qui a de bonnes probabilités d’être correcte… mais les motifs sélectionnés par le système peuvent ne pas correspondre à ceux qui se trouvent dans l’image floue originale, ce qui peut masquer un problème sous-jacent ou introduire un problème inexistant. En outre, on ne peut être certain que le médecin qui évalue l’image obtenue par IRM saisira ce genre d’erreur et fera un suivi en cas de résultats douteux. S’il n’est pas possible de développer de meilleures techniques d’amélioration d’image, nous pourrions devoir conclure que les techniques existantes ne sont tout simplement pas fiables dans certaines situations.

L’exemple des véhicules autonomes peut aussi être utilisé pour parler d’inexactitude. Si ces véhicules sont quand même capables de soulager un conducteur humain d’une tâche banale comme conduire à une vitesse constante sur une autoroute, ils ne gèrent pas toujours bien les situations imprévues comme une zone de construction ou l’évitement d’autres embûches pouvant se dresser de façon soudaine. Les chiffres sont éloquents : les véhicules autonomes sont impliqués dans 9,1 accidents par million de milles parcourus, comparativement à 4,1 pour les conducteurs en chair et en os. On constate que l’IA utilisée dans les véhicules autonomes ne peut toujours pas reproduire l’intuition et le temps de réaction des humains. (Par contre, les accidents de véhicules autonomes sont moins graves et entraînent moins de décès, en partie parce qu’ils se produisent à des vitesses moins élevées et parce que l’IA est meilleure que les humains en ce qui concerne le respect des limites de vitesse et du Code de la route.)

La lumière au bout du tunnel
Il n’existe pas de solution unique pour corriger les problèmes issus des biais et des inexactitudes. Tenter de corriger un problème après son apparition nous rappelle l’histoire proverbiale de Hans, le petit Hollandais qui utilise son doigt pour boucher une fuite dans la digue protégeant son village, ce qui a pour effet de causer une autre fuite ailleurs. Rapidement, il se trouve à court de doigts et même d’orteils pour colmater toutes les fuites. La source des problèmes, tout comme les solutions, est propre à chaque système d’IA, voire à chaque utilisation que l’on en fait. Les experts en science des données et les développeurs d’IA devront faire preuve d’un réel engagement afin de réfléchir sérieusement, avec altruisme et surtout beaucoup plus en profondeur à toutes les répercussions possibles de la façon dont ils obtiennent les données sources et qu’ils développent les règles de codage. Ensuite, ils devront tester rigoureusement et systématiquement leur programmation pour éliminer les biais et les inexactitudes avant la mise en production du système.

Dans mon dernier billet, j’ai écrit sur le rôle des « données noires » – des données obsolètes, incomplètes ou inexactes – dans l’empreinte carbone des sociétés. Ajoutons-y les risques liés à l’IA. Lorsque les systèmes d’IA intègrent des données noires dans leur processus d’apprentissage, ils produisent les résultats tendancieux et inexacts dont j’ai parlé précédemment. Dans un article récent sur ce sujet, on suggère des méthodes pour améliorer l’extraction, la transformation et le chargement des données. Parfois, les inexactitudes peuvent être corrigées et dans certains cas, les données manquantes sont interpolées à l’aide de modèles mathématiques, y compris l’application d’une couche supplémentaire d’IA. De plus, les ensembles de données peuvent être triés par curation ou étiquetés de façon à indiquer le niveau de confiance qu’une organisation peut avoir dans leur utilisation. Si les experts en science des données et les analystes font les efforts nécessaires pour utiliser ces techniques et pour les améliorer, nous devrions constater une amélioration notable de l’impartialité et de la précision de nos systèmes d’IA.

Quand on y pense, quel est le but ultime de l’IA, sinon d’accroître l’intelligence humaine? On ne parle pas de la remplacer. Pour y arriver, je reconnais en toute conscience qu’il ne faut pas exclure l’application d’une certaine réglementation du secteur public. Des entreprises technologiques et des ONG collaborent déjà pour établir un ensemble de principes de gouvernance clairs. On y retrouve les éléments suivants :

  • Transparence : Les processus du système doivent être traçables afin qu’on puisse expliquer la façon dont les résultats sont produits. Cela comprend des précisions sur la façon dont le système d’IA apprend, sur les données qui y sont intégrées et sur la génération des recommandations.
  • Responsabilisation : Les exigences opérationnelles doivent être clairement définies et acceptables du point de vue de l’éthique avant le début du développement, et la responsabilité du système d’IA doit être confiée à un humain.
  • Inclusion : Le système doit préserver la dignité de tous sans discriminer personne.
  • Impartialité : Le système ne doit pas être influencé par des préjugés ni en créer, de sorte que les résultats qu’il produit aident les personnes à faire des choix plus équitables.
  • Fiabilité : Nous devons être en mesure d’avoir confiance dans l’exactitude du système.
  • Sécurité et confidentialité : Le système doit être soumis aux normes de sécurité les plus élevées pour le protéger des violations de données et d’autres formes d’intrusion. Il doit également respecter le droit de l’utilisateur à la confidentialité et au contrôle de ses propres données.

Si nous nous efforçons sincèrement de respecter ces principes, il y aura peu à craindre – et le monde en sortira gagnant.

Publication multilingue

Cette publication est aussi offerte dans les langues suivantes :

Tenez-vous au courant de sujets qui vous intéressent.

Inscrivez-vous aujourd’hui pour avoir accès à du contenu personnalisé en fonction de vos intérêts.