• Feite Kraay, Author |
8 minutes de lecture

Mon père, âgé de 87 ans, anime un groupe de discussion hebdomadaire à notre église paroissiale. Ce groupe, appelé « The Globe and Faith » (Le globe et la foi), se réunit le mercredi matin pour parler de questions d’actualité d’un point de vue éthique et moral.Intrigué par mes trois premiers billets sur la cryptographie postquantique, Papa m’a demandé il y a quelques semaines d’être le conférencier invité. J’étais prêt à revêtir ma toge de prophète de malheur pour alerter mon auditoire de l’approche d’une apocalypse postquantique, mais Papa m’a demandé de parler plutôt de l’intelligence artificielle.

J’ai tout de suite accepté, ravi de cette occasion de me rafraîchir la mémoire sur un sujet auquel je m’intéresse par intermittence après avoir suivi des cours à option à l’université. J’ai passé quelques soirées à compiler des documents historiques et contemporains pertinents et j’ai eu une conversation animée et stimulante avec le groupe de Papa. Nous avons conclu que l’IA avait évolué considérablement depuis la fin des années 1980, époque où des étudiants prédiplômés comme moi bricolaient des structures de données, comme des piles, pour tenter de simuler quelque peu une mémoire à court terme. Le groupe n’a pas manqué de cerner de graves problèmes de l’IA dans son état actuel.

À moins d’habiter une île déserte, vous avez sûrement remarqué qu’il a beaucoup été question de l’IA ces derniers mois, suite à la récente apparition de la technologie des agents conversationnels, appelée aussi « IA générative ». Un puissant nouveau produit débarque sur le marché de consommation, le secteur se démène pour réagir et les experts pondent des exagérations délirantes. Certains y voient avec admiration la plus grande révolution depuis la naissance de l’informatique (c’est faux); d’autres la balaient de la main comme un simple outil de frappe continue « gonflé » (c’est aussi faux). Je crois que la vérité se situe quelque part entre les deux et qu’un brin de contexte historique nous apportera la perspective nécessaire pour bien comprendre les avantages et les risques inhérents à la technologie de l’IA, y compris l’IA générative.

Parlons test
Tout d’abord, nous avons toujours eu tendance à anthropomorphiser la technologie en l’assimilant à un modèle humain. Au début du XXe siècle, les histoires de science-fiction étaient peuplées de robots, habituellement bienveillants et serviables, coexistant avec des personnes.Dans les films et les séries télévisées grand public, on voit des humains converser normalement avec des ordinateurs à bord de vaisseaux spatiaux dont l’équipage est composé d’androïdes presque humains. Mais parfois, l’ordinateur se rebelle ou un réseau spatial d’ordinateurs livre une guerre sans merci à ses créateurs humains. Dans notre imaginaire collectif, la technologie nous semble plus ou moins supérieure à nous. Nous savons qu’elle peut être utile et bénéfique, tout en craignant ce qui arriverait si nous en perdions le contrôle.

Cette vision anthropomorphique a orienté en grande partie les premiers travaux philosophiques et mathématiques sur l’IA du milieu à la fin du XXe siècle. Ou plutôt désorienté, car je crois que cette vision a retardé la mise au point et le déploiement de solutions réelles fondées sur l’IA afin de résoudre des problèmes concrets. Voici pourquoi : pendant que l’imaginaire collectif rêvait d’ordinateurs parlants et de robots au comportement humain, le secteur technologique s’occupait de bases de données, de moteurs de recherche et de systèmes capables de gagner une partie d’échecs ou un jeu-questionnaire à la télé. Le décalage entre l’imaginaire et la réalité a entraîné un « hiver de l’IA », où les investissements et l’innovation ont ralenti de façon spectaculaire. Ils n’ont repris que récemment.

L’un des premiers géants de la recherche sur l’IA fut le brillant mathématicien britannique Alan Turing. Dans les années 1950, il étudia les domaines de l’informatique et de l’intelligence artificielle, son apport le plus connu étant le test de Turing. Il s’agit d’un exercice mental visant à déterminer si un ordinateur peut atteindre une véritable intelligence artificielle; autrement dit, être indifférenciable d’un humain.

Le test de Turing se déroule comme suit : un humain et un ordinateur se trouvent dans des pièces distinctes et fermées. Chacun peut communiquer à l’aide d’un appareil télétype avec un interrogateur humain qui ignore dans quelle pièce chacun se trouve. L’interrogateur peut poser toutes les questions de son choix à l’un et à l’autre, puis évaluer les réponses. Enfin, il doit reconnaître correctement l’ordinateur et l’humain. Si l’interrogateur se trompe, ou s’il admet ne pas pouvoir les distinguer, l’ordinateur a réussi le test. Remarquez que pour réussir, un système informatique doit donner des réponses plausibles, mais aussi parfois faillibles. J’estime que malgré l’engouement, rien à ce jour n’a vraiment réussi le test de Turing, pas même la nouvelle IA générative. Les plaisantins sont ravis de souligner la tendance de cette dernière à inventer des réponses à des « colles », mais même cette « capacité » ne fait pas le poids. (Croyez-moi : je l’ai essayée.)

Corrigeons le tir
C’est là que réside le problème. Le terme intelligence artificielle a gonflé les attentes, sans être le moindrement à la hauteur.Qu’ont fait les spécialistes du domaine? Nous avons modifié la terminologie. Au lieu de mettre l’accent sur l’« intelligence artificielle », nous abordons plutôt d’autres notions et d’autres solutions, plus modestes, susceptibles d’apporter de réels avantages matériels. Ce sont les suivantes :

  • Informatique cognitive : On applique des méthodes d’apprentissage humaines à certains domaines de connaissance, comme les soins de santé ou la recherche pharmaceutique.
  • Apprentissage automatique (AA) : On adopte une approche semblable, en utilisant des règles et des algorithmes pour amener l’ordinateur à tirer des inférences à partir d’un bassin important de données non structurées.
  • Traitement du langage naturel (TLN) : Cette extension de l’AA permet à l’ordinateur d’analyser des phrases réelles et de conserver une mémoire conversationnelle afin de rendre la fonction d’interrogation plus conviviale.
  • Apprentissage profond : On pratique l’AA en élargissant la base de données sous-jacente.
  • Grands modèles de langage (GML) : On combine essentiellement l’AA et l’apprentissage profond pour améliorer davantage la communication avec l’utilisateur en la rendant plus intuitive et en étendant l’applicabilité à des domaines de connaissance plus vastes.
  • Automatisation robotisée des processus (ARP) : On combine certains des modèles susmentionnés pour automatiser des tâches routinières comme le traitement des formulaires de demande d’assurance ou de prêt, les demandes adressées au service d’assistance et d’autres utilisations semblables.
  • IA générative : On combine les GML et l’apprentissage profond en un système qui peut mener une conversation en langage naturel en saisissant des indications textuelles et en puisant dans une énorme et croissante base de données non structurées.

Le commun dénominateur : disposer d’une vaste base de données et d’un bon moteur de règles pour contextualiser les données, interpréter les interrogations faites par des humains et générer des réponses en langage naturel. Et, peu importe comment on l’appelle, l’IA, sous une forme limitée, s’est avérée extrêmement utile. Elle aide les médecins à poser des diagnostics et les techniciens de laboratoire à interpréter les images IRM. Elle alimente la technologie de reconnaissance faciale qui accélère les contrôles frontaliers à l’aéroport. Elle accélère et améliore le service à la clientèle et aide les détaillants à recommander des produits ou à réserver leurs stocks. Une fois rebaptisée, l’IA a exercé une incidence sur presque tous les aspects de notre vie. Elle a vraiment parcouru beaucoup de chemin, et l’on peut essentiellement considérer l’IA générative comme une nouvelle étape importante dans une longue suite d’améliorations technologiques.

Mais toutes ces versions de l’IA s’accompagnent aussi de réels problèmes. Par exemple :

  • Les données sous-jacentes et le moteur de règles peuvent introduire un biais. Certains systèmes d’IA en soins de santé ont abaissé les normes de soins à des patients noirs à cause d’un biais inhérent à la détermination des risques du patient. Un algorithme d’IA servant à prévoir les taux de récidive chez les libérés conditionnels s’est aussi avéré biaisé à l’encontre des Noirs.
  • Un logiciel de reconnaissance faciale reconnaît bien les hommes blancs, mais beaucoup moins les femmes ou les personnes autochtones, noires et de couleur (PANDC). Dans un exemple médiatisé, un algorithme de reconnaissance faciale auquel on a montré une photo d’Oprah Winfrey a conclu avec un taux de confiance de 76 % que c’était un homme.
  • Les résultats peuvent s’avérer inexacts. Un système d’IA conçu pour améliorer les images IRM a généré des résultats incorrects qui ont mené à des diagnostics erronés.

Je n’aborderai pas d’autres questions géopolitiques, ni l’impact environnemental des grands centres de données nécessaires à l’IA, quoiqu’il s’agisse aussi de réelles préoccupations. Chose certaine, l’IA générative est sujette aux mêmes problèmes.

Il ne sera pas facile de résoudre les problèmes liés à l’IA. Premièrement, il faut rehausser massivement les données et les règles : un moteur de données plus puissant peut mieux régulariser en partie le biais inhérent et produire des résultats plus exacts. Deuxièmement, nous devons améliorer nos attitudes sociétales : plus nous éliminerons le biais dans nos interactions humaines, moins nous verrons de biais dans les données que nous entrons dans nos systèmes d’IA. Troisièmement, il convient d’établir un cadre réglementaire comportant une certaine surveillance du secteur public. Enfin, la responsabilité incombe en grande partie au secteur technologique.Fait encourageant, un consortium sectoriel commence à se former, qui prône un manifeste de l’IA axé sur six principes de base :

  • Transparence
  • Inclusion
  • Responsabilité
  • Impartialité
  • Fiabilité
  • Sécurité et protection des renseignements personnels

Si nous, du secteur technologique, prenons ces principes à cœur, je crois que l’IA continuera de s’améliorer et de bénéficier à tous. Mais réussira-t-elle un jour le test de Turing? Je ne crois pas qu’elle y arrivera avec la technologie d’aujourd’hui. Je crois qu’il faudra un changement vraiment révolutionnaire, capable de renverser la loi de Moore et de déclencher une approche complètement différente de l’informatique et de la cognition.

L’intelligence artificielle est-elle prête à faire un bond en avant? J’en parlerai dans mon prochain billet.

Publication multilingue

Cette publication est aussi offerte dans les langues suivantes :

Tenez-vous au courant de sujets qui vous intéressent.

Inscrivez-vous aujourd’hui pour avoir accès à du contenu personnalisé en fonction de vos intérêts.