Façonner l’intelligence artificielle pour demain : le point de vue des jeunes et leurs recommandations stratégiques


Introduction

Alors que l’intelligence artificielle (IA) transforme rapidement la société, le Conseil jeunesse de la conseillère scientifique en chef du Canada (le Conseil jeunesse) adopte une position critique et engagée à l’égard des grands défis et des occasions uniques que présente l’IA. Contrairement aux progrès technologiques passés – principalement des outils visant à améliorer la productivité humaine – l’IA représente un changement de paradigme susceptible de dépasser les capacités humaines d’une manière telle qu’un examen urgent et réfléchi s’impose. L’évolution rapide de l’IA et sa trajectoire imprévisible nécessitent que l’on adopte une approche bien définie et proactive, qui reconnaisse à la fois son potentiel de transformation et ses risques.

Ce rapport traite d’une question fondamentale : Comment les jeunes scientifiques perçoivent-ils les défis et les occasions que présente l’IA, et comment croient-ils qu’il faut les aborder? En tant que nouveaux chefs de file scientifiques, les membres du Conseil jeunesse sont particulièrement bien placés pour évaluer l’incidence de l’IA sur la recherche, l’éducation et le personnel scientifique. Nous reconnaissons que l’IA ira bien au-delà de l’automatisation : elle modifiera la nature même de la recherche scientifique, de la prise de décision et de la responsabilité éthique.

Le présent rapport examine donc les principaux domaines sur lesquels l’IA devrait avoir les effets les plus marqués pour les étudiants, les chercheurs en début de carrière et les futures générations de scientifiques. Chaque section examine les aspects cruciaux du rôle de l’IA en science et souligne l’apport essentiel des jeunes pour intégrer l’IA dans la recherche et l’innovation de manière responsable, équitable et tournée vers l’avenir.

En fin de compte, le Conseil jeunesse transmet un message clé : l’IA n’est pas qu’une autre révolution technologique. C’est une innovation qui exige de nouveaux cadres, de nouvelles façons de penser et de nouvelles formes de leadership scientifique. Par l’intermédiaire de ce rapport, nous appelons la communauté scientifique, les décideurs politiques et les dirigeants de l’industrie à prendre en compte l’avis des jeunes lorsqu’il s’agira de penser l’avenir de l’IA.

haut de la page


Appels à l’action

Cette section souligne l’importance d’écouter ce que les jeunes ont à dire sur la manière de façonner l’avenir de l’IA. Les jeunes forment la prochaine génération de leaders, d’innovateurs et de parties prenantes et ils seront directement touchés par les technologies qui sont développées aujourd’hui. Il est donc essentiel que leurs points de vue soient activement pris en compte dans les processus décisionnels. Par l’intermédiaire de ce rapport, le Conseil jeunesse demande une participation accrue des jeunes aux discussions et à la prise de décision en matière de politiques sur l’IA, afin que leur voix soit non seulement entendue, mais aussi valorisée. Parallèlement, nous attirons l’attention sur plusieurs besoins cruciaux qui requièrent une attention immédiate : combler le fossé numérique, assurer un accès équitable aux technologies d’IA et intégrer les principes d’égalité, de diversité et d’inclusion (EDI) dans les politiques sur l’IA. Nous insistons également sur la nécessité de renforcer la protection de la vie privée, d’établir des lignes directrices éthiques pour l’utilisation des données de sources ouvertes et d’accorder la priorité à la sécurité de l’IA sur la scène mondiale. Ces appels visent à faire en sorte que le développement de l’IA soit transparent, inclusif et conforme aux valeurs d’une société diversifiée, les jeunes étant les premiers à plaider en faveur d’un écosystème de l’IA équitable et éthique.

1. Combler le fossé numérique et intégrer les principes d’EDI

  • Donner la priorité aux initiatives qui assurent un accès équitable pour tous aux technologies d’IA, en particulier dans les régions rurales et mal desservies, où l’accès aux télécommunications et aux outils d’IA peut être limité.
  • Veiller à ce que les principes d’EDI soient intégrés dans le processus d’élaboration des politiques sur l’IA afin que soient représentés différents points de vue et besoins, y compris ceux des jeunes.
  • Améliorer l’accessibilité pour les personnes en situation de handicap (p. ex. reconnaissance vocale, technologies d’assistance).

2. Faire participer les jeunes à la prise de décisions

  • Mettre en place des mécanismes officiels de participation directe et systématique des jeunes aux discussions et aux décisions relatives aux politiques sur l’IA.
  • Veiller à ce que la littératie en IA fasse partie de l’éducation de la prochaine génération d’étudiants et de jeunes scientifiques canadiens.

3. Établir des règles éthiques pour l’utilisation d’ensembles de données publiques et de sources ouvertes aux fins d’entraînement de l’IA

  • Élaborer et mettre en œuvre des règles claires pour l’utilisation éthique des données publiques et de sources ouvertes dans l’entraînement des modèles d’IA (grands modèles de langage, ou GML) afin d’assurer la transparence et la responsabilisation. Par exemple, un système d’octroi de licences empêchant l’utilisation du texte des logiciels dans les ensembles de données pourrait être mis sur pied.

4. Renforcer les mesures de protection de la vie privée

  • Faire la promotion de lois sur la protection de la vie privée plus précises qui protègent les données des individus dans le cadre du développement de l’IA et des technologies d’apprentissage automatique.

5. Établir un cadre éthique qui guidera le développement et le déploiement de l’IA à court et à long terme

  • Mettre en place un cadre éthique complet pour guider le développement et le déploiement de l’IA, en veillant à ce qu’il corresponde aux valeurs sociétales. Il faudrait que ce cadre s’attaque à la question délicate de savoir comment vivre dans un monde où les capacités de l’IA approchent, voire dépassent, celles de l’être humain.

6. Mieux informer le public au sujet de l’IA

  • Mettre en œuvre des programmes éducatifs pour informer correctement la population sur les technologies d’IA, sur leurs avantages et sur leurs répercussions pour l’avenir ainsi que sur la manière de mieux protéger ses données et sa vie privée.

7. Protéger le consentement à la collecte de données

  • Appliquer la réglementation qui empêche les entreprises de recueillir des données personnelles sans le consentement éclairé des individus.

8. Donner la priorité à la sécurité de l’IA dans les discussions avec les dirigeants internationaux

  • Faire de la sécurité de l’IA un élément primordial pour le Canada dans les discussions du G7 et promouvoir des normes mondiales pour le développement d’une IA sûre.

9. Élaborer des lignes directrices sur l’utilisation de l’IA dans le milieu universitaire

  • Encourager les universités à élaborer et à diffuser des directives et des lignes directrices claires concernant l’utilisation éthique de l’IA par les étudiants.

haut de la page


Contexte actuel de l’IA

Selon un document d’orientation du gouvernement britannique publié en 2023, qui s’intitule A pro-innovation approach to AI regulation, les systèmes d’IA sont des produits et services « adaptables » et « autonomes » (Gajjar, 2024). Ils peuvent effectuer des tâches nécessitant une intelligence de type humain, telles que la compréhension du langage, la reconnaissance de modèles et l’apprentissage à partir de données. Les algorithmes d’IA sont utilisés pour traiter de l’information, résoudre des problèmes et ils s’adaptent pour accomplir ces tâches. Des termes clés du domaine (apprentissage automatique, apprentissage profond, GML et vision par ordinateur) sont définis dans le glossaire de l’IA du Parlement britannique (Gajjar, 2024).

Les capacités de l’IA sont souvent classées sur un spectre qui va de l’IA étroite à l’IA générale. Les utilisations que nous voyons aujourd’hui relèvent de l’IA étroite : les systèmes sont conçus pour effectuer des tâches précises, bien que complexes. Ainsi, un modèle d’IA entraîné pour la reconnaissance faciale n’est pas nécessairement adapté à la découverte de médicaments. À l’autre bout du spectre, l’intelligence artificielle générale est une forme théorique d’IA capable de comprendre, d’apprendre et d’effectuer n’importe quelle tâche cognitive dans divers domaines peu familiers – elle pourrait même tenir un raisonnement abstrait – à un niveau semblable à celui de l’humain. La qualité des résultats et le caractère général des conditions d’entrée à partir desquelles le modèle peut produire des résultats précis peuvent être utilisés pour quantifier le niveau d’intelligence du modèle d’IA.

Étapes importantes

Pour mieux comprendre les répercussions de l’IA et les enjeux qu’elle soulève, il est important de connaître les innovations qui ont fait en sorte qu’elle est omniprésente aujourd’hui. Dès les débuts de l’informatique, les scientifiques étaient intrigués par le potentiel des machines à défier le raisonnement humain.

  • 1949 : Alan Turing envisage la possibilité que les machines puissent tenir un raisonnement humain et pave la voie à la conceptualisation de l’IA avec le test de Turing.
  • 1956 : John McCarthy introduit le terme « intelligence artificielle », ce qui marque pour beaucoup la naissance de l’IA en tant que domaine d’étude officiel. Au cours des années suivantes, des recherches capitales permettent de jeter les bases des réseaux neuronaux modernes, notamment la création par Frank Rosenblatt du modèle Perceptron basé sur le cerveau humain (modélisation de réseaux de neurones artificiels selon des modèles biologiques) (Rosenblatt, 1957), et les travaux de Geoffrey Hinton sur l’entraînement des réseaux de neurones artificiels par rétropropagation (modélisation computationnelle de l’échange de signaux entre les neurones) (Rumelhart, Hinton et Williams, 1986).
  • 1997 : L’ordinateur Deep Blue d’IBM vainc le champion du monde d’échecs de l’époque, Garry Kasparov, dans un tournoi en six parties. Kasparov en remporte une, trois sont jugées nulles et Deep Blue en gagne deux. Le succès de Deep Blue marque une étape clé dans l’évolution de l’IA en montrant qu’il est possible pour un ordinateur de rivaliser avec le raisonnement humain dans le cadre d’un jeu.
  • Début du 21e siècle : La capacité de calcul augmente et des techniques novatrices d’apprentissage automatique voient le jour. Les algorithmes d’arbres de décision, les réseaux neuronaux et les machines à vecteurs de support posent les fondations de systèmes d’IA plus sophistiqués, dont l’utilité et les capacités ont été accrues grâce à un accès amélioré aux mégadonnées. La combinaison de grands ensembles de données (mégadonnées) et de ressources informatiques plus puissantes permet la mise au point de techniques d’apprentissage profond. À l’époque, l’Institut canadien de recherche avancée (CIFAR) est l’un des premiers et des plus importants bailleurs de fonds gouvernementaux de la recherche sur l’IA.
  • 2004 : Le programme de calcul neuronal et de perception adaptative du CIFAR permet de soutenir des pionniers de la recherche, notamment Geoffrey Hinton, Yoshua Bengio et Yann LeCun. Tous trois remportent le prix Turing en 2018, et Hinton reçoit également le prix Nobel de physique en 2024 « pour les découvertes et inventions fondamentales qui permettent l’apprentissage profond grâce aux réseaux de neurones artificiels » (Prix Nobel, 2024).
  • 2012 : Le scientifique canadien Geoffrey Hinton et son laboratoire de l’Université de Toronto publient AlexNet, le premier modèle d’apprentissage profond capable de fournir des résultats proches de ceux de l’humain en matière de reconnaissance d’image, souvent appelée « vision par ordinateur » (Krizhevsky et al., 2012). Le succès remporté par la recherche sur la vision par ordinateur met en évidence la capacité de l’IA à tirer des conclusions et un sens à partir de données volumineuses et utiles (Khan et al., 2021). Cette découverte est appliquée dans le secteur pharmaceutique, où de telles techniques d’apprentissage non supervisé permettent de trouver de nouveaux médicaments (Vamathevan et al., 2019).
  • 2015 : AlphaGo de DeepMind est le premier système d’IA à vaincre des humains experts au jeu de go (Silver et al., 2016). Ce modèle a été entraîné à la fois au moyen de grands volumes de données tirées de parties jouées par des humains (à l’aide de techniques d’apprentissage supervisé) et de données tirées de parties jouées contre lui-même.
  • 2017 : La version Master d’AlphaGo bat le meilleur joueur du monde trois fois de suite avant que les développeurs ne retirent le programme. Le succès d’AlphaGo est notamment attribuable à des algorithmes innovants d’apprentissage par renforcement, une technique d’apprentissage automatique utilisée pour entraîner des agents autonomes au moyen d’interactions avec leur environnement et de rétroaction sous forme de récompenses ou de pénalités. L’apprentissage par renforcement a été mis au point par le scientifique canadien Richard Sutton à l’Université de l’Alberta et a depuis gagné en importance grâce à d’autres applications d’IA, comme le développement de systèmes autonomes (véhicules, robotique), l’optimisation de la prise de décision en matière de soins de santé et d’autres problèmes de gestion des ressources (Kiumarsi et al., 2017).
  • 2022 : OpenAI lance ChatGPT et ouvre l’ère moderne des GML. Ces percées sont rendues possibles par d’immenses réseaux neuronaux appelés « transformateurs » (Vaswani et al., 2017; Brown et al., 2020) entraînés sur des données prises à l’échelle d’Internet (c.-à-d. des exaoctets de données provenant d’Internet).
  • 2024 : Sora, publié par OpenAI, inaugure une nouvelle ère de l’IA générative en permettant la génération de vidéos réalistes en haute résolution à partir d’invites textuelles. Cette avancée montre à quel point l’IA générative accélère la convergence entre le texte, les images et la vidéo, ce qui ouvre de nouvelles possibilités et soulève des questions éthiques liées à la production média, à la mésinformation et à la créativité numérique.

Depuis les premières théories élaborées dans les années 1950 jusqu’à la recherche universitaire spécialisée dans les années 2000, l’IA a beaucoup évolué et se trouve maintenant entre les mains de millions de personnes dans le monde chaque jour. Elle présente autant de promesses que de défis et les institutions et les chercheurs du pays continuent donc de mener des développements dans ce domaine par l’intermédiaire de la Stratégie pancanadienne en matière d’IA. Des organisations comme le CIFAR, l’Institut canadien de la sécurité de l’intelligence artificielle et des instituts de recherche comme Mila, l’Alberta Machine Intelligence Institute (Amii) et l’Institut Vecteur sont des partenaires de cette stratégie.

haut de la page


Les avantages de l’IA pour les jeunes du Canada : répercussions dans les domaines de la santé et de l’éducation

Le Conseil jeunesse compte 16 membres de divers domaines scientifiques, dont la moitié travaille dans le secteur des soins de santé. Tous et toutes étudient au niveau collégial ou universitaire ou ont récemment obtenu leur diplôme et ont une expérience concrète de l’effet transformateur que peut avoir l’IA dans les domaines des soins de santé et de l’éducation. Dans cette section, nous décrivons les avantages de l’IA dans ces deux domaines clés pour les jeunes Canadiens et Canadiennes ainsi que pour les générations futures.

Soins de santé

La capacité de l’IA à traiter de vastes ensembles de données, à déceler des tendances et à prédire des résultats révolutionne des aspects clés des soins de santé – diagnostic, traitement et gestion des soins thérapeutiques, entre autres – tout en servant de modèle pour améliorer la productivité et l’efficacité dans d’autres secteurs. De nombreux membres du Conseil jeunesse se spécialisent dans des domaines scientifiques liés à la santé, tels que la médecine, la microbiologie, la santé publique et l’épidémiologie. Nous avons personnellement observé la rapidité avec laquelle l’IA a été adoptée dans les sciences de la santé. Comme les jeunes ont accès à des quantités sans précédent de données sur la santé, ils sont particulièrement bien placés pour tirer parti des informations fournies par l’IA afin d’offrir des soins de santé plus personnalisés et centrés sur le patient. En outre, compte tenu des pressions grandissantes sur le système de santé et de l’accélération du vieillissement de la population, les gains d’efficacité réalisés grâce à l’IA seront essentiels pour assurer des soins efficaces de façon durable.

L’intégration de l’IA dans les systèmes de soins de santé présente de nombreux avantages, tant pour les soins que pour les systèmes de prestation et le grand public. À l’heure où le système de santé canadien est confronté à des défis (augmentation des coûts, ressources limitées et vieillissement de la population), l’IA peut répondre à certains besoins urgents. Le Canada consacre plus de 11 % de son produit intérieur brut (PIB) aux soins de santé (Institut canadien d’information sur la santé, 2022), et l’on s’attend à ce que ce pourcentage augmente. Capable d’optimiser l’affectation des ressources, d’améliorer l’efficacité opérationnelle et de réduire les interventions inutiles, l’IA offre une occasion unique de réduire les coûts tout en améliorant la qualité des soins. Dans le contexte de la modélisation prédictive en médecine et en santé publique, les applications de l’IA peuvent servir à prédire des problèmes de santé, les taux de survie des patients et les taux de réadmission ainsi que la gestion des soins de longue durée, à améliorer les soins de fin de vie et les prévisions de mortalité ainsi qu’à automatiser les systèmes de décision clinique (Yang, 2022; Noorbakhsh-Sabet et al., 2019). Il est alors possible d’améliorer grandement la compréhension collective de la trajectoire des maladies et de la gestion des soins afin de soutenir des modalités de traitement mieux adaptées, tout en s’attaquant aux goulots d’étranglement dans la prestation et l’administration des soins.

On sait déjà que l’IA a le potentiel de dépasser l’humain pour certaines tâches médicales. Elle peut par exemple diagnostiquer des maladies, prévoir des résultats et analyser de vastes quantités de données, souvent plus rapidement et plus précisément que les fournisseurs individuels de soins de santé (Lehharo, 2024). En effet, la recherche a montré que l’IA peut égaler ou dépasser le rendement d’experts humains dans diverses tâches d’analyse d’images médicales, comme le dépistage du cancer du sein (McKinney et al., 2020; Hickman et al., 2021). Bien que l’IA puisse surpasser les fournisseurs individuels de soins de santé dans certaines tâches, son rôle premier n’est pas de les remplacer, mais de servir d’outil de soutien, améliorant la prise de décision, simplifiant les traitements et permettant aux professionnels de la santé de donner des soins plus efficaces centrés sur le patient. En améliorant la précision des diagnostics et en facilitant la détection précoce des maladies, l’IA peut réduire la nécessité de traitements coûteux ou de soins d’urgence, ce qui a une influence directe sur les coûts globaux des soins de santé (Wang, 2024). L’IA peut également jouer un rôle essentiel dans l’amélioration de la gestion des maladies chroniques, un facteur important des dépenses en santé, en prédisant et en gérant les conditions plus efficacement (Ramezani et al., 2023). Enfin, l’IA peut être appliquée à des activités de surveillance, par exemple par des organisations de santé publique qui surveillent, suivent et évaluent les tendances et modèles des maladies, ce qui permet une détection précoce et des interventions ciblées (Shaban-Nejad et al., 2022).

L’IA peut aussi simplifier les processus administratifs et réduire considérablement le temps que consacrent les cliniciens aux tâches courantes, diminuant les risques d’épuisement professionnel et améliorant la productivité. En fait, la mise en œuvre précoce de l’IA dans le système de santé canadien a donné des résultats prometteurs pour ce qui est de la réduction de la charge de travail administratif des praticiens. En Ontario, les logiciels de transcription numérique basés sur l’IA, les scribes, ont réduit le temps passé à remplir de la paperasse de 70 % à 90 % et permis aux médecins de famille de gagner en moyenne de trois à quatre heures par semaine (OntarioMD, 2024). Les médecins, qui consacrent généralement une dizaine d’heures par semaine à des tâches administratives, pourraient grandement profiter des outils d’IA, qui leur permettraient de se concentrer davantage sur les soins aux patients et allégeraient leur charge de travail. Globalement, ces gains d’efficacité suggèrent qu’une adoption plus large de l’IA pourrait beaucoup améliorer la productivité dans l’ensemble du système de santé canadien et peut-être atténuer la pénurie de professionnels de la santé au Canada (Université Queen's, 2024).

Pour le grand public, l’intégration de l’IA dans les soins de santé offre la possibilité d’accélérer considérablement l’accès aux soins et d’améliorer les résultats pour les patients, pour un système de soins de santé plus équitable. Les outils alimentés par l’IA qui donnent la priorité aux patients à haut risque, simplifient les demandes de consultation et optimisent la prestation des soins pourraient grandement bénéficier aux populations mal desservies, y compris celles des régions rurales et éloignées du Canada, où l’accès aux soins de santé est souvent limité. De plus, en permettant aux gens d’accéder à de l’information et à des recommandations personnalisées, l’IA peut leur donner les moyens de gérer leur santé plus efficacement et d’accroître leurs connaissances scientifiques. Par exemple, ChatGPT a été utilisé pour réécrire du matériel pédagogique sur les problèmes de tête et de cou en oto-rhino-laryngologie pédiatrique à un niveau de lecture de 5e année afin qu’il soit plus facile à lire et à comprendre pour les patients. Chez des adultes atteints d’arthrose du genou, une aide à la décision basée sur l’IA a été utilisée pour informer les patients sur les soins et analyser des solutions de rechange afin de fournir des soins personnalisés et de meilleurs résultats.

Les plateformes d’IA peuvent avoir recours à des robots conversationnels (c.-à-d. un programme informatique conçu pour simuler une conversation avec un humain), à des assistants virtuels ou à des outils interactifs qui fournissent du matériel éducatif, des rappels pour la prise de médicaments, des conseils d’autosoins et des recommandations sur le mode de vie adaptées aux besoins et aux préférences des patients. Par exemple, les plateformes de surveillance médicale à distance basées sur l’IA peuvent mobiliser et éduquer les patients en leur fournissant de l’information, de la rétroaction et des recommandations personnalisées en fonction de leurs données de santé individuelles (David, 2024).

L’utilisation accrue de dispositifs portables et d’appareils de surveillance produit de grandes quantités de données en temps réel qui pourraient contribuer à la détection précoce des maladies et à une gestion plus proactive des affections chroniques (Babu et al., 2023). L’outil de surveillance cardiaque de la montre Apple Watch a reçu l’approbation de la Food and Drug Administration (FDA) des États-Unis à titre d’outil de développement d’appareil médical (Medical Device Development Tool) (FDA, 2023). Cette désignation illustre le potentiel des dispositifs portables à générer des données de santé exploitables, que les patients peuvent utiliser pour prendre soin de leur santé et qui peuvent aussi servir dans le cadre d’essais cliniques afin de favoriser les diagnostics précoces. À ce titre, l’IA a le potentiel de réduire les disparités en matière de santé en favorisant la littératie en santé et en rendant les soins plus accessibles, plus personnalisés et plus efficaces.

Éducation

Comme le Conseil jeunesse est composé d’étudiants et d’étudiantes de divers niveaux, du collège jusqu’au postdoctorat, ainsi que de chercheuses et de chercheurs en début de carrière qui ont obtenu leur diplôme au cours des cinq dernières années, nous savons que l’IA s’est rapidement et facilement taillé une place dans les salles de classe et les séances d’étude. Elle a considérablement réduit le temps consacré aux travaux et aux devoirs. Certains étudiants se servent de l’IA comme d’un puissant moteur de recherche qui fournit des réponses instantanées, tandis que d’autres en ont fait leur « tuteur personnalisé », disponible en tout temps. Peu importe comment elle est utilisée, l’IA transforme la façon dont les étudiants apprennent et ce sera sans aucun doute le cas aussi pour les générations futures. Son influence est déjà évidente parmi nous, les membres du Conseil jeunesse, à mesure que nous progressons dans notre parcours professionnel.

Les outils basés sur l’IA peuvent adapter les plans de cours au style et à la vitesse d’apprentissage de chacun, faisant en sorte que les étudiants reçoivent le soutien dont ils ont besoin pour réussir. La rétroaction instantanée et les ressources ciblées aident les apprenants à surmonter les difficultés plus efficacement, rendant les études plus attrayantes et plus accessibles à divers groupes. L’IA peut fournir aux élèves en situation de handicap ou éprouvant des difficultés d’apprentissage des solutions sur mesure qui répondent à leurs besoins uniques, ce qui contribue à une éducation plus équitable. Bien que les avantages de l’utilisation de l’IA en éducation soient considérables, il est essentiel que l’enseignement humain reste au cœur de l’éducation et qu’il veille à ce que les étudiants acquièrent les compétences globales nécessaires à une vie équilibrée (Ali et al., 2024).

L’utilisation de l’IA en enseignement supérieur donne lieu à des controverses : ses partisans vantent l’amélioration de la productivité de l’apprentissage et l’automatisation des tâches, tandis que ses détracteurs hésitent à l’adopter, s’inquiétant de la dépendance excessive à l’égard de la technologie ainsi que de la perte de la pensée critique et des aptitudes à résoudre des problèmes chez les apprenants. Puisque l’IA se taille une place de choix dans la prestation des soins de santé, les étudiants des programmes de médecine, de soins infirmiers, de sciences infirmières ou paramédicaux devront être formés à travailler aux côtés de systèmes d’IA et acquérir les compétences techniques et la capacité d’interpréter et d’exploiter les observations issues de l’IA dans la pratique clinique. Déjà, les outils d’IA (en particulier les GML comme ChatGPT) transforment la formation médicale en améliorant le contenu pédagogique, en créant des scénarios cliniques réalistes, en aidant à la rédaction médicale et en offrant des expériences d’apprentissage personnalisées (HMS, 2023). Ces approches sont toutefois limitées par des scores médians de 5,5 pour ce qui est de l’exactitude de l’ensemble du contenu médical spécialisé, et les apprenants sont invités à user de prudence lorsqu’ils ont recours aux robots conversationnels. En améliorant également l’accessibilité, la personnalisation et la simulation dans l’enseignement de la médecine, l’IA bonifie la préparation des étudiants à la pratique médicale dans le monde réel.

haut de la page


Les défis de l’IA

Alors que l’IA continue de façonner l’avenir, son adoption pose des défis uniques auxquels il faut nous attaquer pour atténuer les risques, préserver les principes éthiques et assurer une approche équilibrée de l’innovation. Dans cette section, nous nous penchons sur quatre domaines clés qui, selon nous, seront les plus touchés par l’IA. Nous croyons que l’adoption et l’utilisation de l’IA dans ces domaines devront faire l’objet de discussions approfondies. Ces défis dépassent les domaines scientifiques dans lesquels les membres du Conseil jeunesse se spécialisent, car l’IA étend son influence à toutes les sphères du monde dans lequel les générations futures grandiront.

Défis géopolitiques

Pour les jeunes du Canada, les tensions géopolitiques entourant l’IA ne sont pas que des gros titres : elles nous touchent personnellement et modèlent les possibilités, la stabilité et le contexte éthique dont nous héritons alors que nous nous apprêtons à entrer sur le marché du travail. Même si les innovations en matière d’IA dans un pays peuvent, en théorie, contribuer au progrès mondial, dans la pratique, les rivalités géopolitiques restreignent souvent la mise en commun des technologies, la mobilité des talents et l’accès à des infrastructures d’IA essentielles. La course mondiale pour dominer l’IA, menée par les États-Unis et la Chine, a donc des implications immédiates et à long terme (Jones, 2025), car les pays préfèrent de plus en plus protéger la sécurité nationale et leurs intérêts économiques que collaborer ouvertement. Alors que le Canada cherche à affirmer son rôle dans ce paysage en évolution rapide, nous devons trouver l’équilibre entre la collaboration avec des alliés puissants et la protection de notre souveraineté technologique.

La monopolisation des technologies de l’IA par une poignée de pays soulève des inquiétudes quant à l’équité internationale et à l’accès à l’innovation. Même si le code source de nombreuses technologies d’IA est ouvert, la monopolisation reste possible par le contrôle d’infrastructures clés, de vastes ensembles de données et de la puissance de calcul avancée, des ressources concentrées au sein de quelques nations et entreprises dominantes. La capacité à développer et à déployer une IA de pointe à grande échelle dépend de l’accès non seulement aux logiciels, mais aussi au calcul de haute performance, aux puces spécialisées (comme celles de Nvidia et de Taiwan Semiconductor Manufacturing Company) et à d’énormes ensembles de données exclusives, qui restent hors de portée pour bien des pays. Cette concentration des capacités en matière d’IA risque de laisser sur la touche d’autres chefs de file mondiaux comme le Canada, ce qui limiterait notre rôle dans l’élaboration de la gouvernance de l’IA et rendrait les jeunes du pays dépendants d’outils et d’infrastructures contrôlés par des pays étrangers. Pour le Canada, il s’agit d’un équilibre particulièrement précaire, car notre pays entretient des liens étroits avec les États-Unis tout en maintenant des relations commerciales avec d’autres puissances mondiales. Les jeunes Canadiens et Canadiennes veulent que notre pays demeure un chef de file du développement éthique de l’IA et qu’il continue à promouvoir l’équité sur la scène mondiale tout en protégeant notre indépendance économique.

La relation entre le Canada et les États-Unis, bien qu’elle soit un atout, présente également des défis uniques pour notre génération. La domination américaine en matière d’innovation technologique – soutenue par les géants de Silicon Valley – offre aux jeunes du Canada des possibilités de collaboration, d’investissement et de contribution à des recherches de pointe. Cependant, cette proximité crée aussi des risques de dépendance. Dans un rapport produit par Deloitte Canada en 2023 pour le compte du CIFAR, d’Amii, de Mila et de l’Institut Vecteur, on indique que si le Canada a franchi des étapes importantes en matière de concentration de talents en IA, de publications de recherche et d’investissements en capital de risque, des mesures plus décisives sont nécessaires pour assurer l’intégration de l’IA dans l’ensemble de l’économie. Le rapport souligne que le leadership en matière d’IA pourrait passer à des pays qui investissent de manière plus audacieuse et qui exploitent son potentiel (Deloitte Canada, 2023). Si les talents et les entreprises en démarrage du Canada continuent de s’installer chez nos voisins du Sud en quête de salaires plus élevés et de ressources accrues, notre écosystème de l’IA pourrait en pâtir (Koetsier, 2024). Cet exode des talents est particulièrement ressenti par les jeunes du pays qui entrent sur le marché du travail en science, en technologie ou en innovation, où leur contribution est souvent sous-estimée comparativement aux autres pays.

Alors que les politiques d’immigration du Canada ont été conçues pour attirer les talents internationaux, le pays doit redoubler d’efforts pour retenir les experts qui ont été formés ici en leur offrant des occasions de financement et des possibilités de carrière concurrentielles (Singer, 2024). L’essor du télétravail a aussi créé de nouvelles avenues en permettant aux jeunes Canadiens et Canadiennes qui travaillent dans des domaines liés à l’IA d’accéder à des salaires dignes de Silicon Valley tout en restant au pays. Certains risques liés à la migration géographique des talents sont ainsi atténués, mais il n’en reste pas moins que la situation soulève des préoccupations quant à l’investissement à long terme dans l’écosystème technologique du Canada. Si les travailleurs canadiens contribuent à des entreprises étrangères sans réinvestir leur expertise dans des entreprises, des instituts de recherche ou de jeunes pousses d’ici, notre capacité à construire une industrie de l’IA autosuffisante pourrait être compromise. De plus, les politiques américaines telles que les contrôles à l’exportation des technologies d’IA (département du Commerce des États-Unis, 2025) pourraient indirectement restreindre la capacité du Canada à s’engager sur le marché mondial de l’IA. Ces restrictions semblent destinées à faire face à la concurrence des grands acteurs mondiaux et pourraient influer sur l’accès du Canada à des technologies clés. En tant que jeunes, nous craignons que le Canada soit pris dans des conflits commerciaux mondiaux, particulièrement au moment où nous cherchons des carrières intéressantes dans des secteurs émergents.

La position proactive du Canada sur le développement d’une IA éthique et des initiatives comme la Feuille de route pour un partenariat renouvelé États-Unis–Canada (cabinet du premier ministre du Canada, 2021) offrent de l’espoir. Toutefois, les jeunes Canadiens et Canadiennes veulent plus que des accords généraux; il nous faut des investissements concrets dans l’innovation locale, du financement concurrentiel pour la recherche et des idées pour retenir les talents nationaux. Les initiatives menées par le gouvernement du Canada, comme la Stratégie pancanadienne en matière d’IA (208 millions de dollars sur 10 ans), le Fonds d’accès à une capacité de calcul pour l’IA (jusqu’à 300 millions de dollars pour aider les petites et moyennes entreprises [PME] à accéder à des ressources de calcul de haute performance) et le programme Assistance IA (100 millions de dollars par l’intermédiaire du Programme d’aide à la recherche industrielle du Conseil national de recherches pour aider les PME à intégrer les technologies d’IA) sont des pas dans la bonne direction. Cependant, pour que notre génération puisse réussir dans une économie compétitive et mondialisée axée sur l’IA, il faut continuer à investir et à apporter un soutien stratégique aux nouveaux chefs de file de l’IA.

Les applications militaires de l’IA ajoutent un niveau de complexité supplémentaire. Dans le cadre du Commandement de la défense aérospatiale de l’Amérique du Nord (NORAD), le Canada et les États-Unis travaillent à moderniser leurs systèmes de défense au moyen de technologies d’IA, y compris la détection des menaces (ministère de la Défense nationale, 2024). Bien que cette collaboration vise à renforcer la sécurité nationale, elle soulève de profondes questions éthiques pour notre génération.

Les jeunes Canadiens et Canadiennes sont très préoccupés par les répercussions des applications militaires de l’IA. Les armes autonomes, la réduction de la surveillance humaine et l’escalade accidentelle des conflits vont à l’encontre de nos valeurs de paix et de dignité humaine (Robins-Early, 2024; Morgan et al., 2020). En tant que citoyens du monde, nous voulons que le Canada se fasse le champion d’accords internationaux régissant l’utilisation éthique de l’IA dans le domaine de la défense, en assurant la transparence, la responsabilité et la surveillance humaine.

Initiative du Conseil jeunesse : Élaboration d’une politique mondiale sur les systèmes d’armes autonomes

Les membres du Conseil jeunesse de la conseillère scientifique en chef ont récemment soumis un exposé de politique à Idées7, le groupe de mobilisation officiel du Groupe des Sept (G7), dans lequel ils préconisent un cadre structuré pour les systèmes d’armes autonomes. Leur proposition, intitulée A Coordinated Tier System for Autonomous Weapon Systems, décrit un système à cinq niveaux qui fait la distinction entre le contrôle humain et la prise de décision par la machine et vise à assurer une utilisation responsable de l’IA en contexte militaire.

Rédigé par Harsh Sharma, Kevin Kasa, Chloé Currie, Julia Messina-Pacheco, Louis-Alexandre Fournier, Matthew Taylor et Pahul Singh, l’exposé souligne l’importance de la collaboration internationale pour atténuer les risques et guider le développement éthique des systèmes d’armes autonomes. S’il est sélectionné, l’exposé sera publié sur le site Web d’Idées7 Canada et pourrait influencer la rédaction du communiqué final du G7.

Face aux tensions géopolitiques grandissantes et aux progrès rapides de l’IA, les membres du Conseil jeunesse insistent sur le besoin urgent d’instaurer une gouvernance éthique des armes autonomes afin d’assurer la stabilité mondiale et le respect de principes humanitaires.

Répercussions sur l’environnement

Les répercussions environnementales de l’IA sont profondément liées à la qualité de vie future des jeunes Canadiens et Canadiennes. Les modèles d’IA à grande échelle nécessitent une immense puissance de calcul, ce qui entraîne une importante consommation d’énergie et des émissions de carbone contribuant au changement climatique, demande de l’espace physique et exige de l’eau douce pour maintenir les systèmes de données (Tulloch, 2024). Entraîner un seul grand modèle d’IA comme ceux qui sont utilisés dans le traitement du langage naturel (p. ex. GPT-3) peut prendre des mois. Durant cette période, le processus hautement énergivore génère plus de 62 000 livres de CO2, soit près de cinq fois les émissions d’une voiture moyenne pendant toute sa durée de vie (Strubell et al., 2019). Comme l’IA est de plus en plus présente à l’échelle mondiale, son empreinte carbone devrait augmenter considérablement, ce qui complique le respect des engagements internationaux en matière de climat, comme l’Accord de Paris, qui vise à limiter l’augmentation de la température mondiale à moins de 1,5 °C (Agence internationale de l’énergie, 2023). La nature énergivore de l’infrastructure d’IA doit donc être prise en compte dans les stratégies mondiales de réduction des émissions.

Les effets environnementaux de l’IA soulèvent des questions essentielles sur la responsabilité mondiale dans la lutte contre les changements climatiques. Les objectifs de développement durable des Nations Unies, particulièrement l’objectif 13 (lutte contre les changements climatiques), mettent l’accent sur la responsabilité partagée des nations, des industries et des décideurs politiques dans la réduction des émissions. Cependant, l’expansion rapide de l’IA risque de dépasser les cadres réglementaires, ce qui rend la transparence et la durabilité cruciales. La Recommandation sur l’éthique de l’intelligence artificielle de l’UNESCO (2022) souligne l’importance de développer des systèmes d’IA qui cadrent avec les principes de durabilité et les engagements internationaux en matière de climat. Sans mesures proactives, telles que l’obligation de transparence en matière de consommation d’énergie de l’IA et l’établissement de normes internationales pour une IA écologique, cette technologie risque de compromettre les objectifs de durabilité qu’elle pourrait pourtant contribuer à atteindre (UNESCO, 2021).

Si nous voulons atteindre nos objectifs de développement durable, il est primordial d’intégrer des innovations en matière d’IA qui réduisent ses répercussions sur l’environnement. La jeune pousse chinoise DeepSeek, une entreprise d’IA reconnue pour ses modèles rentables et efficients, est un excellent exemple. Ses avancées ont permis de créer des applications d’IA moins gourmandes en énergie, réduisant ainsi les émissions de carbone associées aux calculs à grande échelle (Truby, 2025). En outre, les technologies d’IA comme celles de DeepSeek peuvent jouer un rôle déterminant dans la surveillance et la gestion de l’environnement. Ainsi, des cadres d’apprentissage profond ont été développés pour cartographier les centrales solaires en Chine à l’aide d’images satellite, ce qui permet une meilleure planification et l’expansion des infrastructures d’énergie renouvelable (Hou et al., 2019). En adoptant et en développant de telles innovations en matière d’IA, le Canada peut renforcer son engagement à l’égard de la gérance de l’environnement et veiller à ce que l’IA soit un vecteur de durabilité plutôt qu’un facteur de dégradation écologique.

Le Canada est bien placé pour jouer un rôle de premier plan dans le développement durable de l’IA, notamment par la création de centres de données écologiques. Des provinces comme le Québec et la Colombie-Britannique, qui disposent d’abondantes ressources énergétiques renouvelables, offrent une avenue pour réduire considérablement l’empreinte carbone des technologies d’IA. L’idée d’une IA écologique a vu le jour, préconisant des modèles d’IA écoénergétiques et entraînés à l’aide de sources d’énergie durable (Sim, 2023; MIT Technology Review Insights, 2023). En passant à des centres de données alimentés par des énergies renouvelables et en optimisant l’efficacité des modèles, on pourrait grandement réduire les émissions tout en veillant à ce que l’IA reste un moteur d’innovation plutôt qu’un facteur de dégradation de l’environnement.

Non seulement l’intégration de centres de données écologiques répond aux objectifs environnementaux, mais elle offre également des avantages économiques substantiels. En tirant parti de sources d’énergie renouvelable et en mettant en œuvre des technologies écoénergétiques, ces centres peuvent réduire leurs coûts d’exploitation et renforcer la responsabilité sociale des entreprises (MIT Technology Review Insights, 2023).

De plus, la demande mondiale d’infrastructures durables offre au Canada la possibilité d’attirer des chefs de file internationaux de l’IA. En offrant des mesures incitatives et en favorisant un environnement propice au développement de centres de données écologiques, le Canada peut se positionner comme un pôle d’innovation en IA durable.

En tant que jeunes Canadiens et Canadiennes, nous voyons là une occasion de créer un secteur de l’IA écologique qui cadre avec l’engagement de notre génération en faveur de la gérance de l’environnement. Des initiatives conjointes Canada–États-Unis, telles que la création de centres de données écologiques et le déploiement de l’IA pour la surveillance de l’environnement, pourraient établir des normes mondiales en matière de durabilité. Ces efforts permettraient non seulement de réaliser des progrès importants dans la lutte contre la crise climatique, mais aussi de créer des possibilités d’emploi durables pour les jeunes du pays dans des domaines émergents qui privilégient l’innovation écologique En investissant dans des technologies d’IA respectueuses de l’environnement, le Canada peut renforcer son leadership tant sur le plan de l’innovation en matière d’IA que sur le plan de l’engagement en matière de climat et ainsi montrer que progrès économique et responsabilité environnementale peuvent aller de pair.

Conséquences profondes de la mésinformation

La mésinformation alimente les discussions depuis longtemps, en particulier sur Internet, où la vérité peut se perdre dans un flot d’opinions. Toutefois, l’utilisation de l’IA en ligne fait qu’il est de plus en plus facile de créer de fausses informations et de les rendre vraisemblables. En 2022, les fausses informations générées par l’IA ne représentaient qu’une petite partie du contenu manipulateur. Or, un texte préliminaire indique que les images générées par l’IA sont aujourd’hui presque aussi répandues que les textes et les images trafiqués (Dufour, 2024). Alors qu’habituellement, la modification d’une image altère le contexte et les détails d’un contenu existant, on peut, avec l’IA, créer des éléments audio et visuels pour inventer de toutes pièces une situation, et ce, sans grand effort.

L’accessibilité grandissante de l’IA suscite des craintes quant à la possibilité qu’elle puisse être utilisée pour interférer dans des élections. En 2024, on a vu un peu partout dans le monde des tentatives d’utiliser des hypertrucages (c.-à-d. des vidéos dans lesquelles le visage ou le corps d’une personne est modifié numériquement pour la faire passer pour quelqu’un d’autre ou pour lui faire dire ou faire des choses qu’elle n’a ni dites ni faites) afin d’influencer des élections. Par exemple, un hypertrucage reproduisant la voix du président Joe Biden a été utilisé pour inciter les électeurs à ne pas participer aux primaires démocrates du New Hampshire (Schneier et Sanders, 2024). S’il est possible de mesurer rapidement le taux de participation, il faudra du temps pour comprendre comment les informations générées par l’IA ont influé sur les décisions. Le fait qu’il y ait tant d’exemples devenus viraux nous amène à nous demander combien d’hypertrucages ont pu circuler sans être détectés ni remarqués à plus grande échelle.

Dans le contexte actuel d’Internet, il est difficile de distinguer les faits de la fiction et le contenu généré par l’IA de celui créé par l’humain. C’est le cas même dans les moteurs de recherche : l’outil Aperçu généré par IA de Google, qui est conçu pour donner aux utilisateurs un résumé des réponses à leurs questions, présente parfois comme des faits des renseignements qui sont incorrects, voire dangereux (Harding, 2024). La suppression par les plateformes de médias sociaux de leur fonction de vérification des faits vient aussi amplifier la propagation de la mésinformation. En outre, Meta a récemment annoncé la création de comptes officiels d’IA sur Facebook et Instagram (Westfall, 2024), ce qui risque de compliquer davantage les interactions en ligne.

Le contenu généré par l’IA peut également avoir des répercussions très personnelles. Des gens utilisent l’IA pour créer de fausses images sexuellement explicites, que ce soit d’une célébrité ou d’une personne quelconque. Dans les écoles, ces images sont devenues un autre moyen d’intimidation pour les adolescents, et les conséquences sont dévastatrices (Cochran, 2024; Tech News Briefing, 2024). Dans certains cas, des victimes ont été punies par leur école parce que la direction croyait que les images étaient réelles (Cochran, 2024). S’il était déjà possible de fabriquer de fausses images explicites, l’essor de l’IA a rendu la chose d’une facilité déconcertante (Pfefferkorn, 2024). Malheureusement, la loi n’arrive pas à suivre les avancées de l’IA et il n’y a pas actuellement de voie vers la justice. En attendant, ce fléau touche de manière disproportionnée les femmes et les filles (Schmunk, 2024). L’intimidation au moyen d’hypertrucages ne se limite pas au contenu explicite. De fausses images peuvent aussi être utilisées pour mettre quelqu’un dans n’importe quelle position compromettante ou embarrassante. L’intimidation touche principalement les jeunes, et cet aspect de l’IA est donc particulièrement important pour les jeunes générations. De plus, comme ce sont majoritairement les adultes qui traitent les cas d’intimidation, il est impératif qu’ils aient les connaissances et les compétences nécessaires pour le faire ainsi que le pouvoir légal d’agir, le cas échéant.

De façon générale, les jeunes sont particulièrement vulnérables à tout changement dans Internet, positif ou négatif, car ils participent activement à l’écosystème numérique. Au Canada, plus de 99 % des jeunes (de 15 à 24 ans) utilisent Internet quotidiennement (Statistique Canada, 2022) et les adolescents passent désormais en moyenne 4,8 heures par jour sur les médias sociaux (Jonathan Rothwell, 2023). On croit souvent que les jeunes sont plus à l’aise avec les avancées technologiques que les générations plus âgées. Toutefois, il n’est pas certain qu’ils soient plus aptes à repérer le contenu généré par l’IA. Bien que les jeunes déclarent rencontrer plus fréquemment l’IA sur les médias sociaux et se disent plus confiants dans leur capacité à la reconnaître, de nombreux facteurs peuvent expliquer ces données (de Léon, 2024). Il est important de les comprendre, car le fait de pouvoir détecter le contenu généré par l’IA permettrait au moins d’atténuer certains préjudices.

Les jeunes seront largement touchés par les changements que la popularisation de l’IA entraînera dans le système d’éducation. Il existe une crainte persistante qu’en l’absence de normes claires et strictes relatives à l’utilisation de l’IA en éducation, celle-ci perde de sa valeur (Rowsell, 2024). S’il n’y a pas de mécanismes de détection précis et que les normes relatives à l’utilisation de l’IA ne sont pas appliquées, les employeurs peuvent supposer que l’utilisation d’outils génératifs est répandue, ce qui peut diminuer la valeur d’un diplôme. Malheureusement, selon un texte préliminaire récent, les outils de détection de l’IA ne seraient précis que dans 39 % des cas, un chiffre inquiétant étant donné que ces outils sont utilisés pour justifier le signalement d’étudiants pour mauvaise conduite (Perkins, 2024). Ainsi, non seulement nous ne disposons pas d’un moyen précis de détecter l’IA, mais les étudiants peuvent également être accusés à tort. La pression exercée sur eux est forte. Il n’est pas toujours facile de résister à la facilité, mais prendre la voie rapide, c’est se priver de l’occasion de véritablement acquérir des compétences utiles. Si les établissements d’enseignement ne mettent pas en place des politiques claires et cohérentes, des problèmes liés à la protection des étudiants et à l’équité peuvent survenir, notamment dans les cas de plagiat. Bien que les écoles disposent de lignes directrices claires sur le plagiat, toutes ne tiennent pas compte de l’utilisation des plateformes d’IA.

L’utilisation inappropriée de l’IA est également observée dans la recherche. Les faux rapports de recherche se multiplient, aggravant la mésinformation et minant la confiance du public dans la science. Dans un milieu où l’expression « publier ou périr » résonne fréquemment, il n’est pas surprenant que certains se tournent vers l’IA générative pour fabriquer des données ou rédiger des articles entiers. Cette pratique nuit à la recherche scientifique véritable et peut accélérer la méfiance à l’égard de la science et des instituts scientifiques. Les jeunes ne peuvent se permettre une rupture entre la science et la société, en particulier alors que nous sommes face à des problèmes mondiaux, comme le changement climatique et la hausse des maladies évitables par la vaccination, qui atteignent une masse critique.

Puisque l’IA est là pour rester, nous invitons toute la société à mener une réflexion permanente afin que nos valeurs et nos priorités communes soient reconnues et que les politiques restent souples et adaptables dans ce paysage en évolution rapide.

Les GML sont entraînés au moyen d’ensembles de données imparfaits, ce qui peut entraîner des biais, des inexactitudes et des évaluations incomplètes. Il est donc essentiel que des êtres humains formés surveillent la mise en œuvre de l’IA.

Pendant la pandémie de COVID-19, alors que l’on espérait que les outils d’IA pourraient servir à améliorer l’état de santé des patients, aucun d’entre eux n’a donné de résultat marqué après une utilisation en milieu hospitalier (Heaven, 2021). Par exemple, un outil d’IA a reconnu la police de caractères utilisée par les hôpitaux où le nombre de cas était plus élevé et a ciblé cette police en tant qu’indicateur de risque. Bien sûr, il s’agit d’une erreur qu’on peut facilement corriger, mais, pour ce faire, il faut d’abord la détecter et la comprendre. Autre exemple : un algorithme de détection de la tuberculose a fait monter le score des radiographies prises au moyen d’appareils portables (Harris, 2019). Compte tenu de la mise en œuvre accrue de ces outils d’IA dans le domaine des soins de santé, la surveillance et la transparence seront d’une importance capitale.

Dans les modèles d’IA médicale, le manque de données diversifiées et représentatives sur les patients risque de conduire à des résultats inexacts pour les patients issus de groupes marginalisés, comme les femmes et les personnes de couleur, qui sont déjà susceptibles de souffrir d’iniquités en santé (Mayo Clinic Press Editors, 2024; Hamzelou, 2023). Cela s’est avéré avec un algorithme d’IA approuvé par la FDA pour l’analyse des mammographies, qui était plus susceptible de générer de faux positifs pour les patientes noires et âgées (Nguyen et Ren, 2024). L’étude n’a pas évalué l’exactitude ni les faux négatifs, ce qui laisse en suspens des questions préoccupantes sur le fait qu’un algorithme approuvé par la FDA comporte non seulement des biais, mais que ces derniers peuvent faire passer l’algorithme à côté d’un diagnostic de cancer. Même si l’exactitude reste inchangée, un taux accru de faux positifs a tout de même des conséquences négatives sur les patientes, notamment des tests inutiles et une augmentation des procédures médicales, et exerce des pressions accrues sur le système de santé. Mis ensemble, ces éléments peuvent aggraver les disparités existantes dans les soins de santé.

Bien qu’on ait réussi en partie à réduire les tâches quotidiennes de moindre importance, selon certains rapports, des centres médicaux ont constaté que des outils de transcription fondés sur l’IA inventaient des phrases dans plus de la moitié des cas d’utilisation (Burke et Schellmann, 2024). Ce problème rappelle la nécessité d’une surveillance humaine et fait même en sorte d’augmenter la charge de travail des médecins, puisqu’ils doivent revoir chaque transcription.

Cela ne signifie pas que l’IA ne pourra jamais accomplir ces tâches. L’IA s’améliore à toute vitesse et il est facile d’imaginer un avenir où les algorithmes d’IA amélioreront véritablement le processus de diagnostic de nombreuses maladies. Toutefois, compte tenu de la rapidité des progrès, il sera essentiel de faire preuve de prudence, d’assurer une surveillance humaine et de tenir compte des données utilisées pour entraîner ces systèmes sur de longues périodes. Il ne sert à rien de surestimer les possibilités si on omet les inconvénients potentiels, et le fait qu’une surveillance par des experts reste nécessaire.

Confidentialité, vie privée et propriété intellectuelle

Les outils d’IA générative comme ChatGPT soulèvent des questions sur la propriété et l’attribution des résultats créatifs. L’absence de lignes directrices claires en matière de propriété intellectuelle touche notamment les médias, la conception ou encore le développement de logiciels, des secteurs où les jeunes sont souvent les premiers utilisateurs et des innovateurs. Cependant, les discussions sur les enjeux relatifs à l’art et à la littérature sont peu fréquentes, et c’est une lacune importante compte tenu de l’importance de ces disciplines dans la culture canadienne et de leur rôle dans les économies du Québec et de la Colombie-Britannique (Épisode 26 : À qui appartiennent les créations générées par l’intelligence artificielle (et pourquoi vous devriez vous en préoccuper)?, 2023). Selon les lois actuelles, l’art généré par l’IA n’est pas protégé par le droit d’auteur. Pourtant, certains diront que la créativité de l’artiste est nécessaire à la génération d’œuvres pertinentes par l’IA. Il semble y avoir une zone grise, car on pourrait imaginer un monde où l’IA serait vue comme une ressource ou une fourniture artistique, au même titre que la peinture qu’un artiste achète pour peindre un tableau. Cependant, la capacité de l’IA générative à réaliser des portraits et des tableaux entiers en quelques instants en fait un outil bien plus puissant que n’importe quel matériel d’art offert auparavant. C’est pourquoi nous recommandons de considérer l’IA comme un collaborateur artistique et d’accorder un certain crédit aux personnes qui créent les logiciels d’IA qui sont utilisés en art.

Au Canada, les chercheurs qui se consacrent à l’IA et les entreprises d’IA, bien qu’ils soient de classe mondiale, sont souvent confrontés à des difficultés liées à la protection de leurs innovations. Par exemple, les entreprises qui développent des produits ou des logiciels basés sur l’IA risquent de voir leurs algorithmes ou leurs ensembles de données exclusifs détournés par de plus grandes entreprises internationales. Pour contrer cela, il faut moderniser les cadres de propriété intellectuelle du Canada afin qu’ils prennent en compte le contenu généré par l’IA et veiller à ce que nos créateurs et nos entreprises soient protégés sur un marché mondial qui évolue rapidement. Le Canada pourrait aussi étendre son leadership dans ce domaine en collaborant avec des partenaires internationaux, notamment les États-Unis, pour harmoniser les lois sur la propriété intellectuelle et promouvoir une approche équilibrée qui favorise l’innovation tout en protégeant les droits des créateurs. Compte tenu de l’influence des arts créatifs sur la culture canadienne, il est impératif d’avoir des lois cohérentes en matière de propriété intellectuelle qui permettront de relever les défis mentionnés ci-dessus. Il faut aussi adopter une approche proactive à l’égard du droit de la propriété intellectuelle et de l’IA.

La croissance exponentielle des données nécessaires à l’entraînement des systèmes d’IA soulève d’importantes préoccupations quant à la protection de la vie privée des utilisateurs, en particulier les jeunes, qui contribuent de manière importante aux plateformes numériques. Les pratiques de collecte de données sont peu réglementées, et des internautes consentent sans le savoir à des méthodes de collecte de données qui compromettent leurs renseignements personnels. Des politiques de gouvernance des données transparentes et complètes sont essentielles pour protéger la vie privée des utilisateurs, surtout devant la hausse croissante du nombre d’atteintes à la vie privée et de cas d’utilisation des données contraire à l’éthique. Les pratiques en matière de données d’entreprises comme Google, Meta et TikTok ont attiré l’attention. En 2023, TikTok a été accusée d’avoir transmis de manière inappropriée aux autorités chinoises des données sensibles sur des utilisateurs (Fung, 2023). Ces façons de faire exacerbent les préoccupations relatives au consentement et à la propriété, en particulier pour les jeunes, qui ne sont souvent pas conscients de la manière dont leurs données personnelles sont exploitées. Des groupes de défense, comme OpenMedia, ont sonné l’alarme sur ces questions, appelant à la modernisation de la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) du Canada afin qu’elle traite des nouveaux défis posés par la collecte et l’utilisation de données par l’IA (OpenMedia, 2021).

La possibilité que les systèmes d’IA perpétuent, et même aggravent, les inégalités sociétales soulève des craintes relatives au profilage social et à la discrimination. Cet enjeu se pose particulièrement dans les systèmes utilisés pour la surveillance, la publicité ciblée et le recrutement, qui peuvent être influencés par des algorithmes biaisés qui ont une incidence disproportionnée sur les groupes marginalisés. L’essor de l’IA dans ces secteurs a donné lieu à des dilemmes éthiques concernant le consentement, l’autonomie et le renforcement des inégalités systémiques. À la suite de changements politiques, notamment l’élection pour un second mandat du président Trump et les décrets subséquents qui ont cherché à limiter les initiatives en matière de diversité, d’équité et d’inclusion et à stopper l’action positive (Maison-Blanche, 2025), le risque que l’IA serve à enraciner la discrimination s’est accru. La mise en œuvre de l’IA dans des domaines aussi sensibles que le recrutement et l’application de la loi pourrait accroître les clivages raciaux et sociaux. Des études ont montré que les systèmes d’IA peuvent produire des résultats biaisés et discriminatoires et même donner lieu à des décisions secrètement racistes influencées par des facteurs tels que le dialecte et l’origine ethnique (Hofmann, 2024). Il est donc important que les technologies d’IA soient développées et déployées en tenant compte de considérations éthiques, sans quoi elles peuvent perpétuer des préjugés sociétaux préjudiciables.

Par ailleurs, les technologies de surveillance basées sur l’IA, par exemple les systèmes de reconnaissance faciale utilisés par des entreprises comme Clearview AI, ont suscité des réactions négatives dans le monde entier en raison de leur caractère invasif et des risques d’atteintes à la vie privée qu’elles présentent. Au Canada, Clearview AI a été confrontée à des litiges lorsqu’il a été découvert qu’elle avait récupéré sans consentement des milliards d’images accessibles au public sur les plateformes de médias sociaux (Commissariat à la protection de la vie privée, 2021). Non seulement cette façon de recueillir des données contrevient aux lois sur la protection des renseignements personnels, mais elle souligne la nécessité d’une surveillance et de mesures réglementaires strictes afin de protéger le droit à la vie privée des individus. Comme les jeunes sont les plus actifs dans le monde numérique, ils sont particulièrement vulnérables à ces pratiques invasives. Des groupes de défense tels que Privacy International au Royaume-Uni appellent à une réglementation plus sévère de l’utilisation de l’IA dans les espaces publics ainsi que du maintien de l’ordre prédictif et cherchent à trouver l’équilibre délicat entre la promotion de l’innovation et la protection de la vie privée (Privacy International, s.d.).

haut de la page


Conclusion

Il est primordial d’adopter une approche équilibrée au moment d’examiner le rôle de l’IA dans la société. Les nouvelles technologies donnent souvent lieu à des attentes et à des craintes exagérées, et l’IA ne fait pas exception. Bien qu’elle offre un fort potentiel de répercussions positives, il importe de ne pas négliger les risques et les défis qu’elle pose. L’histoire nous a montré qu’au début, les progrès technologiques, par exemple les téléphones intelligents et les ordinateurs personnels, font souvent craindre une destruction générationnelle. Pourtant, bien qu’ils aient sans conteste eu des conséquences négatives, leur influence globale a été moins catastrophique que prévu. De même, l’IA, lorsqu’elle est utilisée de manière réfléchie, a le pouvoir d’améliorer les compétences et la créativité humaines, plutôt que de les remplacer. De nombreuses universités intègrent désormais l’IA dans leurs programmes d’études et les membres du Conseil jeunesse l’ont adoptée comme outil de recherche et d’innovation, en veillant à ce qu’elle soit utilisée de manière responsable et dûment citée. Cela montre le potentiel qu’a l’IA de bonifier, et non de remplacer, l’ingéniosité humaine, et de favoriser un avenir où la technologie et l’humanité coexistent et avancent ensemble.

Pour relever les défis que pose l’IA, nous ne devons pas craindre ses complexités. En faisant la promotion d’un développement et d’une utilisation responsables, nous pouvons créer un monde où l’IA a sa place et où chacun est responsabilisé, un monde qui soutient la recherche éthique et contribue de manière positive à l’ensemble de la société. Ce parcours commence avec des jeunes informés, mobilisés et proactifs, qui peuvent tracer la voie d’une IA équitable, durable et sûre.

haut de la page


Références

haut de la page