Télécharger le format de rechange
(Format PDF, 2,21 Mo, 26 pages)
Organisation : Bureau de la Conseillère scientifique en chef
Publiée : 2026
Table des matières
Introduction
Alors que l’intelligence artificielle (IA) transforme rapidement la société, le Conseil jeunesse de la conseillère scientifique en chef du Canada (le Conseil jeunesse) adopte une position critique et engagée à l’égard des grands défis et des occasions uniques que présente l’IA. Contrairement aux progrès technologiques passés – principalement des outils visant à améliorer la productivité humaine – l’IA représente un changement de paradigme susceptible de dépasser les capacités humaines d’une manière telle qu’un examen urgent et réfléchi s’impose. L’évolution rapide de l’IA et sa trajectoire imprévisible nécessitent que l’on adopte une approche bien définie et proactive, qui reconnaisse à la fois son potentiel de transformation et ses risques.
Ce rapport traite d’une question fondamentale : Comment les jeunes scientifiques perçoivent-ils les défis et les occasions que présente l’IA, et comment croient-ils qu’il faut les aborder? En tant que nouveaux chefs de file scientifiques, les membres du Conseil jeunesse sont particulièrement bien placés pour évaluer l’incidence de l’IA sur la recherche, l’éducation et le personnel scientifique. Nous reconnaissons que l’IA ira bien au-delà de l’automatisation : elle modifiera la nature même de la recherche scientifique, de la prise de décision et de la responsabilité éthique.
Le présent rapport examine donc les principaux domaines sur lesquels l’IA devrait avoir les effets les plus marqués pour les étudiants, les chercheurs en début de carrière et les futures générations de scientifiques. Chaque section examine les aspects cruciaux du rôle de l’IA en science et souligne l’apport essentiel des jeunes pour intégrer l’IA dans la recherche et l’innovation de manière responsable, équitable et tournée vers l’avenir.
En fin de compte, le Conseil jeunesse transmet un message clé : l’IA n’est pas qu’une autre révolution technologique. C’est une innovation qui exige de nouveaux cadres, de nouvelles façons de penser et de nouvelles formes de leadership scientifique. Par l’intermédiaire de ce rapport, nous appelons la communauté scientifique, les décideurs politiques et les dirigeants de l’industrie à prendre en compte l’avis des jeunes lorsqu’il s’agira de penser l’avenir de l’IA.
Appels à l’action
Cette section souligne l’importance d’écouter ce que les jeunes ont à dire sur la manière de façonner l’avenir de l’IA. Les jeunes forment la prochaine génération de leaders, d’innovateurs et de parties prenantes et ils seront directement touchés par les technologies qui sont développées aujourd’hui. Il est donc essentiel que leurs points de vue soient activement pris en compte dans les processus décisionnels. Par l’intermédiaire de ce rapport, le Conseil jeunesse demande une participation accrue des jeunes aux discussions et à la prise de décision en matière de politiques sur l’IA, afin que leur voix soit non seulement entendue, mais aussi valorisée. Parallèlement, nous attirons l’attention sur plusieurs besoins cruciaux qui requièrent une attention immédiate : combler le fossé numérique, assurer un accès équitable aux technologies d’IA et intégrer les principes d’égalité, de diversité et d’inclusion (EDI) dans les politiques sur l’IA. Nous insistons également sur la nécessité de renforcer la protection de la vie privée, d’établir des lignes directrices éthiques pour l’utilisation des données de sources ouvertes et d’accorder la priorité à la sécurité de l’IA sur la scène mondiale. Ces appels visent à faire en sorte que le développement de l’IA soit transparent, inclusif et conforme aux valeurs d’une société diversifiée, les jeunes étant les premiers à plaider en faveur d’un écosystème de l’IA équitable et éthique.
1. Combler le fossé numérique et intégrer les principes d’EDI
- Donner la priorité aux initiatives qui assurent un accès équitable pour tous aux technologies d’IA, en particulier dans les régions rurales et mal desservies, où l’accès aux télécommunications et aux outils d’IA peut être limité.
- Veiller à ce que les principes d’EDI soient intégrés dans le processus d’élaboration des politiques sur l’IA afin que soient représentés différents points de vue et besoins, y compris ceux des jeunes.
- Améliorer l’accessibilité pour les personnes en situation de handicap (p. ex. reconnaissance vocale, technologies d’assistance).
2. Faire participer les jeunes à la prise de décisions
- Mettre en place des mécanismes officiels de participation directe et systématique des jeunes aux discussions et aux décisions relatives aux politiques sur l’IA.
- Veiller à ce que la littératie en IA fasse partie de l’éducation de la prochaine génération d’étudiants et de jeunes scientifiques canadiens.
3. Établir des règles éthiques pour l’utilisation d’ensembles de données publiques et de sources ouvertes aux fins d’entraînement de l’IA
- Élaborer et mettre en œuvre des règles claires pour l’utilisation éthique des données publiques et de sources ouvertes dans l’entraînement des modèles d’IA (grands modèles de langage, ou GML) afin d’assurer la transparence et la responsabilisation. Par exemple, un système d’octroi de licences empêchant l’utilisation du texte des logiciels dans les ensembles de données pourrait être mis sur pied.
4. Renforcer les mesures de protection de la vie privée
- Faire la promotion de lois sur la protection de la vie privée plus précises qui protègent les données des individus dans le cadre du développement de l’IA et des technologies d’apprentissage automatique.
5. Établir un cadre éthique qui guidera le développement et le déploiement de l’IA à court et à long terme
- Mettre en place un cadre éthique complet pour guider le développement et le déploiement de l’IA, en veillant à ce qu’il corresponde aux valeurs sociétales. Il faudrait que ce cadre s’attaque à la question délicate de savoir comment vivre dans un monde où les capacités de l’IA approchent, voire dépassent, celles de l’être humain.
6. Mieux informer le public au sujet de l’IA
- Mettre en œuvre des programmes éducatifs pour informer correctement la population sur les technologies d’IA, sur leurs avantages et sur leurs répercussions pour l’avenir ainsi que sur la manière de mieux protéger ses données et sa vie privée.
7. Protéger le consentement à la collecte de données
- Appliquer la réglementation qui empêche les entreprises de recueillir des données personnelles sans le consentement éclairé des individus.
8. Donner la priorité à la sécurité de l’IA dans les discussions avec les dirigeants internationaux
- Faire de la sécurité de l’IA un élément primordial pour le Canada dans les discussions du G7 et promouvoir des normes mondiales pour le développement d’une IA sûre.
9. Élaborer des lignes directrices sur l’utilisation de l’IA dans le milieu universitaire
- Encourager les universités à élaborer et à diffuser des directives et des lignes directrices claires concernant l’utilisation éthique de l’IA par les étudiants.
Contexte actuel de l’IA
Selon un document d’orientation du gouvernement britannique publié en 2023, qui s’intitule A pro-innovation approach to AI regulation, les systèmes d’IA sont des produits et services « adaptables » et « autonomes » (Gajjar, 2024). Ils peuvent effectuer des tâches nécessitant une intelligence de type humain, telles que la compréhension du langage, la reconnaissance de modèles et l’apprentissage à partir de données. Les algorithmes d’IA sont utilisés pour traiter de l’information, résoudre des problèmes et ils s’adaptent pour accomplir ces tâches. Des termes clés du domaine (apprentissage automatique, apprentissage profond, GML et vision par ordinateur) sont définis dans le glossaire de l’IA du Parlement britannique (Gajjar, 2024).
Les capacités de l’IA sont souvent classées sur un spectre qui va de l’IA étroite à l’IA générale. Les utilisations que nous voyons aujourd’hui relèvent de l’IA étroite : les systèmes sont conçus pour effectuer des tâches précises, bien que complexes. Ainsi, un modèle d’IA entraîné pour la reconnaissance faciale n’est pas nécessairement adapté à la découverte de médicaments. À l’autre bout du spectre, l’intelligence artificielle générale est une forme théorique d’IA capable de comprendre, d’apprendre et d’effectuer n’importe quelle tâche cognitive dans divers domaines peu familiers – elle pourrait même tenir un raisonnement abstrait – à un niveau semblable à celui de l’humain. La qualité des résultats et le caractère général des conditions d’entrée à partir desquelles le modèle peut produire des résultats précis peuvent être utilisés pour quantifier le niveau d’intelligence du modèle d’IA.
Étapes importantes
Pour mieux comprendre les répercussions de l’IA et les enjeux qu’elle soulève, il est important de connaître les innovations qui ont fait en sorte qu’elle est omniprésente aujourd’hui. Dès les débuts de l’informatique, les scientifiques étaient intrigués par le potentiel des machines à défier le raisonnement humain.
- 1949 : Alan Turing envisage la possibilité que les machines puissent tenir un raisonnement humain et pave la voie à la conceptualisation de l’IA avec le test de Turing.
- 1956 : John McCarthy introduit le terme « intelligence artificielle », ce qui marque pour beaucoup la naissance de l’IA en tant que domaine d’étude officiel. Au cours des années suivantes, des recherches capitales permettent de jeter les bases des réseaux neuronaux modernes, notamment la création par Frank Rosenblatt du modèle Perceptron basé sur le cerveau humain (modélisation de réseaux de neurones artificiels selon des modèles biologiques) (Rosenblatt, 1957), et les travaux de Geoffrey Hinton sur l’entraînement des réseaux de neurones artificiels par rétropropagation (modélisation computationnelle de l’échange de signaux entre les neurones) (Rumelhart, Hinton et Williams, 1986).
- 1997 : L’ordinateur Deep Blue d’IBM vainc le champion du monde d’échecs de l’époque, Garry Kasparov, dans un tournoi en six parties. Kasparov en remporte une, trois sont jugées nulles et Deep Blue en gagne deux. Le succès de Deep Blue marque une étape clé dans l’évolution de l’IA en montrant qu’il est possible pour un ordinateur de rivaliser avec le raisonnement humain dans le cadre d’un jeu.
- Début du 21e siècle : La capacité de calcul augmente et des techniques novatrices d’apprentissage automatique voient le jour. Les algorithmes d’arbres de décision, les réseaux neuronaux et les machines à vecteurs de support posent les fondations de systèmes d’IA plus sophistiqués, dont l’utilité et les capacités ont été accrues grâce à un accès amélioré aux mégadonnées. La combinaison de grands ensembles de données (mégadonnées) et de ressources informatiques plus puissantes permet la mise au point de techniques d’apprentissage profond. À l’époque, l’Institut canadien de recherche avancée (CIFAR) est l’un des premiers et des plus importants bailleurs de fonds gouvernementaux de la recherche sur l’IA.
- 2004 : Le programme de calcul neuronal et de perception adaptative du CIFAR permet de soutenir des pionniers de la recherche, notamment Geoffrey Hinton, Yoshua Bengio et Yann LeCun. Tous trois remportent le prix Turing en 2018, et Hinton reçoit également le prix Nobel de physique en 2024 « pour les découvertes et inventions fondamentales qui permettent l’apprentissage profond grâce aux réseaux de neurones artificiels » (Prix Nobel, 2024).
- 2012 : Le scientifique canadien Geoffrey Hinton et son laboratoire de l’Université de Toronto publient AlexNet, le premier modèle d’apprentissage profond capable de fournir des résultats proches de ceux de l’humain en matière de reconnaissance d’image, souvent appelée « vision par ordinateur » (Krizhevsky et al., 2012). Le succès remporté par la recherche sur la vision par ordinateur met en évidence la capacité de l’IA à tirer des conclusions et un sens à partir de données volumineuses et utiles (Khan et al., 2021). Cette découverte est appliquée dans le secteur pharmaceutique, où de telles techniques d’apprentissage non supervisé permettent de trouver de nouveaux médicaments (Vamathevan et al., 2019).
- 2015 : AlphaGo de DeepMind est le premier système d’IA à vaincre des humains experts au jeu de go (Silver et al., 2016). Ce modèle a été entraîné à la fois au moyen de grands volumes de données tirées de parties jouées par des humains (à l’aide de techniques d’apprentissage supervisé) et de données tirées de parties jouées contre lui-même.
- 2017 : La version Master d’AlphaGo bat le meilleur joueur du monde trois fois de suite avant que les développeurs ne retirent le programme. Le succès d’AlphaGo est notamment attribuable à des algorithmes innovants d’apprentissage par renforcement, une technique d’apprentissage automatique utilisée pour entraîner des agents autonomes au moyen d’interactions avec leur environnement et de rétroaction sous forme de récompenses ou de pénalités. L’apprentissage par renforcement a été mis au point par le scientifique canadien Richard Sutton à l’Université de l’Alberta et a depuis gagné en importance grâce à d’autres applications d’IA, comme le développement de systèmes autonomes (véhicules, robotique), l’optimisation de la prise de décision en matière de soins de santé et d’autres problèmes de gestion des ressources (Kiumarsi et al., 2017).
- 2022 : OpenAI lance ChatGPT et ouvre l’ère moderne des GML. Ces percées sont rendues possibles par d’immenses réseaux neuronaux appelés « transformateurs » (Vaswani et al., 2017; Brown et al., 2020) entraînés sur des données prises à l’échelle d’Internet (c.-à-d. des exaoctets de données provenant d’Internet).
- 2024 : Sora, publié par OpenAI, inaugure une nouvelle ère de l’IA générative en permettant la génération de vidéos réalistes en haute résolution à partir d’invites textuelles. Cette avancée montre à quel point l’IA générative accélère la convergence entre le texte, les images et la vidéo, ce qui ouvre de nouvelles possibilités et soulève des questions éthiques liées à la production média, à la mésinformation et à la créativité numérique.
Depuis les premières théories élaborées dans les années 1950 jusqu’à la recherche universitaire spécialisée dans les années 2000, l’IA a beaucoup évolué et se trouve maintenant entre les mains de millions de personnes dans le monde chaque jour. Elle présente autant de promesses que de défis et les institutions et les chercheurs du pays continuent donc de mener des développements dans ce domaine par l’intermédiaire de la Stratégie pancanadienne en matière d’IA. Des organisations comme le CIFAR, l’Institut canadien de la sécurité de l’intelligence artificielle et des instituts de recherche comme Mila, l’Alberta Machine Intelligence Institute (Amii) et l’Institut Vecteur sont des partenaires de cette stratégie.
Les avantages de l’IA pour les jeunes du Canada : répercussions dans les domaines de la santé et de l’éducation
Le Conseil jeunesse compte 16 membres de divers domaines scientifiques, dont la moitié travaille dans le secteur des soins de santé. Tous et toutes étudient au niveau collégial ou universitaire ou ont récemment obtenu leur diplôme et ont une expérience concrète de l’effet transformateur que peut avoir l’IA dans les domaines des soins de santé et de l’éducation. Dans cette section, nous décrivons les avantages de l’IA dans ces deux domaines clés pour les jeunes Canadiens et Canadiennes ainsi que pour les générations futures.
Soins de santé
La capacité de l’IA à traiter de vastes ensembles de données, à déceler des tendances et à prédire des résultats révolutionne des aspects clés des soins de santé – diagnostic, traitement et gestion des soins thérapeutiques, entre autres – tout en servant de modèle pour améliorer la productivité et l’efficacité dans d’autres secteurs. De nombreux membres du Conseil jeunesse se spécialisent dans des domaines scientifiques liés à la santé, tels que la médecine, la microbiologie, la santé publique et l’épidémiologie. Nous avons personnellement observé la rapidité avec laquelle l’IA a été adoptée dans les sciences de la santé. Comme les jeunes ont accès à des quantités sans précédent de données sur la santé, ils sont particulièrement bien placés pour tirer parti des informations fournies par l’IA afin d’offrir des soins de santé plus personnalisés et centrés sur le patient. En outre, compte tenu des pressions grandissantes sur le système de santé et de l’accélération du vieillissement de la population, les gains d’efficacité réalisés grâce à l’IA seront essentiels pour assurer des soins efficaces de façon durable.
L’intégration de l’IA dans les systèmes de soins de santé présente de nombreux avantages, tant pour les soins que pour les systèmes de prestation et le grand public. À l’heure où le système de santé canadien est confronté à des défis (augmentation des coûts, ressources limitées et vieillissement de la population), l’IA peut répondre à certains besoins urgents. Le Canada consacre plus de 11 % de son produit intérieur brut (PIB) aux soins de santé (Institut canadien d’information sur la santé, 2022), et l’on s’attend à ce que ce pourcentage augmente. Capable d’optimiser l’affectation des ressources, d’améliorer l’efficacité opérationnelle et de réduire les interventions inutiles, l’IA offre une occasion unique de réduire les coûts tout en améliorant la qualité des soins. Dans le contexte de la modélisation prédictive en médecine et en santé publique, les applications de l’IA peuvent servir à prédire des problèmes de santé, les taux de survie des patients et les taux de réadmission ainsi que la gestion des soins de longue durée, à améliorer les soins de fin de vie et les prévisions de mortalité ainsi qu’à automatiser les systèmes de décision clinique (Yang, 2022; Noorbakhsh-Sabet et al., 2019). Il est alors possible d’améliorer grandement la compréhension collective de la trajectoire des maladies et de la gestion des soins afin de soutenir des modalités de traitement mieux adaptées, tout en s’attaquant aux goulots d’étranglement dans la prestation et l’administration des soins.
On sait déjà que l’IA a le potentiel de dépasser l’humain pour certaines tâches médicales. Elle peut par exemple diagnostiquer des maladies, prévoir des résultats et analyser de vastes quantités de données, souvent plus rapidement et plus précisément que les fournisseurs individuels de soins de santé (Lehharo, 2024). En effet, la recherche a montré que l’IA peut égaler ou dépasser le rendement d’experts humains dans diverses tâches d’analyse d’images médicales, comme le dépistage du cancer du sein (McKinney et al., 2020; Hickman et al., 2021). Bien que l’IA puisse surpasser les fournisseurs individuels de soins de santé dans certaines tâches, son rôle premier n’est pas de les remplacer, mais de servir d’outil de soutien, améliorant la prise de décision, simplifiant les traitements et permettant aux professionnels de la santé de donner des soins plus efficaces centrés sur le patient. En améliorant la précision des diagnostics et en facilitant la détection précoce des maladies, l’IA peut réduire la nécessité de traitements coûteux ou de soins d’urgence, ce qui a une influence directe sur les coûts globaux des soins de santé (Wang, 2024). L’IA peut également jouer un rôle essentiel dans l’amélioration de la gestion des maladies chroniques, un facteur important des dépenses en santé, en prédisant et en gérant les conditions plus efficacement (Ramezani et al., 2023). Enfin, l’IA peut être appliquée à des activités de surveillance, par exemple par des organisations de santé publique qui surveillent, suivent et évaluent les tendances et modèles des maladies, ce qui permet une détection précoce et des interventions ciblées (Shaban-Nejad et al., 2022).
L’IA peut aussi simplifier les processus administratifs et réduire considérablement le temps que consacrent les cliniciens aux tâches courantes, diminuant les risques d’épuisement professionnel et améliorant la productivité. En fait, la mise en œuvre précoce de l’IA dans le système de santé canadien a donné des résultats prometteurs pour ce qui est de la réduction de la charge de travail administratif des praticiens. En Ontario, les logiciels de transcription numérique basés sur l’IA, les scribes, ont réduit le temps passé à remplir de la paperasse de 70 % à 90 % et permis aux médecins de famille de gagner en moyenne de trois à quatre heures par semaine (OntarioMD, 2024). Les médecins, qui consacrent généralement une dizaine d’heures par semaine à des tâches administratives, pourraient grandement profiter des outils d’IA, qui leur permettraient de se concentrer davantage sur les soins aux patients et allégeraient leur charge de travail. Globalement, ces gains d’efficacité suggèrent qu’une adoption plus large de l’IA pourrait beaucoup améliorer la productivité dans l’ensemble du système de santé canadien et peut-être atténuer la pénurie de professionnels de la santé au Canada (Université Queen's, 2024).
Pour le grand public, l’intégration de l’IA dans les soins de santé offre la possibilité d’accélérer considérablement l’accès aux soins et d’améliorer les résultats pour les patients, pour un système de soins de santé plus équitable. Les outils alimentés par l’IA qui donnent la priorité aux patients à haut risque, simplifient les demandes de consultation et optimisent la prestation des soins pourraient grandement bénéficier aux populations mal desservies, y compris celles des régions rurales et éloignées du Canada, où l’accès aux soins de santé est souvent limité. De plus, en permettant aux gens d’accéder à de l’information et à des recommandations personnalisées, l’IA peut leur donner les moyens de gérer leur santé plus efficacement et d’accroître leurs connaissances scientifiques. Par exemple, ChatGPT a été utilisé pour réécrire du matériel pédagogique sur les problèmes de tête et de cou en oto-rhino-laryngologie pédiatrique à un niveau de lecture de 5e année afin qu’il soit plus facile à lire et à comprendre pour les patients. Chez des adultes atteints d’arthrose du genou, une aide à la décision basée sur l’IA a été utilisée pour informer les patients sur les soins et analyser des solutions de rechange afin de fournir des soins personnalisés et de meilleurs résultats.
Les plateformes d’IA peuvent avoir recours à des robots conversationnels (c.-à-d. un programme informatique conçu pour simuler une conversation avec un humain), à des assistants virtuels ou à des outils interactifs qui fournissent du matériel éducatif, des rappels pour la prise de médicaments, des conseils d’autosoins et des recommandations sur le mode de vie adaptées aux besoins et aux préférences des patients. Par exemple, les plateformes de surveillance médicale à distance basées sur l’IA peuvent mobiliser et éduquer les patients en leur fournissant de l’information, de la rétroaction et des recommandations personnalisées en fonction de leurs données de santé individuelles (David, 2024).
L’utilisation accrue de dispositifs portables et d’appareils de surveillance produit de grandes quantités de données en temps réel qui pourraient contribuer à la détection précoce des maladies et à une gestion plus proactive des affections chroniques (Babu et al., 2023). L’outil de surveillance cardiaque de la montre Apple Watch a reçu l’approbation de la Food and Drug Administration (FDA) des États-Unis à titre d’outil de développement d’appareil médical (Medical Device Development Tool) (FDA, 2023). Cette désignation illustre le potentiel des dispositifs portables à générer des données de santé exploitables, que les patients peuvent utiliser pour prendre soin de leur santé et qui peuvent aussi servir dans le cadre d’essais cliniques afin de favoriser les diagnostics précoces. À ce titre, l’IA a le potentiel de réduire les disparités en matière de santé en favorisant la littératie en santé et en rendant les soins plus accessibles, plus personnalisés et plus efficaces.
Éducation
Comme le Conseil jeunesse est composé d’étudiants et d’étudiantes de divers niveaux, du collège jusqu’au postdoctorat, ainsi que de chercheuses et de chercheurs en début de carrière qui ont obtenu leur diplôme au cours des cinq dernières années, nous savons que l’IA s’est rapidement et facilement taillé une place dans les salles de classe et les séances d’étude. Elle a considérablement réduit le temps consacré aux travaux et aux devoirs. Certains étudiants se servent de l’IA comme d’un puissant moteur de recherche qui fournit des réponses instantanées, tandis que d’autres en ont fait leur « tuteur personnalisé », disponible en tout temps. Peu importe comment elle est utilisée, l’IA transforme la façon dont les étudiants apprennent et ce sera sans aucun doute le cas aussi pour les générations futures. Son influence est déjà évidente parmi nous, les membres du Conseil jeunesse, à mesure que nous progressons dans notre parcours professionnel.
Les outils basés sur l’IA peuvent adapter les plans de cours au style et à la vitesse d’apprentissage de chacun, faisant en sorte que les étudiants reçoivent le soutien dont ils ont besoin pour réussir. La rétroaction instantanée et les ressources ciblées aident les apprenants à surmonter les difficultés plus efficacement, rendant les études plus attrayantes et plus accessibles à divers groupes. L’IA peut fournir aux élèves en situation de handicap ou éprouvant des difficultés d’apprentissage des solutions sur mesure qui répondent à leurs besoins uniques, ce qui contribue à une éducation plus équitable. Bien que les avantages de l’utilisation de l’IA en éducation soient considérables, il est essentiel que l’enseignement humain reste au cœur de l’éducation et qu’il veille à ce que les étudiants acquièrent les compétences globales nécessaires à une vie équilibrée (Ali et al., 2024).
L’utilisation de l’IA en enseignement supérieur donne lieu à des controverses : ses partisans vantent l’amélioration de la productivité de l’apprentissage et l’automatisation des tâches, tandis que ses détracteurs hésitent à l’adopter, s’inquiétant de la dépendance excessive à l’égard de la technologie ainsi que de la perte de la pensée critique et des aptitudes à résoudre des problèmes chez les apprenants. Puisque l’IA se taille une place de choix dans la prestation des soins de santé, les étudiants des programmes de médecine, de soins infirmiers, de sciences infirmières ou paramédicaux devront être formés à travailler aux côtés de systèmes d’IA et acquérir les compétences techniques et la capacité d’interpréter et d’exploiter les observations issues de l’IA dans la pratique clinique. Déjà, les outils d’IA (en particulier les GML comme ChatGPT) transforment la formation médicale en améliorant le contenu pédagogique, en créant des scénarios cliniques réalistes, en aidant à la rédaction médicale et en offrant des expériences d’apprentissage personnalisées (HMS, 2023). Ces approches sont toutefois limitées par des scores médians de 5,5 pour ce qui est de l’exactitude de l’ensemble du contenu médical spécialisé, et les apprenants sont invités à user de prudence lorsqu’ils ont recours aux robots conversationnels. En améliorant également l’accessibilité, la personnalisation et la simulation dans l’enseignement de la médecine, l’IA bonifie la préparation des étudiants à la pratique médicale dans le monde réel.
Les défis de l’IA
Alors que l’IA continue de façonner l’avenir, son adoption pose des défis uniques auxquels il faut nous attaquer pour atténuer les risques, préserver les principes éthiques et assurer une approche équilibrée de l’innovation. Dans cette section, nous nous penchons sur quatre domaines clés qui, selon nous, seront les plus touchés par l’IA. Nous croyons que l’adoption et l’utilisation de l’IA dans ces domaines devront faire l’objet de discussions approfondies. Ces défis dépassent les domaines scientifiques dans lesquels les membres du Conseil jeunesse se spécialisent, car l’IA étend son influence à toutes les sphères du monde dans lequel les générations futures grandiront.
Défis géopolitiques
Pour les jeunes du Canada, les tensions géopolitiques entourant l’IA ne sont pas que des gros titres : elles nous touchent personnellement et modèlent les possibilités, la stabilité et le contexte éthique dont nous héritons alors que nous nous apprêtons à entrer sur le marché du travail. Même si les innovations en matière d’IA dans un pays peuvent, en théorie, contribuer au progrès mondial, dans la pratique, les rivalités géopolitiques restreignent souvent la mise en commun des technologies, la mobilité des talents et l’accès à des infrastructures d’IA essentielles. La course mondiale pour dominer l’IA, menée par les États-Unis et la Chine, a donc des implications immédiates et à long terme (Jones, 2025), car les pays préfèrent de plus en plus protéger la sécurité nationale et leurs intérêts économiques que collaborer ouvertement. Alors que le Canada cherche à affirmer son rôle dans ce paysage en évolution rapide, nous devons trouver l’équilibre entre la collaboration avec des alliés puissants et la protection de notre souveraineté technologique.
La monopolisation des technologies de l’IA par une poignée de pays soulève des inquiétudes quant à l’équité internationale et à l’accès à l’innovation. Même si le code source de nombreuses technologies d’IA est ouvert, la monopolisation reste possible par le contrôle d’infrastructures clés, de vastes ensembles de données et de la puissance de calcul avancée, des ressources concentrées au sein de quelques nations et entreprises dominantes. La capacité à développer et à déployer une IA de pointe à grande échelle dépend de l’accès non seulement aux logiciels, mais aussi au calcul de haute performance, aux puces spécialisées (comme celles de Nvidia et de Taiwan Semiconductor Manufacturing Company) et à d’énormes ensembles de données exclusives, qui restent hors de portée pour bien des pays. Cette concentration des capacités en matière d’IA risque de laisser sur la touche d’autres chefs de file mondiaux comme le Canada, ce qui limiterait notre rôle dans l’élaboration de la gouvernance de l’IA et rendrait les jeunes du pays dépendants d’outils et d’infrastructures contrôlés par des pays étrangers. Pour le Canada, il s’agit d’un équilibre particulièrement précaire, car notre pays entretient des liens étroits avec les États-Unis tout en maintenant des relations commerciales avec d’autres puissances mondiales. Les jeunes Canadiens et Canadiennes veulent que notre pays demeure un chef de file du développement éthique de l’IA et qu’il continue à promouvoir l’équité sur la scène mondiale tout en protégeant notre indépendance économique.
La relation entre le Canada et les États-Unis, bien qu’elle soit un atout, présente également des défis uniques pour notre génération. La domination américaine en matière d’innovation technologique – soutenue par les géants de Silicon Valley – offre aux jeunes du Canada des possibilités de collaboration, d’investissement et de contribution à des recherches de pointe. Cependant, cette proximité crée aussi des risques de dépendance. Dans un rapport produit par Deloitte Canada en 2023 pour le compte du CIFAR, d’Amii, de Mila et de l’Institut Vecteur, on indique que si le Canada a franchi des étapes importantes en matière de concentration de talents en IA, de publications de recherche et d’investissements en capital de risque, des mesures plus décisives sont nécessaires pour assurer l’intégration de l’IA dans l’ensemble de l’économie. Le rapport souligne que le leadership en matière d’IA pourrait passer à des pays qui investissent de manière plus audacieuse et qui exploitent son potentiel (Deloitte Canada, 2023). Si les talents et les entreprises en démarrage du Canada continuent de s’installer chez nos voisins du Sud en quête de salaires plus élevés et de ressources accrues, notre écosystème de l’IA pourrait en pâtir (Koetsier, 2024). Cet exode des talents est particulièrement ressenti par les jeunes du pays qui entrent sur le marché du travail en science, en technologie ou en innovation, où leur contribution est souvent sous-estimée comparativement aux autres pays.
Alors que les politiques d’immigration du Canada ont été conçues pour attirer les talents internationaux, le pays doit redoubler d’efforts pour retenir les experts qui ont été formés ici en leur offrant des occasions de financement et des possibilités de carrière concurrentielles (Singer, 2024). L’essor du télétravail a aussi créé de nouvelles avenues en permettant aux jeunes Canadiens et Canadiennes qui travaillent dans des domaines liés à l’IA d’accéder à des salaires dignes de Silicon Valley tout en restant au pays. Certains risques liés à la migration géographique des talents sont ainsi atténués, mais il n’en reste pas moins que la situation soulève des préoccupations quant à l’investissement à long terme dans l’écosystème technologique du Canada. Si les travailleurs canadiens contribuent à des entreprises étrangères sans réinvestir leur expertise dans des entreprises, des instituts de recherche ou de jeunes pousses d’ici, notre capacité à construire une industrie de l’IA autosuffisante pourrait être compromise. De plus, les politiques américaines telles que les contrôles à l’exportation des technologies d’IA (département du Commerce des États-Unis, 2025) pourraient indirectement restreindre la capacité du Canada à s’engager sur le marché mondial de l’IA. Ces restrictions semblent destinées à faire face à la concurrence des grands acteurs mondiaux et pourraient influer sur l’accès du Canada à des technologies clés. En tant que jeunes, nous craignons que le Canada soit pris dans des conflits commerciaux mondiaux, particulièrement au moment où nous cherchons des carrières intéressantes dans des secteurs émergents.
La position proactive du Canada sur le développement d’une IA éthique et des initiatives comme la Feuille de route pour un partenariat renouvelé États-Unis–Canada (cabinet du premier ministre du Canada, 2021) offrent de l’espoir. Toutefois, les jeunes Canadiens et Canadiennes veulent plus que des accords généraux; il nous faut des investissements concrets dans l’innovation locale, du financement concurrentiel pour la recherche et des idées pour retenir les talents nationaux. Les initiatives menées par le gouvernement du Canada, comme la Stratégie pancanadienne en matière d’IA (208 millions de dollars sur 10 ans), le Fonds d’accès à une capacité de calcul pour l’IA (jusqu’à 300 millions de dollars pour aider les petites et moyennes entreprises [PME] à accéder à des ressources de calcul de haute performance) et le programme Assistance IA (100 millions de dollars par l’intermédiaire du Programme d’aide à la recherche industrielle du Conseil national de recherches pour aider les PME à intégrer les technologies d’IA) sont des pas dans la bonne direction. Cependant, pour que notre génération puisse réussir dans une économie compétitive et mondialisée axée sur l’IA, il faut continuer à investir et à apporter un soutien stratégique aux nouveaux chefs de file de l’IA.
Les applications militaires de l’IA ajoutent un niveau de complexité supplémentaire. Dans le cadre du Commandement de la défense aérospatiale de l’Amérique du Nord (NORAD), le Canada et les États-Unis travaillent à moderniser leurs systèmes de défense au moyen de technologies d’IA, y compris la détection des menaces (ministère de la Défense nationale, 2024). Bien que cette collaboration vise à renforcer la sécurité nationale, elle soulève de profondes questions éthiques pour notre génération.
Les jeunes Canadiens et Canadiennes sont très préoccupés par les répercussions des applications militaires de l’IA. Les armes autonomes, la réduction de la surveillance humaine et l’escalade accidentelle des conflits vont à l’encontre de nos valeurs de paix et de dignité humaine (Robins-Early, 2024; Morgan et al., 2020). En tant que citoyens du monde, nous voulons que le Canada se fasse le champion d’accords internationaux régissant l’utilisation éthique de l’IA dans le domaine de la défense, en assurant la transparence, la responsabilité et la surveillance humaine.
Initiative du Conseil jeunesse : Élaboration d’une politique mondiale sur les systèmes d’armes autonomes
Les membres du Conseil jeunesse de la conseillère scientifique en chef ont récemment soumis un exposé de politique à Idées7, le groupe de mobilisation officiel du Groupe des Sept (G7), dans lequel ils préconisent un cadre structuré pour les systèmes d’armes autonomes. Leur proposition, intitulée A Coordinated Tier System for Autonomous Weapon Systems, décrit un système à cinq niveaux qui fait la distinction entre le contrôle humain et la prise de décision par la machine et vise à assurer une utilisation responsable de l’IA en contexte militaire.
Rédigé par Harsh Sharma, Kevin Kasa, Chloé Currie, Julia Messina-Pacheco, Louis-Alexandre Fournier, Matthew Taylor et Pahul Singh, l’exposé souligne l’importance de la collaboration internationale pour atténuer les risques et guider le développement éthique des systèmes d’armes autonomes. S’il est sélectionné, l’exposé sera publié sur le site Web d’Idées7 Canada et pourrait influencer la rédaction du communiqué final du G7.
Face aux tensions géopolitiques grandissantes et aux progrès rapides de l’IA, les membres du Conseil jeunesse insistent sur le besoin urgent d’instaurer une gouvernance éthique des armes autonomes afin d’assurer la stabilité mondiale et le respect de principes humanitaires.
Répercussions sur l’environnement
Les répercussions environnementales de l’IA sont profondément liées à la qualité de vie future des jeunes Canadiens et Canadiennes. Les modèles d’IA à grande échelle nécessitent une immense puissance de calcul, ce qui entraîne une importante consommation d’énergie et des émissions de carbone contribuant au changement climatique, demande de l’espace physique et exige de l’eau douce pour maintenir les systèmes de données (Tulloch, 2024). Entraîner un seul grand modèle d’IA comme ceux qui sont utilisés dans le traitement du langage naturel (p. ex. GPT-3) peut prendre des mois. Durant cette période, le processus hautement énergivore génère plus de 62 000 livres de CO2, soit près de cinq fois les émissions d’une voiture moyenne pendant toute sa durée de vie (Strubell et al., 2019). Comme l’IA est de plus en plus présente à l’échelle mondiale, son empreinte carbone devrait augmenter considérablement, ce qui complique le respect des engagements internationaux en matière de climat, comme l’Accord de Paris, qui vise à limiter l’augmentation de la température mondiale à moins de 1,5 °C (Agence internationale de l’énergie, 2023). La nature énergivore de l’infrastructure d’IA doit donc être prise en compte dans les stratégies mondiales de réduction des émissions.
Les effets environnementaux de l’IA soulèvent des questions essentielles sur la responsabilité mondiale dans la lutte contre les changements climatiques. Les objectifs de développement durable des Nations Unies, particulièrement l’objectif 13 (lutte contre les changements climatiques), mettent l’accent sur la responsabilité partagée des nations, des industries et des décideurs politiques dans la réduction des émissions. Cependant, l’expansion rapide de l’IA risque de dépasser les cadres réglementaires, ce qui rend la transparence et la durabilité cruciales. La Recommandation sur l’éthique de l’intelligence artificielle de l’UNESCO (2022) souligne l’importance de développer des systèmes d’IA qui cadrent avec les principes de durabilité et les engagements internationaux en matière de climat. Sans mesures proactives, telles que l’obligation de transparence en matière de consommation d’énergie de l’IA et l’établissement de normes internationales pour une IA écologique, cette technologie risque de compromettre les objectifs de durabilité qu’elle pourrait pourtant contribuer à atteindre (UNESCO, 2021).
Si nous voulons atteindre nos objectifs de développement durable, il est primordial d’intégrer des innovations en matière d’IA qui réduisent ses répercussions sur l’environnement. La jeune pousse chinoise DeepSeek, une entreprise d’IA reconnue pour ses modèles rentables et efficients, est un excellent exemple. Ses avancées ont permis de créer des applications d’IA moins gourmandes en énergie, réduisant ainsi les émissions de carbone associées aux calculs à grande échelle (Truby, 2025). En outre, les technologies d’IA comme celles de DeepSeek peuvent jouer un rôle déterminant dans la surveillance et la gestion de l’environnement. Ainsi, des cadres d’apprentissage profond ont été développés pour cartographier les centrales solaires en Chine à l’aide d’images satellite, ce qui permet une meilleure planification et l’expansion des infrastructures d’énergie renouvelable (Hou et al., 2019). En adoptant et en développant de telles innovations en matière d’IA, le Canada peut renforcer son engagement à l’égard de la gérance de l’environnement et veiller à ce que l’IA soit un vecteur de durabilité plutôt qu’un facteur de dégradation écologique.
Le Canada est bien placé pour jouer un rôle de premier plan dans le développement durable de l’IA, notamment par la création de centres de données écologiques. Des provinces comme le Québec et la Colombie-Britannique, qui disposent d’abondantes ressources énergétiques renouvelables, offrent une avenue pour réduire considérablement l’empreinte carbone des technologies d’IA. L’idée d’une IA écologique a vu le jour, préconisant des modèles d’IA écoénergétiques et entraînés à l’aide de sources d’énergie durable (Sim, 2023; MIT Technology Review Insights, 2023). En passant à des centres de données alimentés par des énergies renouvelables et en optimisant l’efficacité des modèles, on pourrait grandement réduire les émissions tout en veillant à ce que l’IA reste un moteur d’innovation plutôt qu’un facteur de dégradation de l’environnement.
Non seulement l’intégration de centres de données écologiques répond aux objectifs environnementaux, mais elle offre également des avantages économiques substantiels. En tirant parti de sources d’énergie renouvelable et en mettant en œuvre des technologies écoénergétiques, ces centres peuvent réduire leurs coûts d’exploitation et renforcer la responsabilité sociale des entreprises (MIT Technology Review Insights, 2023).
De plus, la demande mondiale d’infrastructures durables offre au Canada la possibilité d’attirer des chefs de file internationaux de l’IA. En offrant des mesures incitatives et en favorisant un environnement propice au développement de centres de données écologiques, le Canada peut se positionner comme un pôle d’innovation en IA durable.
En tant que jeunes Canadiens et Canadiennes, nous voyons là une occasion de créer un secteur de l’IA écologique qui cadre avec l’engagement de notre génération en faveur de la gérance de l’environnement. Des initiatives conjointes Canada–États-Unis, telles que la création de centres de données écologiques et le déploiement de l’IA pour la surveillance de l’environnement, pourraient établir des normes mondiales en matière de durabilité. Ces efforts permettraient non seulement de réaliser des progrès importants dans la lutte contre la crise climatique, mais aussi de créer des possibilités d’emploi durables pour les jeunes du pays dans des domaines émergents qui privilégient l’innovation écologique En investissant dans des technologies d’IA respectueuses de l’environnement, le Canada peut renforcer son leadership tant sur le plan de l’innovation en matière d’IA que sur le plan de l’engagement en matière de climat et ainsi montrer que progrès économique et responsabilité environnementale peuvent aller de pair.
Conséquences profondes de la mésinformation
La mésinformation alimente les discussions depuis longtemps, en particulier sur Internet, où la vérité peut se perdre dans un flot d’opinions. Toutefois, l’utilisation de l’IA en ligne fait qu’il est de plus en plus facile de créer de fausses informations et de les rendre vraisemblables. En 2022, les fausses informations générées par l’IA ne représentaient qu’une petite partie du contenu manipulateur. Or, un texte préliminaire indique que les images générées par l’IA sont aujourd’hui presque aussi répandues que les textes et les images trafiqués (Dufour, 2024). Alors qu’habituellement, la modification d’une image altère le contexte et les détails d’un contenu existant, on peut, avec l’IA, créer des éléments audio et visuels pour inventer de toutes pièces une situation, et ce, sans grand effort.
L’accessibilité grandissante de l’IA suscite des craintes quant à la possibilité qu’elle puisse être utilisée pour interférer dans des élections. En 2024, on a vu un peu partout dans le monde des tentatives d’utiliser des hypertrucages (c.-à-d. des vidéos dans lesquelles le visage ou le corps d’une personne est modifié numériquement pour la faire passer pour quelqu’un d’autre ou pour lui faire dire ou faire des choses qu’elle n’a ni dites ni faites) afin d’influencer des élections. Par exemple, un hypertrucage reproduisant la voix du président Joe Biden a été utilisé pour inciter les électeurs à ne pas participer aux primaires démocrates du New Hampshire (Schneier et Sanders, 2024). S’il est possible de mesurer rapidement le taux de participation, il faudra du temps pour comprendre comment les informations générées par l’IA ont influé sur les décisions. Le fait qu’il y ait tant d’exemples devenus viraux nous amène à nous demander combien d’hypertrucages ont pu circuler sans être détectés ni remarqués à plus grande échelle.
Dans le contexte actuel d’Internet, il est difficile de distinguer les faits de la fiction et le contenu généré par l’IA de celui créé par l’humain. C’est le cas même dans les moteurs de recherche : l’outil Aperçu généré par IA de Google, qui est conçu pour donner aux utilisateurs un résumé des réponses à leurs questions, présente parfois comme des faits des renseignements qui sont incorrects, voire dangereux (Harding, 2024). La suppression par les plateformes de médias sociaux de leur fonction de vérification des faits vient aussi amplifier la propagation de la mésinformation. En outre, Meta a récemment annoncé la création de comptes officiels d’IA sur Facebook et Instagram (Westfall, 2024), ce qui risque de compliquer davantage les interactions en ligne.
Le contenu généré par l’IA peut également avoir des répercussions très personnelles. Des gens utilisent l’IA pour créer de fausses images sexuellement explicites, que ce soit d’une célébrité ou d’une personne quelconque. Dans les écoles, ces images sont devenues un autre moyen d’intimidation pour les adolescents, et les conséquences sont dévastatrices (Cochran, 2024; Tech News Briefing, 2024). Dans certains cas, des victimes ont été punies par leur école parce que la direction croyait que les images étaient réelles (Cochran, 2024). S’il était déjà possible de fabriquer de fausses images explicites, l’essor de l’IA a rendu la chose d’une facilité déconcertante (Pfefferkorn, 2024). Malheureusement, la loi n’arrive pas à suivre les avancées de l’IA et il n’y a pas actuellement de voie vers la justice. En attendant, ce fléau touche de manière disproportionnée les femmes et les filles (Schmunk, 2024). L’intimidation au moyen d’hypertrucages ne se limite pas au contenu explicite. De fausses images peuvent aussi être utilisées pour mettre quelqu’un dans n’importe quelle position compromettante ou embarrassante. L’intimidation touche principalement les jeunes, et cet aspect de l’IA est donc particulièrement important pour les jeunes générations. De plus, comme ce sont majoritairement les adultes qui traitent les cas d’intimidation, il est impératif qu’ils aient les connaissances et les compétences nécessaires pour le faire ainsi que le pouvoir légal d’agir, le cas échéant.
De façon générale, les jeunes sont particulièrement vulnérables à tout changement dans Internet, positif ou négatif, car ils participent activement à l’écosystème numérique. Au Canada, plus de 99 % des jeunes (de 15 à 24 ans) utilisent Internet quotidiennement (Statistique Canada, 2022) et les adolescents passent désormais en moyenne 4,8 heures par jour sur les médias sociaux (Jonathan Rothwell, 2023). On croit souvent que les jeunes sont plus à l’aise avec les avancées technologiques que les générations plus âgées. Toutefois, il n’est pas certain qu’ils soient plus aptes à repérer le contenu généré par l’IA. Bien que les jeunes déclarent rencontrer plus fréquemment l’IA sur les médias sociaux et se disent plus confiants dans leur capacité à la reconnaître, de nombreux facteurs peuvent expliquer ces données (de Léon, 2024). Il est important de les comprendre, car le fait de pouvoir détecter le contenu généré par l’IA permettrait au moins d’atténuer certains préjudices.
Les jeunes seront largement touchés par les changements que la popularisation de l’IA entraînera dans le système d’éducation. Il existe une crainte persistante qu’en l’absence de normes claires et strictes relatives à l’utilisation de l’IA en éducation, celle-ci perde de sa valeur (Rowsell, 2024). S’il n’y a pas de mécanismes de détection précis et que les normes relatives à l’utilisation de l’IA ne sont pas appliquées, les employeurs peuvent supposer que l’utilisation d’outils génératifs est répandue, ce qui peut diminuer la valeur d’un diplôme. Malheureusement, selon un texte préliminaire récent, les outils de détection de l’IA ne seraient précis que dans 39 % des cas, un chiffre inquiétant étant donné que ces outils sont utilisés pour justifier le signalement d’étudiants pour mauvaise conduite (Perkins, 2024). Ainsi, non seulement nous ne disposons pas d’un moyen précis de détecter l’IA, mais les étudiants peuvent également être accusés à tort. La pression exercée sur eux est forte. Il n’est pas toujours facile de résister à la facilité, mais prendre la voie rapide, c’est se priver de l’occasion de véritablement acquérir des compétences utiles. Si les établissements d’enseignement ne mettent pas en place des politiques claires et cohérentes, des problèmes liés à la protection des étudiants et à l’équité peuvent survenir, notamment dans les cas de plagiat. Bien que les écoles disposent de lignes directrices claires sur le plagiat, toutes ne tiennent pas compte de l’utilisation des plateformes d’IA.
L’utilisation inappropriée de l’IA est également observée dans la recherche. Les faux rapports de recherche se multiplient, aggravant la mésinformation et minant la confiance du public dans la science. Dans un milieu où l’expression « publier ou périr » résonne fréquemment, il n’est pas surprenant que certains se tournent vers l’IA générative pour fabriquer des données ou rédiger des articles entiers. Cette pratique nuit à la recherche scientifique véritable et peut accélérer la méfiance à l’égard de la science et des instituts scientifiques. Les jeunes ne peuvent se permettre une rupture entre la science et la société, en particulier alors que nous sommes face à des problèmes mondiaux, comme le changement climatique et la hausse des maladies évitables par la vaccination, qui atteignent une masse critique.
Puisque l’IA est là pour rester, nous invitons toute la société à mener une réflexion permanente afin que nos valeurs et nos priorités communes soient reconnues et que les politiques restent souples et adaptables dans ce paysage en évolution rapide.
Les GML sont entraînés au moyen d’ensembles de données imparfaits, ce qui peut entraîner des biais, des inexactitudes et des évaluations incomplètes. Il est donc essentiel que des êtres humains formés surveillent la mise en œuvre de l’IA.
Pendant la pandémie de COVID-19, alors que l’on espérait que les outils d’IA pourraient servir à améliorer l’état de santé des patients, aucun d’entre eux n’a donné de résultat marqué après une utilisation en milieu hospitalier (Heaven, 2021). Par exemple, un outil d’IA a reconnu la police de caractères utilisée par les hôpitaux où le nombre de cas était plus élevé et a ciblé cette police en tant qu’indicateur de risque. Bien sûr, il s’agit d’une erreur qu’on peut facilement corriger, mais, pour ce faire, il faut d’abord la détecter et la comprendre. Autre exemple : un algorithme de détection de la tuberculose a fait monter le score des radiographies prises au moyen d’appareils portables (Harris, 2019). Compte tenu de la mise en œuvre accrue de ces outils d’IA dans le domaine des soins de santé, la surveillance et la transparence seront d’une importance capitale.
Dans les modèles d’IA médicale, le manque de données diversifiées et représentatives sur les patients risque de conduire à des résultats inexacts pour les patients issus de groupes marginalisés, comme les femmes et les personnes de couleur, qui sont déjà susceptibles de souffrir d’iniquités en santé (Mayo Clinic Press Editors, 2024; Hamzelou, 2023). Cela s’est avéré avec un algorithme d’IA approuvé par la FDA pour l’analyse des mammographies, qui était plus susceptible de générer de faux positifs pour les patientes noires et âgées (Nguyen et Ren, 2024). L’étude n’a pas évalué l’exactitude ni les faux négatifs, ce qui laisse en suspens des questions préoccupantes sur le fait qu’un algorithme approuvé par la FDA comporte non seulement des biais, mais que ces derniers peuvent faire passer l’algorithme à côté d’un diagnostic de cancer. Même si l’exactitude reste inchangée, un taux accru de faux positifs a tout de même des conséquences négatives sur les patientes, notamment des tests inutiles et une augmentation des procédures médicales, et exerce des pressions accrues sur le système de santé. Mis ensemble, ces éléments peuvent aggraver les disparités existantes dans les soins de santé.
Bien qu’on ait réussi en partie à réduire les tâches quotidiennes de moindre importance, selon certains rapports, des centres médicaux ont constaté que des outils de transcription fondés sur l’IA inventaient des phrases dans plus de la moitié des cas d’utilisation (Burke et Schellmann, 2024). Ce problème rappelle la nécessité d’une surveillance humaine et fait même en sorte d’augmenter la charge de travail des médecins, puisqu’ils doivent revoir chaque transcription.
Cela ne signifie pas que l’IA ne pourra jamais accomplir ces tâches. L’IA s’améliore à toute vitesse et il est facile d’imaginer un avenir où les algorithmes d’IA amélioreront véritablement le processus de diagnostic de nombreuses maladies. Toutefois, compte tenu de la rapidité des progrès, il sera essentiel de faire preuve de prudence, d’assurer une surveillance humaine et de tenir compte des données utilisées pour entraîner ces systèmes sur de longues périodes. Il ne sert à rien de surestimer les possibilités si on omet les inconvénients potentiels, et le fait qu’une surveillance par des experts reste nécessaire.
Confidentialité, vie privée et propriété intellectuelle
Les outils d’IA générative comme ChatGPT soulèvent des questions sur la propriété et l’attribution des résultats créatifs. L’absence de lignes directrices claires en matière de propriété intellectuelle touche notamment les médias, la conception ou encore le développement de logiciels, des secteurs où les jeunes sont souvent les premiers utilisateurs et des innovateurs. Cependant, les discussions sur les enjeux relatifs à l’art et à la littérature sont peu fréquentes, et c’est une lacune importante compte tenu de l’importance de ces disciplines dans la culture canadienne et de leur rôle dans les économies du Québec et de la Colombie-Britannique (Épisode 26 : À qui appartiennent les créations générées par l’intelligence artificielle (et pourquoi vous devriez vous en préoccuper)?, 2023). Selon les lois actuelles, l’art généré par l’IA n’est pas protégé par le droit d’auteur. Pourtant, certains diront que la créativité de l’artiste est nécessaire à la génération d’œuvres pertinentes par l’IA. Il semble y avoir une zone grise, car on pourrait imaginer un monde où l’IA serait vue comme une ressource ou une fourniture artistique, au même titre que la peinture qu’un artiste achète pour peindre un tableau. Cependant, la capacité de l’IA générative à réaliser des portraits et des tableaux entiers en quelques instants en fait un outil bien plus puissant que n’importe quel matériel d’art offert auparavant. C’est pourquoi nous recommandons de considérer l’IA comme un collaborateur artistique et d’accorder un certain crédit aux personnes qui créent les logiciels d’IA qui sont utilisés en art.
Au Canada, les chercheurs qui se consacrent à l’IA et les entreprises d’IA, bien qu’ils soient de classe mondiale, sont souvent confrontés à des difficultés liées à la protection de leurs innovations. Par exemple, les entreprises qui développent des produits ou des logiciels basés sur l’IA risquent de voir leurs algorithmes ou leurs ensembles de données exclusifs détournés par de plus grandes entreprises internationales. Pour contrer cela, il faut moderniser les cadres de propriété intellectuelle du Canada afin qu’ils prennent en compte le contenu généré par l’IA et veiller à ce que nos créateurs et nos entreprises soient protégés sur un marché mondial qui évolue rapidement. Le Canada pourrait aussi étendre son leadership dans ce domaine en collaborant avec des partenaires internationaux, notamment les États-Unis, pour harmoniser les lois sur la propriété intellectuelle et promouvoir une approche équilibrée qui favorise l’innovation tout en protégeant les droits des créateurs. Compte tenu de l’influence des arts créatifs sur la culture canadienne, il est impératif d’avoir des lois cohérentes en matière de propriété intellectuelle qui permettront de relever les défis mentionnés ci-dessus. Il faut aussi adopter une approche proactive à l’égard du droit de la propriété intellectuelle et de l’IA.
La croissance exponentielle des données nécessaires à l’entraînement des systèmes d’IA soulève d’importantes préoccupations quant à la protection de la vie privée des utilisateurs, en particulier les jeunes, qui contribuent de manière importante aux plateformes numériques. Les pratiques de collecte de données sont peu réglementées, et des internautes consentent sans le savoir à des méthodes de collecte de données qui compromettent leurs renseignements personnels. Des politiques de gouvernance des données transparentes et complètes sont essentielles pour protéger la vie privée des utilisateurs, surtout devant la hausse croissante du nombre d’atteintes à la vie privée et de cas d’utilisation des données contraire à l’éthique. Les pratiques en matière de données d’entreprises comme Google, Meta et TikTok ont attiré l’attention. En 2023, TikTok a été accusée d’avoir transmis de manière inappropriée aux autorités chinoises des données sensibles sur des utilisateurs (Fung, 2023). Ces façons de faire exacerbent les préoccupations relatives au consentement et à la propriété, en particulier pour les jeunes, qui ne sont souvent pas conscients de la manière dont leurs données personnelles sont exploitées. Des groupes de défense, comme OpenMedia, ont sonné l’alarme sur ces questions, appelant à la modernisation de la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) du Canada afin qu’elle traite des nouveaux défis posés par la collecte et l’utilisation de données par l’IA (OpenMedia, 2021).
La possibilité que les systèmes d’IA perpétuent, et même aggravent, les inégalités sociétales soulève des craintes relatives au profilage social et à la discrimination. Cet enjeu se pose particulièrement dans les systèmes utilisés pour la surveillance, la publicité ciblée et le recrutement, qui peuvent être influencés par des algorithmes biaisés qui ont une incidence disproportionnée sur les groupes marginalisés. L’essor de l’IA dans ces secteurs a donné lieu à des dilemmes éthiques concernant le consentement, l’autonomie et le renforcement des inégalités systémiques. À la suite de changements politiques, notamment l’élection pour un second mandat du président Trump et les décrets subséquents qui ont cherché à limiter les initiatives en matière de diversité, d’équité et d’inclusion et à stopper l’action positive (Maison-Blanche, 2025), le risque que l’IA serve à enraciner la discrimination s’est accru. La mise en œuvre de l’IA dans des domaines aussi sensibles que le recrutement et l’application de la loi pourrait accroître les clivages raciaux et sociaux. Des études ont montré que les systèmes d’IA peuvent produire des résultats biaisés et discriminatoires et même donner lieu à des décisions secrètement racistes influencées par des facteurs tels que le dialecte et l’origine ethnique (Hofmann, 2024). Il est donc important que les technologies d’IA soient développées et déployées en tenant compte de considérations éthiques, sans quoi elles peuvent perpétuer des préjugés sociétaux préjudiciables.
Par ailleurs, les technologies de surveillance basées sur l’IA, par exemple les systèmes de reconnaissance faciale utilisés par des entreprises comme Clearview AI, ont suscité des réactions négatives dans le monde entier en raison de leur caractère invasif et des risques d’atteintes à la vie privée qu’elles présentent. Au Canada, Clearview AI a été confrontée à des litiges lorsqu’il a été découvert qu’elle avait récupéré sans consentement des milliards d’images accessibles au public sur les plateformes de médias sociaux (Commissariat à la protection de la vie privée, 2021). Non seulement cette façon de recueillir des données contrevient aux lois sur la protection des renseignements personnels, mais elle souligne la nécessité d’une surveillance et de mesures réglementaires strictes afin de protéger le droit à la vie privée des individus. Comme les jeunes sont les plus actifs dans le monde numérique, ils sont particulièrement vulnérables à ces pratiques invasives. Des groupes de défense tels que Privacy International au Royaume-Uni appellent à une réglementation plus sévère de l’utilisation de l’IA dans les espaces publics ainsi que du maintien de l’ordre prédictif et cherchent à trouver l’équilibre délicat entre la promotion de l’innovation et la protection de la vie privée (Privacy International, s.d.).
Conclusion
Il est primordial d’adopter une approche équilibrée au moment d’examiner le rôle de l’IA dans la société. Les nouvelles technologies donnent souvent lieu à des attentes et à des craintes exagérées, et l’IA ne fait pas exception. Bien qu’elle offre un fort potentiel de répercussions positives, il importe de ne pas négliger les risques et les défis qu’elle pose. L’histoire nous a montré qu’au début, les progrès technologiques, par exemple les téléphones intelligents et les ordinateurs personnels, font souvent craindre une destruction générationnelle. Pourtant, bien qu’ils aient sans conteste eu des conséquences négatives, leur influence globale a été moins catastrophique que prévu. De même, l’IA, lorsqu’elle est utilisée de manière réfléchie, a le pouvoir d’améliorer les compétences et la créativité humaines, plutôt que de les remplacer. De nombreuses universités intègrent désormais l’IA dans leurs programmes d’études et les membres du Conseil jeunesse l’ont adoptée comme outil de recherche et d’innovation, en veillant à ce qu’elle soit utilisée de manière responsable et dûment citée. Cela montre le potentiel qu’a l’IA de bonifier, et non de remplacer, l’ingéniosité humaine, et de favoriser un avenir où la technologie et l’humanité coexistent et avancent ensemble.
Pour relever les défis que pose l’IA, nous ne devons pas craindre ses complexités. En faisant la promotion d’un développement et d’une utilisation responsables, nous pouvons créer un monde où l’IA a sa place et où chacun est responsabilisé, un monde qui soutient la recherche éthique et contribue de manière positive à l’ensemble de la société. Ce parcours commence avec des jeunes informés, mobilisés et proactifs, qui peuvent tracer la voie d’une IA équitable, durable et sûre.
Références
- Abalkina, A., Aquarius, R., Bik, E., Bimler, D., Bishop, D., Byrne, J., Cabanac, G., Day, A., Labbé, C. et Wise, N. (2025). ‘Stamp out paper mills’ — science sleuths on how to fight fake research. Nature, 637 (8048), p. 1047-1050. https://doi.org/10.1038/d41586-025-00212-1
- Agence internationale de l’énergie. (12 juillet 2023). Data centres and data transmission networks - Tracking Clean Energy Progress. AIE. https://www.iea.org/reports/tracking-clean-energy-progress-2023
- AI tools promise to transform drug discovery — but face challenges, Nature, vol. 621, no 7979, octobre 2023, p. 549-551, https://doi.org/10.1038/d41586-023-03172-6
- Ali, O., Murray, P. A., Momin, M., Dwivedi, Y. K. et Malik, T. (2024). The Effects of Artificial Intelligence Applications in Educational Settings: Challenges and Strategies. Technological Forecasting and Social Change, 199, 123076. https://doi.org/10.1016/j.techfore.2023.123076
- Amadeo, R. (4 janvier 2024). Google search is losing the fight with SEO spam, study says. Ars Technica. Consulté à l’adresse https://arstechnica.com/gadgets/2024/01/google-search-is-losing-the-fight-with-seo-spam-study-says/
- Associated Press. (7 janvier 2025). AI is a game changer for students with disabilities. Schools are still learning to harness it. CTVNews. https://www.ctvnews.ca/sci-tech/article/ai-is-a-game-changer-for-students-with-disabilities-schools-are-still-learning-to-harness-it/
- Babu, M., Lautman, Z., Lin, X., Sobota, M. H. B. et Snyder, M. P. (2023). Wearable devices: Implications for precision medicine and the future of health care. Annual Review of Medicine. https://pubmed.ncbi.nlm.nih.gov/37983384
- Ball, J. (15 mai 2024). The dead internet theory and AI’s effects on the future of the web. Prospect. Consulté à l’adresse https://www.prospectmagazine.co.uk/ideas/technology/internet/67864/dead-internet-theory-ai
- Bibbins-Domingo, K., et Helman, A. (dir.) (avec le Committee on Improving the Representation of Women and Underrepresented Minorities in Clinical Trials and Research, le Committee on Women in Science, Engineering, and Medicine, Policy and Global Affairs et la National Academies of Sciences, Engineering, and Medicine). (2022). Improving Representation in Clinical Trials and Research: Building Research Equity for Women and Underrepresented Groups. The National Academies Press. https://doi.org/10.17226/26479
- Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P., ... et Amodei, D. (2020). Language models are few-shot learners. Advances in Neural Information Processing Systems, 33, p. 1877-1901. 1457c0d6bfcb4967418bfb8ac142f64a-Paper.pdf
- Burke, G. et Schellman, H. (26 octobre 2024). Researchers say an AI-powered transcription tool used in hospitals invents things no one ever said. AP News. https://apnews.com/article/ai-artificial-intelligence-health-business-90020cdf5fa16c79ca2e5b6c4c9bbb14
- Cabinet du premier ministre du Canada. (23 février 2021). Feuille de route pour un partenariat renouvelé États-Unis–Canada. Gouvernement du Canada. Consulté à l’adresse https://www.pm.gc.ca/fr/nouvelles/declarations/2021/02/23/feuille-de-route-partenariat-renouvele-etats-unis-canada
- Chauhan, N. K. et Singh, K. (2018). A Review on Conventional Machine Learning vs Deep Learning. 2018 International Conference on Computing, Power and Communication Technologies (GUCON), p. 347-352. https://doi.org/10.1109/GUCON.2018.8675097
- Cinalioglu, K., Elbaz, S., Sekhon, K., Su, C.-L., Soham R. et Sekhon, H. (2023). Exploring Differential Perceptions of Artificial Intelligence in Health Care Among Younger Versus Older Canadians: Results From the 2021 Canadian Digital Health Survey. 25, e38169. https://doi.org/10.2196/38169
- Cochran, L. (12 janvier 2024). Deepfake nudes, school bullying, and AI cyberbullying. The Hill. Consulté à l’adresse https://thehill.com/homenews/education/4703396-deepfake-nudes-school-bullying-ai-cyberbullying/
- Coffey, L. (9 février 2024). Professors Cautious of Tools to Detect AI-Generated Writing. Inside Higher Ed. https://www.insidehighered.com/news/tech-innovation/artificial-intelligence/2024/02/09/professors-proceed-caution-using-ai
- Commissariat à la protection de la vie privée du Canada. (3 février 2021). Le commissaire à la protection de la vie privée s’inquiète du risque d’atteinte au droit à la vie privée découlant de l’utilisation de l’IA. Commissariat à la protection de la vie privée du Canada. https://www.priv.gc.ca/fr/nouvelles-du-commissariat/nouvelles-et-annonces/2021/nr-c_210203/
- Constantino, T. (13 septembre 2024). AI Tools Fuel Rise Of Fake Research Papers On Google Scholar. Forbes. https://www.forbes.com/sites/torconstantino/2024/09/13/ai-tools-fuel-rise-of-fake-research-papers-on-google-scholar/
- Davalos, J. et Yin, L. (18 octobre 2024). AI Detectors Falsely Accuse Students of Cheating—With Big Consequences. Bloomberg.com. https://www.bloomberg.com/news/features/2024-10-18/do-ai-detectors-work-students-face-false-cheating-accusations
- Davenport, T. et Kalakota, R. (1er juin 2019). The potential for artificial intelligence in healthcare. Future Healthcare Journal. https://doi.org/10.7861/futurehosp.6-2-94
- David, G. (10 juillet 2024). 3 ways automation and AI advance patient-centered care. Nordic Global. Consulté le 13 janvier 2025 à l’adresse https://www.nordicglobal.com/blog/3-ways-automation-and-ai-advance-patient-centered-care
- De Léon, E. (17 mai 2024). Mind the A(I)ge gap? Emerging generational fault lines in public opinion on artificial intelligence and automated decision systems. AlgoSoc. Consulté à l’adresse https://algosoc.org/results/mind-the-aige-gap-emerging-generational-fault-lines-in-public-opinion-on-artificial-intelligence-and-automated-decision-systems
- Deloitte Canada. (2023). Rapport national sur l’IA au Canada 2023. Deloitte. Consulté à l’adresse https://www2.deloitte.com/content/dam/Deloitte/ca/Documents/press-releases/ca-national-ai-report-2023-aoda-fr.pdf
- Département du commerce des États-Unis. (Janvier 2025). Biden-Harris administration announces regulatory framework for responsible diffusion. Bureau de l’industrie et de la sécurité. Consulté à l’adresse https://www.bis.gov/press-release/biden-harris-administration-announces-regulatory-framework-responsible-diffusion-advanced-artificial
- Di Placido, D. (16 janvier 2024). The Dead Internet Theory, Explained. Forbes. Consulté à l’adresse https://www.forbes.com/sites/danidiplacido/2024/01/16/the-dead-internet-theory-explained/
- Dowden H. et Munro J. (2019). Trends in clinical success rates and therapeutic focus. Nature Reviews Drug Discovery. 18, p. 495-496. https://www.nature.com/articles/d41573-019-00074-z
- Dufour, N., Pathak, A., Samangouei, P., Hariri, N., Deshetti, S., Dudfield, A., Guess, C., Hernández Escayola, P., Tran, B., Babakar, M. et Bregler, C. (2024). AMMeBa: A large-scale survey and dataset of media-based misinformation in-the-wild (version 2). arXiv. https://arxiv.org/pdf/2405.11697
- Épisode 26 : À qui appartiennent les créations générées par l’intelligence artificielle (et pourquoi vous devriez vous en préoccuper)? (1er mars 2023). ised-isde.canada.ca. https://ised-isde.canada.ca/site/office-propriete-intellectuelle-canada/fr/episode-26-qui-appartiennent-creations-generees-lintelligence-artificielle-pourquoi-vous-devriez
- Fung, B. (24 mars 2023). TikTok collects a lot of data. But that’s not the main reason officials say it’s a security risk. CNN. https://www.cnn.com/2023/03/24/tech/tiktok-ban-national-security-hearing
- Gajjar, D. (23 janvier 2024). Artificial intelligence (AI) glossary. POST. https://post.parliament.uk/artificial-intelligence-ai-glossary/
- Guzman, A. L. et Lewis, S. C. (2020). Artificial intelligence and communication: A Human–Machine Communication research agenda. New Media & Society, 22(1), p. 70-86. https://doi.org/10.1177/1461444819858691.
- Hale, R. (22 janvier 2025). College students say false AI cheating allegations are harming their mental health. USA Today. https://www.usatoday.com/story/life/health-wellness/2025/01/22/college-students-ai-allegations-mental-health/77723194007/
- Harding, S. (9 octobre 2024). Fake restaurant tips on Reddit: A reminder of Google AI’s overview’s inherent flaws. Ars Technica. Consulté à l’adresse https://arstechnica.com/gadgets/2024/10/fake-restaurant-tips-on-reddit-a-reminder-of-google-ai-overviews-inherent-flaws/
- Harris, R. (1er avril 2019). How Can Doctors Be Sure A Self-Taught Computer Is Making The Right Diagnosis? NPR. https://www.npr.org/sections/health-shots/2019/04/01/708085617/how-can-doctors-be-sure-a-self-taught-computer-is-making-the-right-diagnosis
- Harvard Medical School. (27 septembre 2023). How generative AI is transforming medical education. Harvard Medicine. https://magazine.hms.harvard.edu/articles/how-generative-ai-transforming-medical-education
- Heaven, W. D. (30 juillet 2021). Hundreds of AI tools have been built to catch covid. None of them helped. MIT Technology Review. https://www.technologyreview.com/2021/07/30/1030329/machine-learning-ai-failed-covid-hospital-diagnosis-pandemic/
- Hern, A. (30 avril 2024). Techscape: Artificial intelligence bots, the dead internet theory, and AI’s rise. The Guardian. Consulté à l’adresse https://www.theguardian.com/technology/2024/apr/30/techscape-artificial-intelligence-bots-dead-internet-theory
- Hickman, S., Baxter, G. et Gilbert, F. J. (26 mars 2021). Adoption of artificial intelligence in breast imaging: evaluation, ethical constraints and limitations. British Journal of Cancer. https://pmc.ncbi.nlm.nih.gov/articles/PMC8257639/?utm_source=chatgpt.com
- Hofmann, V., Kalluri, P. R., Jurafsky, D. et al. AI generates covertly racist decisions about people based on their dialect. Nature. 633, p. 147–154 (2024). https://doi.org/10.1038/s41586-024-07856-5
- Hou, X., Wang, B., Hu, W., Yin, L. et Wu, H. (2019). SolarNet: A deep learning framework to map solar power plants in China from satellite imagery. arXiv. Consulté à l’adresse https://arxiv.org/abs/1912.03685
- Indigenous Partnerships Success Showcase. (2023). Indigenous Partnerships Success Showcase. Indigenous Partnerships Success Showcase. https://www.indigenoussuccess.ca
- Insilico Medicine. (2022). Insilico enters phase 1 trials with the first AI-designed drug for IPF. Consulté le 13 janvier 2025 à l’adresse https://insilico.com/phase1
- Institut canadien d’information sur la santé. (2022). Tendances des dépenses nationales de santé, 2022. Institut canadien d’information sur la santé. https://www.cihi.ca/fr/tendances-des-depenses-nationales-de-sante
- Johnson, Alistair E. W., Stone, David J., Celi, Leo A., Pollard, Tom J. The MIMIC Code Repository: enabling reproducibility in critical care research, Journal of the American Medical Informatics Association, vol. 25, no 1, janvier 2018, p. 32-39, https://doi.org/10.1093/jamia/ocx084
- Jones, A. M. (27 janvier 2025). What is DeepSeek? The Chinese OpenAI rival sparking chaos in tech markets. CBC News. https://www.cbc.ca/news/business/deepseek-ai-startup-1.7442382
- Khan, A. A., Laghari, A. A. et Awan, S. A. (2021). Machine learning in computer vision: a review. EAI Endorsed Transactions on Scalable Information Systems, 8(32), e4-e4.
- Kiumarsi, B., Lewis, F. L., Modares, H., Karimpour, H. et Naghibi-Sistani, M. B. (2017). Optimal and autonomous control using reinforcement learning: A survey. IEEE Transactions on Neural Networks and Learning Systems, 29(6), p. 2042-2062.
- Koetsier, J. (2 décembre 2024). Canada, an Early A.I. Hub, Fights to Stay Relevant. Observer. Consulté à l’adresse https://observer.com/2024/12/canada-early-ai-hub/
- Kristiansen, T. B., Kristensen, K., Uffelmann, J. et Brandslund, I. (22 juillet 2022). Erroneous data: The Achilles’ heel of AI and personalized medicine. Frontiers in Digital Health. https://doi.org/10.3389/fdgth.2022.862095
- Krizhevsky, A., Sutskever, I. et Hinton, G. E. (2012). ImageNet classification with deep convolutional neural networks. Advances in Neural Information Processing Systems, 25, p. 1097-1105.
- Leber A., Hontecillas, R., Abedi, V., Tubau-Juni, N., Zoccoli-Rodriguez, V., Stewart, C., Bassaganya-Riera, J. Modeling new immunoregulatory therapeutics as antimicrobial alternatives for treating Clostridium difficile infection. Artif Intell Med. Mai 2017. 78, p. 1-13. doi : 10.1016/j.artmed.2017.05.003. Epub 9 mai 2017. PMID : 28764868.
- Lenharo, M. (2024). Google AI has better bedside manner than human doctors — and makes better diagnoses. Nature. https://doi.org/10.1038/d41586-024-00099-4
- Li, W., Liu, H., Yang, P., Xie, W. (2016). Supporting Regularized Logistic Regression Privately and Efficiently. PLOS ONE. 11(6): e0156479. https://doi.org/10.1371/journal.pone.0156479
- Maison-Blanche. (20 janvier 2025). Ending radical and wasteful government DEI programs and preferencing. Maison-Blanche. https://www.whitehouse.gov/presidential-actions/2025/01/ending-radical-and-wasteful-government-dei-programs-and-preferencing/
- Malhem, S., Ruchika Kohli, N. et Pfeifer, L. (5 octobre 2022). 3 ways global youth is securing responsible AI. Forum économique mondial. https://www.weforum.org/stories/2022/10/how-the-global-youth-is-securing-responsible-ai/
- Mason, J., Morrison, A., Visintini, S., Sinclair, A., Quay, T. et Dunfield, L. (2018). An Overview of Clinical Applications of Artificial Intelligence. CADTH Issues in Emerging Health Technologies. https://www.cda-amc.ca/sites/default/files/pdf/eh0070_overview_clinical_applications_of_AI.pdf
- Mayo Clinic Press Editors. (27 mars 2024). AI in healthcare: The future of patient care and health management. Mayo Clinic Press. https://mcpress.mayoclinic.org/healthy-aging/ai-in-healthcare-the-future-of-patient-care-and-health-management/
- McKinney, S. M., Sieniek, M., Godbole, V., Godwin, J., Antropova, N., Ashrafian, H., … Shetty, S. (1er janvier 2020). International evaluation of an AI system for breast cancer screening. Nature, 577(7788), p. 89-94. https://doi.org/10.1038/s41586-019-1799-6
- Mehdi, T. et Frenette, M. (25 septembre 2024). Cet article fournit des estimations expérimentales du nombre et du pourcentage de travailleurs au Canada qui sont susceptibles d’être exposés à une transformation de l’emploi liée à l’IA, basées sur l’indice d’exposition professionnelle à l’IA ajusté en fonction de la complémentarité. statcan.gc.ca. Gouvernement du Canada, Statistique Canada. https://www150.statcan.gc.ca/n1/pub/36-28-0001/2024009/article/00004-fra.htm
- Menon, D. et Shilpa, K. (2023). “Hey, Alexa” “Hey, Siri”, “OK Google” ….” exploring teenagers’ interaction with artificial intelligence (AI)-enabled voice assistants during the COVID-19 pandemic. International Journal of Child-Computer Interaction, 38, 100622. https://doi.org/10.1016/j.ijcci.2023.100622
- Milmo, D. (2 juillet 2024). Google’s emissions climb nearly 50% in five years due to AI energy demand. The Guardian. Consulté à l’adresse https://www.theguardian.com/technology/article/2024/jul/02/google-ai-emissions
- Ministère de la Défense nationale. (2024). Annexe C : Le plan de modernisation du NORAD du Canada. Gouvernement du Canada. Consulté à l’adresse https://www.canada.ca/fr/ministere-defense-nationale/organisation/rapports-publications/nord-fort-libre-2024/annexe-c-plan-modernisation-norad-canada.html
- MIT Technology Review Insights. (16 novembre 2023). The future of AI and sustainability: Insights on AI innovation and its environmental impact. MIT Technology Review. Consulté à l’adresse https://wp.technologyreview.com/wp-content/uploads/2023/11/MIT_Hitachi_FNL_111623.pdf?utm_source=pdf&utm_medium=all_platforms&utm_campaign=insights_ebrief&utm_term=11.27.23&utm_content=insights.report
- Mittermaier, M., Raza, M. M. et Kvedar, J. C. (14 juin 2023). Bias in AI-based models for medical applications: challenges and mitigation strategies. npj Digital Medicine. https://doi.org/10.1038/s41746-023-00858-z
- Morgan, F. E., Boudreaux, B., Lohn, A. J., Ashby, M., Curriden, C., Klima, K. et Grossman, D. (2020). Military applications of artificial intelligence: Ethical concerns in an uncertain world. RAND Corporation. Consulté à l’adresse https://www.rand.org/pubs/research_reports/RR3139-1.html
- Multiple-mini interviews (MMI). (2022). Mcmaster.ca. https://studentsuccess.mcmaster.ca/multiple-mini-interviews-mmi/
- Mumtaz, H., Saqib, M., Jabeen, S., Muneeb, M., Mughal, W., Sohail, H., Safdar, M. E., Mehmood, Q., Khan, M. A. et Ismail, S. M. (2 octobre 2023). Exploring alternative approaches to precision medicine through genomics and artificial intelligence – a systematic review. Frontiers in Medicine. https://doi.org/10.3389/fmed.2023.1227168
- Nazer, L., Zatarah, R., Waldrip, S., Ke, J. X. C., Moukheiber, M., Khanna, A. K., Hicklen, R. S., Moukheiber, L., Moukheiber, D., Ma, H. et Mathur, P. (22 juin 2023). Bias in artificial intelligence algorithms and recommendations for mitigation. PLOS Digital Health. https://doi.org/10.1371/journal.pdig.0000278
- Nguyen, D. L., Ren, Y., Jones, T. M., Thomas, S. M., Lo, J. Y. et Grimm, L. J. (2024). Patient Characteristics Impact Performance of AI Algorithm in Interpreting Negative Screening Digital Breast Tomosynthesis Studies. Radiology, 311(2), e232286. https://doi.org/10.1148/radiol.232286
- Nobel Prize. (2024). Press release: The Nobel Prize in Physics 2024. Consulté à l’adresse https://www.nobelprize.org/prizes/physics/2024/press-release/
- Noorbakhsh-Sabet, N., Zand, R., Zhang, Y. et Abedi, V. (2019). Artificial intelligence transforms the future of health care. The American Journal of Medicine, 132(7), p. 795-801.
- OntarioMD. (2024). AI scribe technology shows promising results. Consulté le 14 janvier 2025 à l’adresse https://www.ontariomd.ca/pages/ai-scribes-promising-results.aspx
- OpenMedia. (17 novembre 2021). OpenMedia calls for government to introduce improved privacy law reform on one-year anniversary of failed bill. OpenMedia. https://openmedia.org/press/item/openmedia-calls-for-government-to-introduce-improved-privacy-law-reform-on-one-year-anniversary-of-failed-bill
- Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO). (2021). Recommandation sur l’éthique de l’intelligence artificielle. UNESCO. https://unesdoc.unesco.org/ark:/48223/pf0000381137_fre
- Orland, K. (3 mai 2024). Google’s AI overview can give false, misleading, and dangerous answers. Ars Technica. Consulté à l’adresse https://arstechnica.com/information-technology/2024/05/googles-ai-overview-can-give-false-misleading-and-dangerous-answers/
- Patton, M. J. et Liu, V. X. (2023). Predictive Modeling Using Artificial Intelligence and Machine Learning Algorithms on Electronic Health Record Data: Advantages and Challenges. Critical Care Clinics, 39(4), 647-673.
- Pearson, J. (26 mars 2024). Artificial intelligence and misinformation: The dangers of unverified sources. CBC News. Consulté à l’adresse https://www.cbc.ca/news/science/artificial-intelligence-misinformation-google-1.7217275
- Perkins, M., Roe, J., Vu, B. H., Postma, D., Hickerson, D., McGaughran, J. et Khuat, H. Q. (2024). Simple techniques to bypass GenAI text detectors: implications for inclusive education. International Journal of Educational Technology in Higher Education, 21(1), 53. https://doi.org/10.1186/s41239-024-00487-whttps://doi.org/10.1186/s41239-024-00487-w
- Pfefferkorn, R. (17 mars 2024). Teens are spreading deepfake nudes of one another: It’s no joke. Scientific American. Consulté à l’adresse https://www.scientificamerican.com/article/teens-are-spreading-deepfake-nudes-of-one-another-its-no-joke/
- Privacy International. (s.d.). The end of privacy in public. Privacy International. Consulté à l’adresse https://privacyinternational.org/campaigns/end-privacy-public
- Quazi, S. (15 juin 2022). Artificial intelligence and machine learning in precision and genomic medicine. Medical Oncology. https://doi.org/10.1007/s12032-022-01711-1
- Ramezani, M., Takian, A., Bakhtiari, A., Rabiee, H. R., Fazaeli, A. A. et Sazgarnejad, S. (2023). The application of artificial intelligence in health financing: a scoping review. Cost Effectiveness and Resource Allocation, 21, 83. https://link.springer.com/article/10.1186/s12962-023-00492-2
- Rashid, A. B. et Kausik, M. A. K. (2024). AI Revolutionizing Industries Worldwide: A comprehensive overview of its diverse applications. Hybrid Advances, 7, 100277. https://doi.org/10.1016/j.hybadv.2024.100277
- Robins-Early, N. (14 juillet 2024). AI's 'Oppenheimer moment': Autonomous weapons enter the battlefield. The Guardian. Consulté à l’adresse https://www.theguardian.com/technology/article/2024/jul/14/ais-oppenheimer-moment-autonomous-weapons-enter-the-battlefield
- Ropek, L. (25 octobre 2024). Redditors are trying to poison Google’s AI to keep tourists out of the good restaurants. Gizmodo. Consulté à l’adresse https://gizmodo.com/redditors-are-trying-to-poison-googles-ai-to-keep-tourists-out-of-the-good-restaurants-2000516156
- Rosenblatt, F. (1957). The perceptron: A perceiving and recognizing automaton. Cornell Aeronautical Laboratory. Consulté à l’adresse https://bpb-us-e2.wpmucdn.com/websites.umass.edu/dist/a/27637/files/2016/03/rosenblatt-1957.pdf
- Rothwell, J. (25 mai 2023). Teens spend an average of 3 hours on social media per day. Gallup. Consulté à l’adresse https://news.gallup.com/poll/512576/teens-spend-average-hours-social-media-per-day.aspx
- Rowsell, J. (9 août 2024). Students Worry Overemphasis on AI Could Devalue Education. Inside Higher Ed. https://www.insidehighered.com/news/tech-innovation/artificial-intelligence/2024/08/09/college-students-fear-overreliance-ai-could
- Rumelhart, D. E., Hinton, G. E. et Williams, R. J. (1986). Learning internal representations by error propagation (chapitre 8), dans Rumelhart, D. E., McClelland, J. L. et PDP Research Group (dir.), Parallel distributed processing: Explorations in the microstructure of cognition. (Vol. 1). MIT Press. Consulté à l’adresse https://stanford.edu/~jlmcc/papers/PDP/Volume 1/Chap8_PDP86.pdf
- Schimmele, C. (Mars 2021). Évaluations que font les Canadiens des médias sociaux dans leur vie. Statistique Canada. https://publications.gc.ca/collections/collection_2021/statcan/36-28-0001/CS36-28-0001-2021-3-4-fra.pdf
- Schmunk, R. (22 janvier 2024). Taylor Swift AI images highlight need for better legislation. CBC News. Consulté à l’adresse https://www.cbc.ca/news/canada/taylor-swift-ai-images-highlight-need-for-better-legislation-1.7096094
- Schneier, B. et Sanders, N. (9 janvier 2024). The apocalypse that wasn’t: AI was everywhere in 2024’s elections, but deepfakes and misinformation were only part of the picture. Harvard Kennedy School. Consulté à l’adresse https://ash.harvard.edu/articles/the-apocalypse-that-wasnt-ai-was-everywhere-in-2024s-elections-but-deepfakes-and-misinformation-were-only-part-of-the-picture/s
- Schwalbe, N. et Wahl, B. (2020). Artificial intelligence and the future of global health. The Lancet, 395(10236), p. 1579-1586
- Shaban-Nejad, A., Michalowski, M. et Bianco, S. (dir.). (2022). AI for Disease Surveillance and Pandemic Intelligence: Intelligent Disease Detection in Action (vol. 1013). Springer Nature.
- Shah, B. (3 novembre 2023). How to ensure human touch when recruiting candidates? Assesscandidates.com. https://www.assesscandidates.com/how-to-ensure-human-touch-in-recruitment/
- Silver, D., Huang, A., Maddison, C. J., Guez, A., Sifre, L., Driessche, G. V. D., ... et Hassabis, D. (2016). Mastering the game of Go with deep neural networks and tree search. Nature, 529(7587), p. 484-489.
- Sim, E. (18 avril 2024). Green AI: Considering the environmental impact of AI technologies. Université de la Colombie-Britannique. Consulté le 27 janvier 2025 à l’adresse https://it.ubc.ca/news/green-ai-considering-environmental-impact-ai-technologies
- Singer, C. R. (27 août 2025). Canada work permit: Global talent stream. Immigration.ca. Consulté à l’adresse https://immigration.ca/canada-work-permit-global-talent-stream/
- Sondage canadien sur la santé numérique 2023 | Technologies innovatrices et intelligence artificielle (IA). (s.d.). Regards.infoway-inforoute.ca. https://regards.infoway-inforoute.ca/2023-technologies-innovatrices-et-intelligence-artificielle-ia/
- Statistique Canada. (20 juillet 2022). La moitié des Canadiens de 15 à 24 ans utilisent les médias sociaux plus de trois heures par jour. Statistique Canada. Consulté à l’adresse https://www150.statcan.gc.ca/n1/daily-quotidien/230720/dq230720b-fra.htm
- Stöffelbauer, A. (24 octobre 2023). How Large Language Models Work. Data Science at Microsoft. https://medium.com/data-science-at-microsoft/how-large-language-models-work-91c362f5b78f
- Strubell, E., Ganesh, A. et McCallum, A (2019). Energy and policy considerations for deep learning in NLP. arXiv. https://arxiv.org/abs/1906.02243
- Sun, D., Gao, W., Hu, H. et Zhou, S. Why 90% of clinical drug development fails and how to improve it? Acta Pharm Sin B. Juillet 2022. 12(7), p. 3049-3062. doi : 10.1016/j.apsb.2022.02.002. Epub 2022 Feb 11. PMID : 35865092; PMCID : PMC9293739.
- Tagde, P., Tagde, S., Bhattacharya, T., Tagde, P., Chopra, H., Akter, R., Kaushik, D. et Rahman, M. H. (2 septembre 2021). Blockchain and artificial intelligence technology in e-Health. Environmental Science and Pollution Research. https://doi.org/10.1007/s11356-021-16223-0
- Tech News Briefing. (19 janvier 2024). How AI fake nudes create a frightening reality for teens. Wall Street Journal. Consulté à l’adresse https://www.wsj.com/podcasts/tech-news-briefing/how-ai-fake-nudes-create-a-frightening-reality-for-teens/0e661e2e-cefc-4475-a8ad-0007fc98993d
- Topinka, R. (13 février 2024). The software says my student cheated using AI. They say they’re innocent. Who do I believe? The Guardian. https://www.theguardian.com/commentisfree/2024/feb/13/software-student-cheated-combat-ai
- Truby, J. (2025). DeepSeek’s AI disruption: Implications for global climate policy. Eco-Business. Consulté à l’adresse https://www.eco-business.com/opinion/deepseeks-ai-disruption-implications-for-global-climate-policy/
- Tung, Tran Minh. (2024). Opening Up The Workplace: The Way Ai Tools Are Changing Productivity. Educational Administration: Theory and Practice, 30(3), p. 480-491. https://kuey.net/index.php/kuey/article/download/1300/549.
- Université Queen’s. (9 janvier 2024). Leveraging AI to provide better health care for Canadians. Queen’s Gazette. https://www.queensu.ca/gazette/stories/leveraging-ai-provide-better-health-care-canadians
- U.S. Food and Drug Administration. (11 mai 2023). Apple Watch ECG app and irregular rhythm notification cleared by FDA for clinical use. FDA. https://www.fda.gov/media/178230/download
- Vamathevan, J., Clark, D., Czodrowski, P., Dunham, I., Ferran, E., Lee, G., ... et Zhao, S. (2019). Applications of machine learning in drug discovery and development. Nature Reviews Drug Discovery, 18(6), p. 463-477.
- Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł. et Polosukhin, I. (2017). Attention is all you need. Advances in Neural Information Processing Systems, 30, p. 5998-6008.
- Wang, Y., Liu, C., Hu, W. et al. Economic evaluation for medical artificial intelligence: accuracy vs. cost-effectiveness in a diabetic retinopathy screening case. npj Digital Medicine. 7, 43 (2024). https://doi.org/10.1038/s41746-024-01032-9
- Westfall, C. (2 janvier 2025). Meta opens floodgates on AI-generated accounts on Facebook, Instagram. Forbes. Consulté à l’adresse https://www.forbes.com/sites/chriswestfall/2025/01/02/meta-opens-floodgates-on-ai-generated-accounts-on-facebook-instagram/
- Williamson, S. M. et Prybutok, V. (12 janvier 2024). Balancing Privacy and Progress: A Review of Privacy Challenges, Systemic Oversight, and Patient Perceptions in AI-Driven Healthcare. Applied Sciences. https://doi.org/10.3390/app14020675
- Yan, Q., He, X., Yue, X. et Wang, X. E. (2024). Worse than Random? An Embarrassingly Simple Probing Evaluation of Large Multimodal Models in Medical VQA (arXiv:2405.20421). arXiv. https://doi.org/10.48550/arXiv.2405.20421
- Yang, C. C. (2022). Explainable artificial intelligence for predictive modeling in healthcare. Journal of Healthcare Informatics Research, 6(2), p. 228-239.
- Zdravkova, K., Krasniqi, V., Dalipi, F.et Ferati, M. (2022). Cutting-edge communication and learning assistive technologies for disabled children: An artificial intelligence perspective. Frontiers in Artificial Intelligence, 5. https://doi.org/10.3389/frai.2022.970430