Sélectionnez un document dans le panneau de gauche.
Bibliothèque IA Responsable — Document 1.1

Glossaire critique de l'IA Responsable

45 termes · Définitions sourcées · Débats conceptuels

Public : Tous niveaux ★ Introductif Mise à jour : Annuelle

Résumé exécutif

Ce glossaire rassemble 45 termes fondamentaux de l'IA responsable. Chaque entrée propose une définition rigoureuse, l'équivalent anglais, et un éclairage sur les débats conceptuels associés. Il constitue le socle terminologique de l'ensemble de la bibliothèque et privilégie les acceptions en usage dans l'écosystème académique montréalais et francophone.

A
AlgorithmeAlgorithm

Suite finie et ordonnée d'instructions permettant de résoudre un problème ou d'effectuer un calcul. En IA, désigne les procédures mathématiques permettant à un système d'apprendre à partir de données et de produire des résultats (prédictions, classifications, recommandations).

Débat · Les chercheurs en études des sciences et technologies (STS) contestent la réduction des algorithmes à des objets purement techniques, invitant à les analyser comme des assemblages sociotechniques intégrant choix de conception, données et contextes d'usage.

Gillespie, T. (2014). The relevance of algorithms. In Media Technologies, MIT Press. [pages à vérifier]

AlignementAlignment

Problématique visant à s'assurer que le comportement d'un système d'IA reste conforme aux intentions, valeurs et objectifs de ses concepteurs et de la société. Concerne tant les spécifications techniques que les dimensions éthiques.

Débat · « Aligné sur quelles valeurs, celles de qui ? » Les approches techniques comme le RLHF sont critiquées pour aligner les systèmes sur les préférences d'un groupe restreint d'annotateurs, soulevant des enjeux de représentativité et de pluralisme moral.
Apprentissage automatiqueMachine Learning (ML)

Sous-domaine de l'IA regroupant les méthodes permettant à un système d'améliorer ses performances sur une tâche à partir de données, sans programmation explicite. On distingue l'apprentissage supervisé, non supervisé et par renforcement.

Mitchell, T. (1997). Machine Learning, McGraw-Hill.

Apprentissage fédéréFederated Learning

Technique d'apprentissage où un modèle est entraîné de façon décentralisée sur plusieurs appareils, sans centraliser les données brutes. Seules les mises à jour du modèle sont partagées.

Débat · Réduit les risques de centralisation mais n'élimine pas tous les risques : des attaques par inférence sur les mises à jour peuvent permettre de reconstituer des données individuelles.
Apprentissage profondDeep Learning

Sous-ensemble de l'apprentissage automatique reposant sur des réseaux de neurones à nombreuses couches. À l'origine des avancées récentes en reconnaissance d'images, traitement du langage naturel et IA générative.

LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444. — Yoshua Bengio (Mila, Montréal) est l'un des pionniers du domaine.

Audit algorithmiqueAlgorithmic Audit

Processus systématique d'examen d'un système algorithmique visant à évaluer sa conformité à des critères prédéfinis (équité, transparence, légalité, performance). Peut être interne ou externe, porter sur les données, le modèle ou les résultats.

Débat · L'absence de standards méthodologiques unifiés et le risque que l'audit devienne un exercice superficiel (ethics washing) font l'objet de critiques croissantes.
B
Biais algorithmiqueAlgorithmic Bias

Erreur systématique dans les résultats d'un système algorithmique produisant des traitements injustement différenciés pour certains groupes. Les biais peuvent provenir des données (représentation, biais historiques), de la conception du modèle ou de l'interaction avec le contexte d'usage.

Débat · Impossibilité mathématique de satisfaire simultanément plusieurs définitions de l'équité (parité démographique, égalité des chances, calibration). La correction des biais est autant un choix normatif que technique.

Mehrabi, N. et al. (2021). A survey on bias and fairness in machine learning. ACM Computing Surveys, 54(6). [n° article à vérifier]

Biais de confirmationConfirmation Bias

Tendance cognitive à privilégier les informations confirmant les croyances préexistantes. En IA : choix de variables guidés par des attentes, survalorisation des résultats conformes, confiance excessive dans un système qui confirme des préjugés.

Biais de représentationRepresentation Bias

Biais survenant lorsque les données d'entraînement ne reflètent pas la diversité de la population ciblée. Particulièrement préoccupant pour les communautés historiquement sous-représentées (minorités linguistiques, communautés autochtones, populations du Sud global).

Boîte noireBlack Box

Système dont on observe les entrées et sorties mais dont le fonctionnement interne reste opaque. Les modèles d'apprentissage profond (millions ou milliards de paramètres) sont qualifiés de boîtes noires, posant des défis pour la transparence et l'imputabilité.

Débat · Tension entre explicabilité post hoc (LIME, SHAP) et modèles intrinsèquement interprétables. Cynthia Rudin argue que les modèles interprétables devraient être préférés dans les contextes à enjeux élevés.

Rudin, C. (2019). Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. Nature Machine Intelligence, 1(5), 206–215.

C
Consentement éclairéInformed Consent

Principe éthique et juridique selon lequel une personne doit être informée de manière claire avant d'accepter que ses données soient collectées ou traitées. La Loi 25 du Québec renforce les exigences en la matière.

Débat · La fiction du consentement « éclairé » à l'ère du Big Data est questionnée : les individus acceptent des conditions qu'ils ne lisent pas, pour des usages qu'ils ne peuvent anticiper. Des alternatives émergent : consentement dynamique, fiducies de données (data trusts).
D
Données d'entraînementTraining Data

Ensemble de données utilisées pour entraîner un modèle d'apprentissage automatique. Leur qualité, représentativité et conditions de collecte déterminent en grande partie le comportement du modèle et constituent un vecteur majeur de biais.

Données synthétiquesSynthetic Data

Données générées artificiellement par des algorithmes plutôt que collectées à partir de sources réelles. Utiles pour augmenter des jeux de données ou protéger la vie privée, mais risquent de masquer l'absence de données réelles représentatives.

Droit à l'explicationRight to Explanation

Droit d'un individu à obtenir une explication compréhensible lorsqu'une décision le concernant est prise par un système automatisé. Évoqué dans le RGPD (articles 13-15, 22) et l'AI Act européen. Au Canada, le cadre juridique reste en développement.

Débat · L'existence et la portée exacte de ce droit dans le RGPD font débat. Questions pratiques : l'explication doit-elle être compréhensible pour un non-spécialiste ? Doit-elle révéler les mécanismes internes du modèle ?
Durabilité de l'IAAI Sustainability

Prise en compte de l'empreinte environnementale des systèmes d'IA : consommation énergétique de l'entraînement et de l'inférence, eau pour le refroidissement, empreinte carbone, extraction de matériaux. Inclut aussi la durabilité sociale et économique.

Débat · La course aux modèles toujours plus volumineux est remise en question. Tension entre performance et sobriété computationnelle.

Strubell, E., Ganesh, A., & McCallum, A. (2019). Energy and policy considerations for deep learning in NLP. Proc. 57th Annual Meeting of the ACL. [pages à vérifier]

E
Équité algorithmiqueAlgorithmic Fairness

Propriété d'un système algorithmique qui n'opère pas de discrimination injuste envers des groupes définis par des attributs protégés. Plus de vingt définitions formelles existent, plusieurs étant mathématiquement incompatibles entre elles.

Débat · Chaque choix de métrique d'équité est un choix normatif. L'impossibilité de satisfaire toutes les définitions simultanément (sauf cas triviaux) est un résultat fondamental du domaine.
Éthique de l'IAAI Ethics

Champ interdisciplinaire examinant les enjeux moraux soulevés par la conception, le déploiement et l'utilisation des systèmes d'IA. Puise dans la philosophie morale, le droit, les sciences sociales, l'informatique et les STS.

Éthique de façadeEthics Washing / Ethics Theatre

Pratique par laquelle une organisation affiche un engagement éthique (principes, comités consultatifs, communications) sans modifier substantiellement ses pratiques. Peut servir à détourner les critiques ou retarder la régulation.

Débat · Le risque d'ethics washing nourrit les appels à passer d'une éthique « douce » (principes non contraignants) vers une gouvernance « dure » (régulations, audits obligatoires, certifications).
Évaluation d'impact algorithmiqueAlgorithmic Impact Assessment (AIA)

Processus structuré visant à évaluer, avant déploiement, les impacts d'un système de décision automatisée sur les droits fondamentaux, l'équité et la vie privée. Le gouvernement du Canada a développé un outil d'EIA pour les institutions fédérales. L'AI Act européen impose des évaluations pour les systèmes à haut risque.

ExplicabilitéExplainability / XAI

Capacité d'un système d'IA à fournir des explications compréhensibles de ses raisonnements ou décisions. On distingue l'explicabilité intrinsèque (modèles simples et interprétables) de l'explicabilité post hoc (outils appliqués après coup sur des modèles complexes).

Outils courants : LIME (Ribeiro et al., 2016), SHAP (Lundberg & Lee, 2017). Consultables sur Google Scholar.

G
Gouvernance algorithmiqueAlgorithmic Governance

Ensemble des structures, processus, normes et mécanismes encadrant la conception, le déploiement et la surveillance des systèmes algorithmiques au sein d'une organisation ou d'une société. Englobe les aspects juridiques, éthiques, techniques et organisationnels.

H
Hallucination (IA)AI Hallucination

Phénomène par lequel un modèle d'IA générative produit des contenus factuellement faux ou inventés tout en les présentant avec un degré apparent de confiance. Défi majeur pour la fiabilité des systèmes d'IA générative.

Débat · Le terme lui-même est contesté : il anthropomorphise le phénomène. Des alternatives comme « confabulation » ou « fabrication » sont proposées. Le débat porte aussi sur le caractère éliminable ou intrinsèque du phénomène.
I
IA de confianceTrustworthy AI

Concept cadre désignant une IA légale, éthique et robuste. Formalisé par le Groupe d'experts de haut niveau sur l'IA de la Commission européenne (2019) qui identifie sept exigences clés pour une IA de confiance.

IA générativeGenerative AI

Catégorie de systèmes capables de produire de nouveaux contenus (texte, images, audio, vidéo, code) à partir de modèles entraînés sur de vastes corpus. Enjeux : désinformation, droits d'auteur, intégrité académique, impacts environnementaux, transformation de l'emploi.

IA responsableResponsible AI

Démarche globale visant à ce que les systèmes d'IA soient développés et déployés dans le respect de principes éthiques et de droits fondamentaux. Intègre équité, transparence, imputabilité, vie privée, sécurité, durabilité et bien-être social. Se veut plus opérationnel que « éthique de l'IA ».

Débat · La notion de « responsabilité » est polysémique : responsabilité des développeurs, des organisations, des régulateurs ou des utilisateurs ? Le terme est aussi critiqué pour être devenu un label marketing vidé de substance dans certains contextes.
ImputabilitéAccountability

Obligation pour les acteurs impliqués dans un système d'IA de rendre compte de ses impacts et décisions. Suppose l'identification des responsables, des mécanismes de recours et la possibilité de sanctions. Rendu complexe par la multiplication des acteurs dans les chaînes de valeur de l'IA.

InterprétabilitéInterpretability

Degré auquel un humain peut comprendre le fonctionnement interne d'un modèle. Distinct de l'explicabilité post hoc : un modèle interprétable est transparent par conception (régression logistique, arbre de décision), tandis que l'explicabilité post hoc tente d'expliquer un modèle opaque après coup.

J
Justice algorithmiqueAlgorithmic Justice

Vision plus large que l'équité algorithmique technique : intègre les structures de pouvoir, les injustices systémiques et les dimensions distributives de la justice sociale dans l'analyse des systèmes algorithmiques.

L
Littératie en IAAI Literacy

Capacité d'un individu à comprendre, évaluer et interagir de façon critique avec les systèmes d'IA. Inclut la compréhension des principes de base, la capacité à identifier les biais et les limites, et l'aptitude à utiliser ces outils de manière responsable.

M
Modèle de fondationFoundation Model

Modèle d'IA entraîné sur de vastes quantités de données, adaptable à de nombreuses tâches en aval (GPT, Claude, LLaMA, etc.). Le terme a été proposé par des chercheurs de Stanford en 2021. Soulève des enjeux de concentration du pouvoir, de coûts environnementaux et de dépendance technologique.

Bommasani, R. et al. (2021). On the Opportunities and Risks of Foundation Models. Stanford CRFM. [disponible sur arXiv]

O
Opacité algorithmiqueAlgorithmic Opacity

Impossibilité d'accéder au fonctionnement interne d'un système. Peut être technique (complexité du modèle), légale (secret commercial), ou intentionnelle (choix de conception). L'opacité est un obstacle central aux exigences de transparence et d'imputabilité.

P
Principes PCAP®OCAP® Principles

Propriété, Contrôle, Accès et Possession : principes affirmant la souveraineté des Premières Nations sur la collecte, la gestion et l'utilisation des données les concernant. Cadre de référence pour la gouvernance des données autochtones au Canada, développé par le Centre de gouvernance de l'information des Premières Nations (CGIPN).

Profilage algorithmiqueAlgorithmic Profiling

Construction automatisée de profils individuels à partir de données comportementales, transactionnelles ou biométriques. Utilisé en marketing, crédit, assurance, sécurité. Risques de discrimination, de surveillance et d'atteinte à la vie privée.

Protection des renseignements personnelsPersonal Data Protection

Cadre juridique encadrant la collecte, le traitement et la conservation des données personnelles. Au Québec : Loi 25 (Loi modernisant des dispositions législatives en matière de protection des renseignements personnels, entrée en vigueur progressive 2022-2024). Au fédéral : Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) et projet de loi C-27.

R
Reconnaissance facialeFacial Recognition

Technologie d'identification de personnes par analyse du visage. Cas emblématique des biais raciaux et de genre en IA : des études ont documenté des taux d'erreur significativement plus élevés pour les personnes à la peau foncée et les femmes.

Buolamwini, J. & Gebru, T. (2018). Gender Shades. Proceedings of Machine Learning Research, 81, 1–15.

Responsabilité civile algorithmiqueAlgorithmic Liability

Question juridique de l'attribution de responsabilité en cas de préjudice causé par un système d'IA. Les cadres juridiques existants (fondés sur la faute ou la responsabilité du fait des produits) peinent à s'adapter à des systèmes autonomes et opaques.

RobustesseRobustness

Capacité d'un système d'IA à fonctionner correctement face à des perturbations, erreurs d'entrée ou attaques adverses intentionnelles. Un système robuste maintient ses performances et sa fiabilité en dehors de ses conditions d'entraînement idéales.

S
Souveraineté des donnéesData Sovereignty

Droit d'un État ou d'une communauté à gouverner les données produites sur son territoire ou par ses membres. Enjeu central pour les communautés autochtones (cf. PCAP®) et pour les nations face à la domination des géants technologiques étrangers.

Souveraineté numériqueDigital Sovereignty

Capacité d'un État à exercer son autorité dans l'espace numérique et à maintenir son autonomie face aux dépendances technologiques. Enjeu pour les universités face à l'utilisation d'infrastructures et d'outils propriétaires de grandes entreprises technologiques.

Système de décision automatiséeAutomated Decision System (ADS)

Système utilisant l'IA pour prendre ou assister des décisions affectant des individus (octroi de crédit, admissions, prestations sociales, etc.). Soumis à une réglementation croissante dans plusieurs juridictions. La Directive sur la prise de décisions automatisée du gouvernement du Canada encadre leur usage dans les services fédéraux.

T
Traitement du langage naturelNatural Language Processing (NLP)

Sous-domaine de l'IA traitant de la compréhension et de la génération du langage humain. Au cœur de l'IA générative textuelle et des grands modèles de langage. Soulève des enjeux de biais linguistiques et de sous-représentation des langues minoritaires.

Transparence algorithmiqueAlgorithmic Transparency

Capacité de rendre visible et compréhensible le fonctionnement, les données d'entraînement, les objectifs et les impacts d'un système algorithmique. Pilier de l'IA de confiance et condition nécessaire (mais non suffisante) de l'imputabilité.

V
Valeurs par conceptionValue-Sensitive Design (VSD)

Approche méthodologique visant à intégrer les valeurs éthiques et humaines dès la phase de conception d'un système, plutôt qu'en aval. Développée notamment par Batya Friedman à l'Université de Washington. Parente de la démarche « IA responsable by design ».

Friedman, B., Hendry, D. G., & Borning, A. (2017). A survey of value sensitive design methods. Foundations and Trends in Human–Computer Interaction, 11(2), 63–125. [volume à vérifier]

Vie privée différentielleDifferential Privacy

Technique mathématique ajoutant du bruit calibré aux données ou aux résultats de requêtes pour garantir qu'aucune information individuelle ne puisse être extraite, tout en permettant l'analyse statistique agrégée. Utilisée notamment par Apple et le Census Bureau américain.

Virage numérique responsableResponsible Digital Transformation

Démarche d'intégration des principes éthiques, de durabilité et de responsabilité sociale dans la transformation numérique des organisations, incluant le déploiement de systèmes d'IA.

🔬 Zoom sur l'écosystème montréalais

Montréal est un pôle mondial de la recherche en IA et en éthique de l'IA. Plusieurs termes de ce glossaire ont été façonnés ou enrichis par des travaux issus de cet écosystème :

  • Apprentissage profond — Yoshua Bengio (Mila, Université de Montréal), prix Turing 2018, est l'un des trois pionniers du domaine.
  • Déclaration de Montréal (2018) — Processus délibératif inédit ayant produit des principes pour un développement responsable de l'IA, sous la direction de l'Université de Montréal.
  • IVADO — Institut de valorisation des données, consortium montréalais soutenant la recherche et la formation en science des données et IA.
  • OBVIA — Observatoire international sur les impacts sociétaux de l'IA et du numérique, basé à l'Université Laval mais impliquant des chercheurs montréalais. [statut actuel à vérifier]
  • Mila — Institut québécois d'intelligence artificielle, l'un des plus importants centres de recherche en apprentissage profond au monde.

Points clés à retenir

  1. Le vocabulaire de l'IA responsable est interdisciplinaire : les mêmes termes ont des acceptions techniques, juridiques et éthiques qu'il importe de distinguer.
  2. De nombreux concepts clés font l'objet de débats non résolus (équité, alignement, explicabilité) — il n'existe pas de consensus unique.
  3. L'écosystème montréalais a contribué de manière significative à la structuration de ce champ, tant sur le plan scientifique que normatif.
  4. La terminologie évolue rapidement : un glossaire de l'IA responsable nécessite une mise à jour régulière.
  5. La traduction français-anglais n'est pas toujours stabilisée ; les équivalents proposés ici reflètent l'usage académique francophone courant.

Questions de réflexion

  1. Pourquoi est-il important de distinguer les acceptions techniques, juridiques et éthiques d'un même terme comme « biais » ou « transparence » ?
  2. Le terme « hallucination » appliqué à l'IA est-il approprié ? Quels effets le choix de ce vocabulaire a-t-il sur la perception publique de ces technologies ?
  3. L'impossibilité de satisfaire simultanément toutes les définitions de l'équité algorithmique est-elle un problème technique ou un problème politique ?
  4. Comment la souveraineté des données (étatique, autochtone, individuelle) peut-elle être conciliée avec les modèles économiques actuels de l'IA ?

Références bibliographiques

Bommasani, R. et al. (2021). On the Opportunities and Risks of Foundation Models. Stanford CRFM. Disponible sur arXiv.

Buolamwini, J. & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research, 81, 1–15.

Gillespie, T. (2014). The relevance of algorithms. In T. Gillespie, P. Boczkowski & K. Foot (Eds.), Media Technologies. MIT Press. [pages à vérifier]

LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444.

Mehrabi, N. et al. (2021). A survey on bias and fairness in machine learning. ACM Computing Surveys, 54(6). [n° article à vérifier]

Mitchell, T. (1997). Machine Learning. McGraw-Hill.

Rudin, C. (2019). Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. Nature Machine Intelligence, 1(5), 206–215.

Strubell, E., Ganesh, A., & McCallum, A. (2019). Energy and policy considerations for deep learning in NLP. Proc. 57th Annual Meeting of the ACL. [pages à vérifier]

Friedman, B., Hendry, D. G., & Borning, A. (2017). A survey of value sensitive design methods. Foundations and Trends in HCI, 11(2), 63–125. [volume à vérifier]

Bases de données recommandées pour vérification : Google Scholar, JSTOR, CAIRN, Érudit, ACM Digital Library, sites officiels des institutions citées.

Suggestion de mise à jour : Annuelle. Le vocabulaire de l'IA responsable évolue rapidement avec les avancées technologiques et réglementaires.
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Toutes les références marquées [À VÉRIFIER] doivent être confirmées avant usage académique ou institutionnel. Les informations réglementaires et statistiques sont susceptibles d'avoir évolué. Consultez les sources primaires avant toute citation ou diffusion officielle.
Bibliothèque de l'IA Responsable · Écosystème HEC Montréal / UdeM · Document 1.1 · Mars 2026
Bibliothèque IA Responsable — Document 1.2

Les piliers de l'IA éthique

Équité · Transparence · Imputabilité · Durabilité · Souveraineté des données

Public : Étudiants BAC et maîtrise, professionnels ★ Introductif Format : Fiche synthèse (2-3 pages)

Résumé exécutif

Cette fiche présente les cinq piliers fondamentaux de l'IA éthique tels qu'ils émergent de la convergence des principaux cadres normatifs internationaux. Pour chacun : définition, enjeux concrets, tensions et arbitrages. Les piliers ne sont pas indépendants — ils interagissent et entrent parfois en conflit, obligeant les praticiens à des choix normatifs explicites.

Les cinq piliers

Bien que la terminologie varie selon les cadres (Déclaration de Montréal, Principes de l'OCDE, lignes directrices de l'UE, Recommandation de l'UNESCO), cinq exigences fondamentales reviennent de manière transversale. Elles sont présentées ici comme des « piliers » structurants pour tout projet d'IA responsable.

1. Équité (Fairness)

Non-discrimination · Justice distributive · Inclusion

Un système d'IA équitable ne produit pas de traitements injustement différenciés fondés sur des attributs protégés (genre, origine ethnique, âge, handicap, etc.). L'équité englobe l'accès aux bénéfices de l'IA (inclusion numérique) et la répartition juste de ses risques.

Enjeux concrets : biais dans les systèmes de recrutement, scoring de crédit discriminatoire, reconnaissance faciale moins performante pour certains groupes démographiques, sous-représentation linguistique dans les modèles de langage.

Tension · Plus de vingt définitions formelles de l'équité algorithmique existent. Certaines sont mathématiquement incompatibles (ex. : parité démographique vs. calibration). Choisir une métrique d'équité est un acte normatif, pas seulement technique.

2. Transparence (Transparency)

Explicabilité · Ouverture · Traçabilité

La transparence exige que le fonctionnement, les données d'entraînement, les objectifs et les limites d'un système d'IA soient rendus visibles et compréhensibles pour les parties prenantes concernées. Elle inclut l'explicabilité (capacité à expliquer les décisions) et la traçabilité (capacité à retracer les étapes ayant conduit à un résultat).

Enjeux concrets : opacité des modèles d'apprentissage profond (« boîtes noires »), secret commercial invoqué pour refuser la divulgation, difficulté de vulgariser des processus techniques complexes.

Tension · Transparence et confidentialité peuvent entrer en conflit (protection du secret commercial, vie privée des données d'entraînement). De plus, une transparence totale n'est pas toujours synonyme de compréhension : un modèle à des milliards de paramètres peut être « ouvert » sans être intelligible.

3. Imputabilité (Accountability)

Responsabilité · Recours · Surveillance humaine

L'imputabilité impose que des personnes ou organisations identifiables soient responsables des impacts d'un système d'IA et puissent en rendre compte. Elle suppose des mécanismes de recours pour les personnes affectées, une supervision humaine effective et la possibilité de sanctions en cas de manquement.

Enjeux concrets : difficulté d'attribuer la responsabilité dans des chaînes de valeur complexes (développeur, intégrateur, déployeur, utilisateur), absence de cadres juridiques adaptés, « diffusion de la responsabilité » lorsque de multiples acteurs contribuent à une décision automatisée.

Tension · L'automatisation peut créer un « vide de responsabilité » (accountability gap) où personne ne se considère comme responsable. L'imputabilité exige une supervision humaine significative, pas simplement formelle (human-in-the-loop vs. human-on-the-loop).

4. Durabilité (Sustainability)

Impact environnemental · Durabilité sociale · Sobriété

La durabilité englobe l'empreinte environnementale des systèmes d'IA (énergie, eau, carbone, matériaux) et leurs impacts sociaux à long terme (emploi, inégalités, bien-être). Elle invite à évaluer si les bénéfices d'un système justifient ses coûts environnementaux et sociaux.

Enjeux concrets : coûts énergétiques considérables de l'entraînement de grands modèles de langage, consommation d'eau des centres de données, obsolescence accélérée du matériel, impacts sur l'emploi et les inégalités Nord-Sud.

Tension · Course à la performance (modèles toujours plus grands) vs. sobriété computationnelle. La durabilité est le pilier le plus récemment intégré aux cadres normatifs et encore faiblement opérationnalisé.

5. Souveraineté des données (Data Sovereignty)

Contrôle · Consentement · Autodétermination informationnelle

La souveraineté des données affirme le droit des individus, des communautés et des États à gouverner les données qui les concernent. Elle inclut le consentement éclairé, le droit à la portabilité, le droit à l'effacement, et la souveraineté collective (notamment les principes PCAP® pour les Premières Nations au Canada).

Enjeux concrets : extraction massive de données par les grandes plateformes, utilisation de données personnelles pour l'entraînement de modèles sans consentement explicite, dépendance des institutions publiques et académiques à des infrastructures cloud étrangères.

Tension · Souveraineté individuelle vs. collective vs. étatique. Le consentement individuel est jugé insuffisant par certains chercheurs, qui proposent des mécanismes de gouvernance collective (fiducies de données, coopératives de données).

Interactions entre piliers

Les cinq piliers ne sont pas indépendants. Des arbitrages sont souvent nécessaires :

Transparence vs. vie privée : publier les données d'entraînement (transparence) peut compromettre la vie privée des individus dont les données ont été collectées.

Équité vs. performance : corriger un biais algorithmique peut réduire la performance globale du modèle, imposant un arbitrage explicite.

Imputabilité vs. innovation : des exigences de conformité trop lourdes peuvent freiner l'innovation, tandis qu'une absence de régulation favorise les pratiques irresponsables.

Durabilité vs. accessibilité : limiter la taille des modèles (sobriété) peut réduire leur capacité à traiter des langues minoritaires ou des contextes sous-représentés.

Ces tensions ne sont pas des problèmes à « résoudre » mais des arbitrages à rendre explicites et justifiés dans chaque contexte d'application.

🔬 Zoom sur l'écosystème montréalais

La Déclaration de Montréal pour un développement responsable de l'IA (2018) articule dix principes qui recoupent largement ces cinq piliers : bien-être, autonomie, protection de la vie privée, solidarité, participation démocratique, équité, inclusion de la diversité, prudence, responsabilité et développement soutenable. Ce cadre issu d'un processus délibératif citoyen constitue une référence internationale et illustre la contribution de l'écosystème montréalais à la structuration du champ.

Points clés à retenir

  1. Les cinq piliers (équité, transparence, imputabilité, durabilité, souveraineté des données) forment le socle commun des principaux cadres normatifs internationaux.
  2. Ces piliers interagissent et peuvent entrer en tension — les arbitrages doivent être explicites.
  3. Chaque pilier a une dimension technique et une dimension normative : les solutions purement techniques ne suffisent pas.
  4. La durabilité environnementale est le pilier le plus récent et encore le moins opérationnalisé.

Questions de réflexion

  1. Dans un projet de recherche impliquant l'IA, comment hiérarchiseriez-vous ces cinq piliers ? Cette hiérarchie est-elle universelle ou dépendante du contexte ?
  2. La transparence est-elle toujours souhaitable ? Identifiez des cas où une transparence totale pourrait avoir des effets négatifs.
  3. Comment les principes de la Déclaration de Montréal s'articulent-ils avec ces cinq piliers ? Y a-t-il des dimensions manquantes ?

Références bibliographiques

Déclaration de Montréal pour un développement responsable de l'intelligence artificielle (2018). Université de Montréal. Disponible sur le site de la Déclaration de Montréal.

Groupe d'experts de haut niveau sur l'IA (2019). Lignes directrices en matière d'éthique pour une IA digne de confiance. Commission européenne.

OCDE (2019). Recommandation du Conseil sur l'intelligence artificielle. OECD/LEGAL/0449.

UNESCO (2021). Recommandation sur l'éthique de l'intelligence artificielle. Adoptée par la Conférence générale en novembre 2021.

Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389–399.

Vérification : Google Scholar, sites officiels de l'OCDE, de l'UNESCO, de la Commission européenne, site de la Déclaration de Montréal.

⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Toutes les références marquées [À VÉRIFIER] doivent être confirmées avant usage académique ou institutionnel. Les informations réglementaires et statistiques sont susceptibles d'avoir évolué. Consultez les sources primaires avant toute citation ou diffusion officielle.
Bibliothèque de l'IA Responsable · Écosystème HEC Montréal / UdeM · Document 1.2 · Mars 2026
Bibliothèque IA Responsable — Document 1.3

Pourquoi l'IA Responsable est une priorité stratégique pour les universités québécoises et canadiennes

Note de positionnement

Public : Administrateurs, professeurs, partenaires ★★ Intermédiaire Format : Note de positionnement (4-5 pages)

Résumé exécutif

Les universités québécoises et canadiennes disposent d'atouts considérables pour jouer un rôle de premier plan dans le développement d'une IA responsable : un écosystème de recherche de calibre mondial, une tradition de réflexion éthique pionnière, et un cadre réglementaire en construction. Cette note argumente que l'IA responsable n'est pas un frein à l'innovation mais un avantage compétitif stratégique, et que l'inaction comporte des risques réputationnels, réglementaires et sociétaux significatifs.

1. Un positionnement historique à consolider

Montréal et le Québec occupent une position singulière dans l'écosystème mondial de l'IA. La concentration, dans un périmètre géographique restreint, de chercheurs de calibre mondial en apprentissage profond (Mila, fondé par Yoshua Bengio), d'instituts de valorisation des données (IVADO), d'initiatives en éthique de l'IA (Déclaration de Montréal, 2018) et d'universités de recherche de premier plan (Université de Montréal, HEC Montréal, McGill, Polytechnique Montréal) constitue un avantage distinctif rare.

Ce positionnement a été reconnu internationalement : la Déclaration de Montréal pour un développement responsable de l'IA, issue d'un processus délibératif citoyen lancé par l'Université de Montréal en 2017-2018, a influencé des cadres normatifs dans plusieurs juridictions. Le Canada a été parmi les premiers pays à se doter d'une stratégie nationale en IA (Stratégie pancanadienne en matière d'intelligence artificielle, CIFAR, 2017).

Cependant, un positionnement historique ne garantit pas un leadership durable. L'accélération du déploiement de l'IA générative, l'émergence de cadres réglementaires contraignants (AI Act européen, 2024) et la compétition internationale exigent un renouvellement de cette ambition.

2. Quatre arguments stratégiques

A. Avantage compétitif en recherche et formation

Les organismes de financement accordent une importance croissante aux dimensions éthiques et sociétales des projets de recherche. Le CRSH, le CRSNG et les FRQ intègrent désormais des critères d'évaluation liés aux impacts sociaux et éthiques. Les universités qui développent une expertise en IA responsable sont mieux positionnées pour obtenir des financements compétitifs et attirer des chercheurs et étudiants sensibles à ces enjeux.

B. Anticipation réglementaire

Le paysage réglementaire se densifie rapidement. Au Québec, la Loi 25 impose de nouvelles obligations en matière de protection des renseignements personnels. Au fédéral, le projet de loi C-27 (incluant la Loi sur l'intelligence artificielle et les données — LIAD) prévoit des obligations pour les systèmes IA à incidence élevée. En Europe, l'AI Act impose des exigences de conformité qui affectent les collaborations internationales de recherche. Les universités qui anticipent ces cadres évitent les coûts de mise en conformité tardive et les risques juridiques.

C. Confiance publique et responsabilité sociale

Les institutions universitaires tirent leur légitimité de la confiance publique. Des incidents impliquant des systèmes d'IA déployés sans garde-fous éthiques adéquats peuvent éroder cette confiance. Inversement, un engagement crédible envers l'IA responsable renforce le rôle de l'université comme institution au service du bien commun. Cet argument est d'autant plus pertinent que les universités forment les futurs professionnels qui concevront et déploieront ces systèmes.

D. Différenciation dans les partenariats université-industrie

Les partenariats de recherche avec l'industrie comportent des risques d'instrumentalisation et de conflits d'intérêts. Un cadre explicite d'IA responsable protège l'intégrité académique et offre une valeur ajoutée aux partenaires industriels soumis eux-mêmes à des obligations réglementaires croissantes. Il constitue un facteur de différenciation dans un marché des partenariats de plus en plus compétitif.

3. Les risques de l'inaction

Risque réputationnel : des pratiques non encadrées en matière d'IA (utilisation de données sans consentement, déploiement de systèmes biaisés, usage non encadré de l'IA générative) peuvent exposer les institutions à des crises de réputation.

Risque réglementaire : le non-respect des cadres en construction (Loi 25, C-27, AI Act pour les collaborations européennes) expose à des sanctions financières et juridiques.

Risque de dépendance : l'utilisation non réfléchie d'outils IA propriétaires crée des dépendances technologiques et compromet la souveraineté académique (données hébergées à l'étranger, perte de maîtrise des processus pédagogiques et de recherche).

Risque d'intégrité : l'absence d'encadrement de l'IA générative menace l'intégrité académique — tant dans la recherche que dans l'enseignement.

4. Recommandations pour l'action

Gouvernance : se doter d'une politique institutionnelle d'utilisation responsable de l'IA, avec des rôles et responsabilités clairement définis (voir Doc 7.1 et 7.2 de cette bibliothèque).

Formation : intégrer l'éthique de l'IA dans les programmes existants (pas seulement en informatique) et développer des formations continues pour le personnel (voir Doc 6.1).

Recherche : soutenir la recherche interdisciplinaire en IA responsable et adapter les procédures des comités d'éthique aux enjeux spécifiques de l'IA (voir Doc 2.5 et 4.1).

Partenariats : intégrer des clauses éthiques dans les ententes de collaboration avec l'industrie et les organismes publics (voir Doc 7.3).

Veille : mettre en place une veille réglementaire et technologique permanente pour anticiper les évolutions du domaine.

🔬 Zoom sur l'écosystème montréalais

Les atouts de l'écosystème montréalais pour mener cette transition sont considérables. Mila est l'un des plus grands centres de recherche en apprentissage profond au monde. IVADO fédère quatre universités montréalaises autour de la science des données. La Déclaration de Montréal a établi un précédent international en matière de co-construction citoyenne des principes d'IA éthique. Des chaires de recherche à HEC Montréal et à l'Université de Montréal travaillent sur les dimensions éthiques et sociétales de l'IA. [Vérifier les chaires actuellement actives — le paysage évolue rapidement]

Ces atouts ne seront durables que s'ils sont soutenus par un engagement institutionnel explicite et des investissements conséquents.

Points clés à retenir

  1. L'IA responsable est un avantage compétitif, pas un frein à l'innovation.
  2. Le paysage réglementaire (Loi 25, C-27, AI Act) rend l'inaction risquée.
  3. Montréal et le Québec disposent d'atouts historiques à consolider.
  4. L'action doit être structurée autour de la gouvernance, la formation, la recherche et les partenariats.
  5. La confiance publique envers les universités dépend de leur capacité à montrer l'exemple.

Questions de réflexion

  1. Votre institution a-t-elle une politique formelle d'utilisation responsable de l'IA ? Si non, quels seraient les obstacles à son adoption ?
  2. Comment concilier l'urgence de l'adoption de l'IA (compétitivité) avec la prudence exigée par une démarche responsable ?
  3. La souveraineté académique en matière d'IA est-elle réaliste face à la domination des grandes entreprises technologiques ?

Références bibliographiques

CIFAR (2017). Stratégie pancanadienne en matière d'intelligence artificielle. Disponible sur le site du CIFAR.

Déclaration de Montréal pour un développement responsable de l'intelligence artificielle (2018). Université de Montréal.

Gouvernement du Québec. Loi modernisant des dispositions législatives en matière de protection des renseignements personnels (Loi 25), 2021. Publications officielles du Québec.

Parlement du Canada. Projet de loi C-27 — Loi de 2022 sur la mise en œuvre de la charte du numérique. [Vérifier le statut législatif actuel]

Règlement (UE) 2024/1689 du Parlement européen et du Conseil (AI Act). Journal officiel de l'Union européenne. [Vérifier la référence exacte]

Vérification : Sites officiels du Parlement du Canada, de l'Assemblée nationale du Québec, du CIFAR, de la Commission européenne.

⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Toutes les références marquées [À VÉRIFIER] doivent être confirmées avant usage académique ou institutionnel. Les informations réglementaires et statistiques sont susceptibles d'avoir évolué. Consultez les sources primaires avant toute citation ou diffusion officielle.
Bibliothèque de l'IA Responsable · Écosystème HEC Montréal / UdeM · Document 1.3 · Mars 2026
Bibliothèque IA Responsable — Document 1.4

Panorama des grandes déclarations internationales sur l'IA éthique

Déclaration de Montréal · UNESCO · OCDE · Union Européenne

Public : Cycles supérieurs, chercheurs, administrateurs ★★ Intermédiaire Format : Synthèse comparative (5-7 pages)

Résumé exécutif

Depuis 2017, une prolifération de déclarations, principes et lignes directrices en matière d'IA éthique a émergé à travers le monde. Ce document présente les quatre cadres normatifs les plus influents, analyse leurs convergences et divergences, et met en valeur le rôle pionnier de Montréal dans la structuration de ce champ. Une étude recensait dès 2019 plus de 80 ensembles de principes éthiques pour l'IA à l'échelle mondiale.

Contexte : une effervescence normative mondiale

L'émergence rapide de l'IA comme technologie transformatrice a suscité un mouvement mondial de réflexion éthique. À partir de 2016-2017, des organisations internationales, des gouvernements, des entreprises et des communautés académiques ont multiplié les déclarations de principes. Jobin, Ienca et Vayena (2019) ont recensé 84 documents de ce type, identifiant cinq principes récurrents : transparence, justice/équité, non-malfaisance, responsabilité et vie privée.

Ce panorama se concentre sur quatre cadres particulièrement influents et pertinents pour le contexte académique québécois et canadien.

Les quatre cadres majeurs

🍁 Déclaration de Montréal pour un développement responsable de l'IA (2018)

Origine : Université de Montréal · Type : Déclaration citoyenne · Juridiction : Non contraignante, portée internationale

Issue d'un processus délibératif citoyen inédit lancé en novembre 2017, la Déclaration de Montréal est le fruit de consultations publiques ayant impliqué des citoyens, chercheurs, entreprises et organismes publics. Elle a été officiellement présentée en décembre 2018.

10 principes : Bien-être · Autonomie · Protection de la vie privée et de l'intimité · Solidarité · Participation démocratique · Équité · Inclusion de la diversité · Prudence · Responsabilité · Développement soutenable

Particularité : sa méthodologie participative et citoyenne, unique au moment de sa publication. Contrairement aux déclarations émanant d'experts ou d'organisations, elle intègre les préoccupations de non-spécialistes.

Influence : a servi de référence pour plusieurs initiatives ultérieures et a contribué au rayonnement international de Montréal comme pôle d'IA éthique. Citée dans de nombreux travaux académiques et institutionnels.

🌐 Principes de l'OCDE sur l'intelligence artificielle (2019)

Origine : OCDE · Type : Recommandation du Conseil · Juridiction : 38 pays membres + adhérents · Réf. : OECD/LEGAL/0449

Adoptée en mai 2019, la Recommandation du Conseil de l'OCDE sur l'IA constitue le premier standard intergouvernemental en la matière. Le Canada a joué un rôle actif dans son élaboration. Ces principes ont également été endossés par les pays du G20 en juin 2019.

5 principes : Croissance inclusive, développement durable et bien-être · Valeurs de respect des droits de l'homme et d'équité · Transparence et explicabilité · Robustesse, sécurité et sûreté · Responsabilité

Particularité : cadre intergouvernemental le plus largement adopté. Accompagné de recommandations politiques concrètes pour les gouvernements (investissement, environnement numérique, coopération internationale).

Influence : cadre de référence pour de nombreuses politiques nationales. L'Observatoire des politiques de l'IA de l'OCDE (OECD.AI) assure le suivi de la mise en œuvre.

🏛 Lignes directrices de l'UE pour une IA digne de confiance (2019) et AI Act (2024)

Origine : Commission européenne · Type : Lignes directrices (2019) + Règlement contraignant (2024) · Juridiction : UE

Le Groupe d'experts de haut niveau sur l'IA (AI HLEG) a publié en avril 2019 des lignes directrices identifiant sept exigences clés pour une IA de confiance. Ces principes ont ensuite alimenté le processus législatif ayant conduit à l'AI Act, adopté en 2024, qui constitue le premier cadre réglementaire contraignant dédié à l'IA au monde.

7 exigences (lignes directrices 2019) : Action humaine et contrôle humain · Robustesse technique et sécurité · Respect de la vie privée et gouvernance des données · Transparence · Diversité, non-discrimination et équité · Bien-être sociétal et environnemental · Responsabilité

Particularité de l'AI Act : approche par niveaux de risque (inacceptable, haut risque, risque limité, risque minimal). Premier passage d'une approche volontaire (principes) à une approche contraignante (régulation) avec sanctions financières.

Influence : l'AI Act est en train de devenir un standard de facto mondial (« effet Bruxelles »), influençant les cadres réglementaires en développement dans d'autres juridictions.

📜 Recommandation de l'UNESCO sur l'éthique de l'intelligence artificielle (2021)

Origine : UNESCO · Type : Recommandation normative · Juridiction : 193 États membres · Adoptée : novembre 2021

Premier instrument normatif mondial sur l'éthique de l'IA, adopté par les 193 États membres de l'UNESCO en novembre 2021. Il s'agit du cadre le plus inclusif géographiquement, intégrant les préoccupations des pays en développement et des communautés marginalisées.

10 principes : Proportionnalité et innocuité · Sécurité et sûreté · Équité et non-discrimination · Durabilité · Droit à la vie privée et protection des données · Supervision et décision humaines · Transparence et explicabilité · Responsabilité et obligation de rendre des comptes · Sensibilisation et éducation · Gouvernance et collaboration multipartites

Particularité : attention particulière aux pays en développement, aux inégalités Nord-Sud et aux enjeux environnementaux. Inclut des domaines d'action politique concrets (éducation, culture, santé, économie, environnement).

Influence : cadre de référence pour les politiques nationales des pays n'ayant pas encore développé leur propre cadre. Outil de plaidoyer pour les pays du Sud global.

Analyse comparative

DimensionMontréal (2018)OCDE (2019)UE (2019/2024)UNESCO (2021)
NatureCitoyenneIntergouvernementaleRéglementaireNormative mondiale
ContraignantNonNon (soft law)Oui (AI Act)Non (soft law)
MéthodologieDélibération citoyenneComité d'expertsExperts + processus législatifNégociation multilatérale
Équité
Transparence
Imputabilité
Durabilité env.✓ (développement soutenable)✓ (croissance inclusive)✓ (bien-être env.)✓ (durabilité)
Participation✓ (principe central)LimitéeLimitée✓ (gouvernance multipartite)
Enjeux Nord-SudFaibleLimitésNon prioritaire✓ (priorité)

Convergences

Les quatre cadres convergent sur un noyau commun de principes : transparence, équité/non-discrimination, imputabilité/responsabilité, et respect de la vie privée. Cette convergence a été documentée par Jobin et al. (2019) et suggère l'émergence d'un consensus normatif mondial de base.

Divergences

Les cadres divergent sur plusieurs dimensions significatives. La force juridique varie du volontaire (Montréal, OCDE) au contraignant (AI Act). La méthodologie de production diffère : délibération citoyenne (Montréal) vs. expertise technique (OCDE, UE) vs. négociation diplomatique (UNESCO). L'attention aux inégalités mondiales est inégale : centrale chez l'UNESCO, marginale dans les autres cadres. Enfin, la participation démocratique comme principe à part entière est spécifique à la Déclaration de Montréal.

🔬 Zoom sur le leadership montréalais

La Déclaration de Montréal (2018) se distingue par sa méthodologie délibérative citoyenne, pionnière à l'époque. Plusieurs de ses principes — notamment la participation démocratique et le développement soutenable — ont anticipé des préoccupations qui ne seront formalisées dans les cadres internationaux que plus tardivement. Montréal a ainsi contribué à structurer le débat mondial avant que les grandes organisations intergouvernementales ne s'en emparent.

Ce leadership se manifeste aussi dans l'infrastructure de recherche : Mila, IVADO, et les universités montréalaises ont produit des travaux influents sur l'équité algorithmique, l'explicabilité et la gouvernance de l'IA qui alimentent directement ces cadres normatifs.

Limites et critiques transversales

Prolifération sans mise en œuvre : la multiplication des déclarations de principes (plus de 160 recensées en 2023 selon certaines estimations [chiffre à vérifier]) n'a pas nécessairement conduit à des changements de pratiques. Le risque d'ethics washing est réel.

Déficit d'opérationnalisation : les principes abstraits (« équité », « transparence ») sont difficiles à traduire en exigences techniques et organisationnelles concrètes. L'écart entre principes et pratiques (principles-to-practice gap) est un enjeu de recherche actif.

Représentativité : malgré l'ambition inclusive de l'UNESCO, la majorité des cadres ont été élaborés par des acteurs du Nord global, avec une sous-représentation des perspectives du Sud, des communautés autochtones et des populations les plus affectées par les systèmes d'IA.

Passage au contraignant : l'AI Act européen marque une transition vers la régulation contraignante. Ce passage soulève des débats sur l'équilibre entre protection et innovation, et sur la capacité des cadres réglementaires à suivre le rythme de l'évolution technologique.

Points clés à retenir

  1. Un consensus normatif mondial émerge autour de cinq principes fondamentaux (transparence, équité, responsabilité, vie privée, bien-être).
  2. La Déclaration de Montréal a été pionnière par sa méthodologie citoyenne et ses principes de participation démocratique et de développement soutenable.
  3. L'AI Act européen marque le passage de l'éthique volontaire à la régulation contraignante.
  4. Le défi majeur reste l'opérationnalisation : traduire les principes en pratiques concrètes.
  5. La représentativité des voix du Sud global et des communautés marginalisées demeure insuffisante.

Questions de réflexion

  1. La prolifération des déclarations de principes est-elle un signe de progrès ou de procrastination ? Manque-t-il des mécanismes de mise en œuvre ?
  2. Le modèle délibératif citoyen de la Déclaration de Montréal est-il reproductible à l'échelle internationale ? Quels en seraient les défis ?
  3. L'approche réglementaire de l'UE (AI Act) est-elle un modèle pour le Canada, ou le contexte nord-américain appelle-t-il une approche différente ?
  4. Comment assurer que les perspectives du Sud global et des communautés autochtones soient mieux intégrées dans les cadres normatifs futurs ?

Références bibliographiques

Déclaration de Montréal pour un développement responsable de l'intelligence artificielle (2018). Université de Montréal. Site officiel de la Déclaration.

Groupe d'experts de haut niveau sur l'IA (2019). Lignes directrices en matière d'éthique pour une IA digne de confiance. Commission européenne.

Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389–399.

OCDE (2019). Recommandation du Conseil sur l'intelligence artificielle. OECD/LEGAL/0449. Site de l'OCDE.

Règlement (UE) 2024/1689 du Parlement européen et du Conseil établissant des règles harmonisées en matière d'intelligence artificielle (AI Act). [Vérifier la référence exacte au Journal officiel]

UNESCO (2021). Recommandation sur l'éthique de l'intelligence artificielle. Adoptée par la Conférence générale, novembre 2021. Site de l'UNESCO.

Vérification : Sites officiels de l'OCDE (OECD.AI), de l'UNESCO, de la Commission européenne, de la Déclaration de Montréal. Google Scholar pour Jobin et al.

Suggestion de mise à jour : Annuelle. Le paysage normatif évolue rapidement, en particulier avec la mise en œuvre progressive de l'AI Act et l'émergence de nouveaux cadres nationaux.
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Toutes les références marquées [À VÉRIFIER] doivent être confirmées avant usage académique ou institutionnel. Les informations réglementaires et statistiques sont susceptibles d'avoir évolué. Consultez les sources primaires avant toute citation ou diffusion officielle.
Bibliothèque de l'IA Responsable · Écosystème HEC Montréal / UdeM · Document 1.4 · Mars 2026
Bibliothèque IA Responsable — Document 2.1

Synthèse de l'AI Act européen

Implications pour la recherche et l'enseignement

Public : Chercheurs, professeurs, administrateurs ★★ Intermédiaire Mise à jour : Annuelle

Résumé exécutif

Le Règlement européen sur l'intelligence artificielle (AI Act), adopté en 2024, constitue le premier cadre réglementaire contraignant dédié à l'IA au monde.1 Fondé sur une approche par niveaux de risque, il impose des obligations différenciées aux fournisseurs et déployeurs de systèmes d'IA. Ce document synthétise ses dispositions principales et analyse leurs implications pour les universités, les projets de recherche et la coopération académique internationale.

1. Genèse et structure du règlement

La Commission européenne a publié sa proposition de règlement en avril 2021, après plusieurs années de travaux préparatoires incluant les Lignes directrices pour une IA de confiance du Groupe d'experts de haut niveau (2019).2 Le texte a fait l'objet de négociations intenses entre le Parlement européen et le Conseil de l'UE (trilogue), aboutissant à un accord politique en décembre 2023. Le règlement a été formellement adopté en 2024, avec une mise en œuvre progressive étalée sur plusieurs années.3

L'AI Act s'applique à tout système d'IA mis sur le marché ou utilisé dans l'Union européenne, indépendamment du lieu d'établissement du fournisseur. Cette portée extraterritoriale a des implications directes pour les institutions de recherche canadiennes collaborant avec des partenaires européens ou déployant des systèmes destinés à des utilisateurs dans l'UE.

2. L'approche par niveaux de risque

L'architecture du règlement repose sur une classification des systèmes d'IA selon leur niveau de risque. Cette approche vise à proportionner les obligations réglementaires aux dangers potentiels.4

Risque inacceptable — INTERDIT

Systèmes portant atteinte aux droits fondamentaux : notation sociale par les gouvernements (social scoring), manipulation subliminale, exploitation des vulnérabilités, identification biométrique à distance en temps réel dans l'espace public (sauf exceptions).5

Haut risque — OBLIGATIONS STRICTES

Systèmes utilisés dans des domaines sensibles : infrastructure critique, éducation et formation professionnelle, emploi et gestion des travailleurs, services essentiels (crédit, assurance), maintien de l'ordre, migration et asile, administration de la justice. Ces systèmes doivent respecter des exigences de gestion des risques, de qualité des données, de documentation technique, de transparence, de supervision humaine et de robustesse.6

Risque limité — OBLIGATIONS DE TRANSPARENCE

Systèmes interagissant avec des personnes (chatbots, systèmes de génération de contenu) : obligation d'informer l'utilisateur qu'il interagit avec une IA ou que le contenu est généré par IA.

Risque minimal — PAS D'OBLIGATIONS SPÉCIFIQUES

La grande majorité des systèmes d'IA (filtres anti-spam, jeux vidéo, etc.). L'utilisation de codes de conduite volontaires est encouragée.

3. Dispositions relatives à la recherche

L'AI Act prévoit des dispositions spécifiques pour la recherche et l'innovation :

Exemption pour la recherche : les systèmes d'IA développés et utilisés exclusivement à des fins de recherche scientifique ne sont pas soumis aux obligations du règlement, à condition qu'ils ne soient pas mis sur le marché ou en service.7 Cette exemption est toutefois délimitée : dès qu'un prototype de recherche est déployé dans un contexte réel affectant des personnes, les obligations s'appliquent.

Bacs à sable réglementaires (regulatory sandboxes) : le règlement encourage les États membres à créer des environnements contrôlés permettant de tester des systèmes d'IA innovants sous supervision réglementaire, avec un cadre allégé. Ces dispositifs visent à favoriser l'innovation tout en assurant la protection des droits fondamentaux.8

Modèles d'IA à usage général (general-purpose AI models) : des dispositions spécifiques encadrent les modèles de fondation et les grands modèles de langage, avec des obligations renforcées pour ceux présentant un « risque systémique ».9

4. Implications pour les universités

Projets de recherche collaboratifs : toute collaboration impliquant un déploiement de système IA dans l'UE doit évaluer sa classification de risque et, le cas échéant, respecter les obligations afférentes. Cela affecte les projets Horizon Europe et les partenariats bilatéraux avec des institutions européennes.
Enseignement et évaluation : les systèmes d'IA utilisés pour l'évaluation ou l'orientation des étudiants (notation automatisée, systèmes d'admission) sont classés à haut risque.10 Les universités européennes — et leurs partenaires — devront se conformer aux exigences de documentation, de supervision humaine et de gestion des biais.
IA générative en contexte académique : les outils d'IA générative utilisés en enseignement ou en recherche sont soumis aux obligations de transparence (obligation d'informer que le contenu est généré par IA). Les implications pour l'intégrité académique sont considérables.
Publication et diffusion : les chercheurs publiant des modèles en accès libre devront être attentifs aux obligations applicables aux modèles d'IA à usage général, en particulier ceux présentant un risque systémique.

🔬 Zoom sur l'écosystème montréalais

L'AI Act a des implications directes pour les institutions montréalaises engagées dans des collaborations européennes. Mila, IVADO et les universités montréalaises participent à des projets de recherche internationaux et publient des modèles utilisés mondialement. La compréhension de ce cadre est essentielle pour maintenir ces collaborations. Par ailleurs, l'expérience canadienne en matière de gouvernance de l'IA (Directive sur la prise de décisions automatisée du gouvernement fédéral, Outil d'évaluation d'impact algorithmique) constitue une base utile pour répondre aux exigences européennes.11

5. Calendrier de mise en œuvre

L'AI Act prévoit une mise en œuvre échelonnée après son entrée en vigueur :12

6 mois : interdictions des pratiques à risque inacceptable.

12 mois : obligations pour les modèles d'IA à usage général.

24 mois : pleine application des obligations pour les systèmes à haut risque.

36 mois : application aux systèmes à haut risque relevant de certaines législations sectorielles.

[Ce calendrier est indicatif et doit être vérifié sur le site officiel de la Commission européenne, car des ajustements sont possibles lors de la transposition.]

Points clés à retenir

  1. L'AI Act est le premier cadre réglementaire contraignant dédié à l'IA, avec une portée extraterritoriale.
  2. L'approche par niveaux de risque module les obligations : de l'interdiction à l'absence de contrainte spécifique.
  3. La recherche bénéficie d'exemptions, mais celles-ci ont des limites : tout déploiement réel déclenche des obligations.
  4. Les systèmes IA en éducation (notation, admission) sont classés à haut risque.
  5. Les universités canadiennes collaborant avec l'UE doivent anticiper ces exigences.

Questions de réflexion

  1. L'exemption de recherche est-elle suffisamment claire ? Où se situe la frontière entre un prototype de recherche et un système déployé ?
  2. Le classement des systèmes éducatifs comme « haut risque » est-il justifié ? Quelles conséquences pour les innovations pédagogiques impliquant l'IA ?
  3. Le Canada devrait-il adopter une approche similaire par niveaux de risque, ou une approche différente est-elle préférable ?

Notes

  1. Règlement (UE) 2024/1689 du Parlement européen et du Conseil établissant des règles harmonisées en matière d'intelligence artificielle. Journal officiel de l'Union européenne. [Référence complète à vérifier au JOUE]
  2. Groupe d'experts de haut niveau sur l'IA (2019). Lignes directrices en matière d'éthique pour une IA digne de confiance. Commission européenne. Disponible sur le site de la Commission.
  3. La mise en œuvre est progressive : les dates exactes dépendent de la date de publication au Journal officiel. [Vérifier le calendrier officiel sur le site de la Commission européenne]
  4. Cette approche s'inspire du cadre réglementaire européen pour les produits (marquage CE) et de la législation sectorielle existante (dispositifs médicaux, sécurité des machines).
  5. AI Act, Titre II, articles 5 et suivants. Des exceptions existent pour l'identification biométrique dans des cas très encadrés (menace terroriste, recherche de victimes). [Vérifier les articles exacts dans la version consolidée]
  6. AI Act, Titre III, Chapitre 2. La liste des systèmes à haut risque figure à l'Annexe III du règlement et peut être mise à jour par la Commission via des actes délégués.
  7. AI Act, considérants et article 2. L'exemption couvre la R&D en amont de la mise sur le marché. Voir aussi : Edwards, L. (2022). The EU AI Act: a summary of its significance and scope. Ada Lovelace Institute. [Vérifier la source exacte]
  8. AI Act, Titre V. Les bacs à sable réglementaires doivent être établis par les autorités nationales compétentes.
  9. AI Act, Titre VIII bis (dans certaines versions du texte) / dispositions sur les GPAI. Le seuil de « risque systémique » est défini notamment par la puissance de calcul utilisée pour l'entraînement. [Vérifier la numérotation dans la version finale consolidée]
  10. AI Act, Annexe III, point 3. Les systèmes d'IA utilisés pour déterminer l'accès à l'éducation ou pour évaluer les apprenants sont explicitement mentionnés.
  11. Gouvernement du Canada. Directive sur la prise de décisions automatisée (2019, mise à jour). Secrétariat du Conseil du Trésor. Disponible sur le site du gouvernement du Canada.
  12. Calendrier indicatif basé sur les dispositions transitoires de l'AI Act. [Vérifier les dates précises sur le site de la Commission européenne — les délais courent à partir de l'entrée en vigueur officielle]
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Toutes les références marquées [À VÉRIFIER] doivent être confirmées avant usage académique ou institutionnel. Le texte de l'AI Act est en cours de mise en œuvre ; consultez la version consolidée sur EUR-Lex pour les dispositions officielles en vigueur.
Bibliothèque de l'IA Responsable · Écosystème HEC Montréal / UdeM · Document 2.1 · Mars 2026
Bibliothèque IA Responsable — Document 2.2

Loi 25 (Québec) et Loi C-27 (Canada)

Ce que les chercheurs et institutions doivent savoir

Public : Chercheurs, administrateurs, conformité ★★★ Avancé Mise à jour : Bisannuelle

Résumé exécutif

Le cadre juridique canadien en matière de protection des données et d'intelligence artificielle repose sur deux paliers législatifs. Au Québec, la Loi 25 modernise la protection des renseignements personnels avec une entrée en vigueur progressive (2022-2024).1 Au fédéral, le projet de loi C-27 propose une refonte incluant la Loi sur l'intelligence artificielle et les données (LIAD).2 Ce document décrypte les deux textes et leurs implications pour le milieu de la recherche.

1. La Loi 25 du Québec

Loi modernisant des dispositions législatives en matière de protection des renseignements personnels

Loi 25 · Québec · Sanctionnée le 22 septembre 2021 · Entrée en vigueur progressive : 2022-2024

La Loi 25 modifie principalement la Loi sur la protection des renseignements personnels dans le secteur privé et la Loi sur l'accès aux documents des organismes publics.3 Elle renforce considérablement les droits des individus et les obligations des organisations, incluant les institutions d'enseignement.

Dispositions clés pour la recherche

Responsable de la protection des renseignements personnels : chaque organisme doit désigner une personne responsable. Dans une université, cette fonction doit être assumée au plus haut niveau de direction.4
Évaluation des facteurs relatifs à la vie privée (ÉFVP) : obligatoire avant tout projet impliquant la collecte, l'utilisation ou la communication de renseignements personnels, incluant les projets de recherche utilisant des données personnelles.5
Consentement : le consentement doit être manifeste, libre, éclairé et donné à des fins spécifiques. Pour les renseignements sensibles, le consentement doit être explicite. Les règles sont plus strictes que dans le régime précédent.6
Décisions automatisées : toute personne faisant l'objet d'une décision fondée exclusivement sur un traitement automatisé doit en être informée et peut demander que la décision soit révisée par une personne physique.7
Droit à la portabilité : les individus peuvent demander la communication de leurs renseignements dans un format technologique structuré et couramment utilisé.8
Incidents de confidentialité : obligation de déclarer à la Commission d'accès à l'information (CAI) tout incident présentant un risque de préjudice sérieux, et d'en aviser les personnes concernées.9
Sanctions : amendes pouvant atteindre 25 millions de dollars ou 4 % du chiffre d'affaires mondial pour les entreprises. Les organismes publics sont soumis à des pénalités distinctes.10

2. Le projet de loi C-27 (fédéral)

Loi de 2022 sur la mise en œuvre de la charte du numérique

Projet de loi C-27 · Canada (fédéral) · Déposé en juin 2022 · Comprend trois parties

Le projet de loi C-27 comporte trois volets législatifs distincts :11

Partie 1 — Loi sur la protection de la vie privée des consommateurs (LPVPC) : remplacerait la partie 1 de la LPRPDE. Modernise le cadre de protection des données personnelles dans le secteur privé fédéral.

Partie 2 — Tribunal de la protection des renseignements personnels et des données : crée un nouveau tribunal administratif pour entendre les appels des décisions du Commissaire à la vie privée.

Partie 3 — Loi sur l'intelligence artificielle et les données (LIAD) : premier texte législatif fédéral canadien spécifiquement dédié à l'IA. Vise à réglementer les systèmes d'IA à incidence élevée et à interdire certaines pratiques.12

La LIAD : dispositions principales

Systèmes à incidence élevée : les personnes responsables de systèmes IA à incidence élevée doivent évaluer les risques de préjudice, prendre des mesures d'atténuation, et assurer une surveillance humaine.13
Transparence : obligation de publier une description des systèmes IA à incidence élevée, incluant leur fonctionnement général et les mesures d'atténuation des risques.
Interdictions : utilisation de systèmes IA causant un préjudice sérieux, publication de contenu généré par IA pouvant causer un préjudice économique ou physique sérieux.
Sanctions : amendes pouvant atteindre 10 millions de dollars ou 3 % du revenu brut mondial (le plus élevé des deux) pour les infractions les plus graves.14

⚠️ Important : Au moment de la rédaction, le projet de loi C-27 n'avait pas encore été adopté par le Parlement. Son statut législatif doit être vérifié.15 Les dispositions décrites reflètent le texte déposé et peuvent avoir été modifiées en cours de processus parlementaire.

3. Comparaison Loi 25 / C-27

DimensionLoi 25 (Québec)C-27 / LIAD (fédéral)
StatutEn vigueur (2022-2024)Projet de loi 15
PortéeSecteurs public et privé au QuébecSecteur privé fédéral + IA
Décisions automatiséesDroit d'information et de révisionObligations pour systèmes à incidence élevée
ÉFVPObligatoireÉvaluation de risque requise (LIAD)
Sanctions max.25 M$ ou 4 % CA mondial10 M$ ou 3 % revenu brut
Organe de surveillanceCommission d'accès à l'information (CAI)Commissaire à l'IA et aux données (LIAD)
RechercheExceptions limitées pour la rechercheNon détaillé dans la LIAD

4. Implications pratiques pour les chercheurs

Collecte de données : tout projet de recherche collectant des renseignements personnels au Québec doit respecter les exigences renforcées de la Loi 25 en matière de consentement et d'ÉFVP, en plus des exigences éthiques existantes (EPTC 2).16

Utilisation de systèmes IA : les chercheurs déployant des systèmes de décision automatisée touchant des individus (même dans le cadre d'études) doivent informer les participants et prévoir un mécanisme de révision humaine.

Incidents : toute brèche de données dans un projet de recherche doit être déclarée à la CAI si elle présente un risque de préjudice sérieux — une obligation nouvelle qui affecte les pratiques de gestion des données de recherche.

Double juridiction : les chercheurs québécois dans des universités à charte fédérale, ou dont les projets traversent les frontières provinciales, peuvent être soumis simultanément aux deux cadres. Une analyse au cas par cas est recommandée.

🔬 Zoom sur l'écosystème montréalais

Les universités montréalaises sont directement concernées par la Loi 25. HEC Montréal, l'Université de Montréal et Polytechnique Montréal, en tant qu'organismes d'enseignement, doivent désigner des responsables de la protection des renseignements personnels, conduire des ÉFVP pour leurs projets impliquant des données personnelles, et mettre à jour leurs politiques de gestion des données. Les comités d'éthique de la recherche (CÉR) doivent intégrer ces nouvelles exigences dans leurs protocoles d'évaluation.

Points clés à retenir

  1. La Loi 25 est en vigueur au Québec et impose des obligations concrètes aux institutions de recherche (ÉFVP, consentement renforcé, déclaration d'incidents).
  2. Le projet de loi C-27 introduirait la première loi fédérale spécifique à l'IA (LIAD), mais son adoption reste à confirmer.
  3. Les chercheurs doivent intégrer ces exigences dans la planification de leurs projets, en complément de l'EPTC 2.
  4. La double juridiction (provinciale/fédérale) complique la conformité et nécessite une analyse au cas par cas.

Questions de réflexion

  1. Les exceptions de recherche dans la Loi 25 sont-elles suffisantes pour permettre l'innovation en IA ? Quels ajustements seraient souhaitables ?
  2. La LIAD, si adoptée, suffirait-elle à encadrer les risques de l'IA, ou le Canada a-t-il besoin d'un cadre plus complet comparable à l'AI Act européen ?
  3. Comment les CÉR des universités québécoises devraient-ils adapter leurs procédures pour intégrer les exigences de la Loi 25 ?

Notes

  1. Loi modernisant des dispositions législatives en matière de protection des renseignements personnels, LQ 2021, c 25 (« Loi 25 »). Sanctionnée le 22 septembre 2021. Texte officiel disponible sur le site de l'Assemblée nationale du Québec.
  2. Projet de loi C-27, Loi de 2022 sur la mise en œuvre de la charte du numérique, 1ʳᵉ session, 44ᵉ législature. Déposé à la Chambre des communes le 16 juin 2022. [Vérifier le statut législatif actuel]
  3. La Loi 25 modifie notamment la Loi sur la protection des renseignements personnels dans le secteur privé (RLRQ, c P-39.1) et la Loi sur l'accès aux documents des organismes publics et sur la protection des renseignements personnels (RLRQ, c A-2.1).
  4. Loi 25, art. 3.1 (modifiant la Loi sur le secteur privé). Pour les organismes publics, le responsable est la personne ayant la plus haute autorité. [Vérifier la numérotation exacte des articles]
  5. L'ÉFVP est obligatoire pour tout projet d'acquisition, de développement ou de refonte de système d'information impliquant des renseignements personnels. Voir le site de la Commission d'accès à l'information du Québec pour les guides pratiques.
  6. La notion de renseignement « sensible » inclut notamment les renseignements de santé, les données biométriques et les renseignements financiers. La liste n'est pas exhaustive et doit être évaluée selon le contexte.
  7. Cette disposition s'applique aux décisions produisant des effets juridiques ou ayant des incidences significatives sur la personne. Elle est comparable (mais non identique) aux dispositions du RGPD européen (art. 22).
  8. Le droit à la portabilité est entré en vigueur en septembre 2024. Les modalités techniques de mise en œuvre peuvent varier.
  9. Commission d'accès à l'information du Québec (CAI). Le seuil de « risque de préjudice sérieux » fait l'objet de lignes directrices de la CAI. [Vérifier les lignes directrices les plus récentes]
  10. Loi 25, dispositions pénales. Les montants s'appliquent aux entreprises du secteur privé. Le régime de sanctions pour les organismes publics est distinct et généralement moins élevé.
  11. Projet de loi C-27, sommaire. Disponible sur le site du Parlement du Canada (LEGISinfo).
  12. La LIAD serait administrée par un nouveau Commissaire à l'intelligence artificielle et aux données, rattaché au ministère de l'Innovation, des Sciences et du Développement économique. [Vérifier si cette structure a été modifiée lors de l'étude en comité]
  13. La définition de « système à incidence élevée » serait précisée par règlement. Cette approche par voie réglementaire a été critiquée pour son manque de prévisibilité.
  14. LIAD, dispositions pénales. Des infractions criminelles sont également prévues pour les cas les plus graves (utilisation intentionnelle causant un préjudice sérieux). [Vérifier les montants dans la version la plus récente du texte]
  15. Au moment de la rédaction (mars 2026), le statut du projet de loi C-27 était incertain. La dissolution du Parlement ou un changement de gouvernement pourrait affecter son adoption. [VÉRIFIER IMPÉRATIVEMENT le statut actuel sur LEGISinfo]
  16. Conseil de recherches en sciences humaines, Conseil de recherches en sciences naturelles et en génie, Instituts de recherche en santé du Canada (2022). Énoncé de politique des trois conseils : Éthique de la recherche avec des êtres humains (EPTC 2). Disponible sur le site du Secrétariat sur la conduite responsable de la recherche.
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Le cadre législatif décrit est susceptible d'avoir évolué. Le statut du projet de loi C-27 doit être vérifié impérativement avant toute utilisation de ce document. Consultez les textes officiels sur les sites de l'Assemblée nationale du Québec, du Parlement du Canada et de la CAI.
Bibliothèque de l'IA Responsable · Écosystème HEC Montréal / UdeM · Document 2.2 · Mars 2026
Bibliothèque IA Responsable — Document 2.3

Comparatif international des cadres réglementaires IA

UE · Canada · USA · Chine · Afrique francophone

Public : Chercheurs, professeurs, doctorants ★★★ Avancé Mise à jour : Annuelle

Résumé exécutif

Les approches réglementaires de l'IA varient considérablement selon les juridictions, reflétant des philosophies politiques, des priorités économiques et des traditions juridiques distinctes. Ce document compare cinq zones : l'Union européenne (approche par les risques), le Canada (approche hybride en construction), les États-Unis (approche sectorielle), la Chine (approche par le contrôle étatique) et l'Afrique francophone (cadre émergent). L'analyse est pertinente pour les chercheurs impliqués dans des collaborations internationales.

1. Cinq approches, cinq philosophies

🇪🇺 Union européenne

Approche par les risques — régulation horizontale contraignante

L'UE a adopté l'AI Act (2024), premier cadre réglementaire contraignant dédié à l'IA.1 L'approche repose sur une classification par niveaux de risque (inacceptable, haut, limité, minimal) avec des obligations proportionnées. Le règlement complète le RGPD (2018) pour la protection des données.2

Philosophie : protection des droits fondamentaux comme priorité. La technologie doit s'adapter au cadre juridique, pas l'inverse. L'UE assume un possible coût en matière d'innovation au profit de la protection.

Force : clarté juridique, effet extraterritorial (« effet Bruxelles »), cadre complet. Limite : complexité de mise en œuvre, risque de frein à l'innovation, délais d'application.

🇨🇦 Canada

Approche hybride — cadre en construction

Le Canada combine une directive fédérale existante sur les décisions automatisées (2019)3, le projet de loi C-27 incluant la LIAD4, et des législations provinciales avancées comme la Loi 25 au Québec. La Stratégie pancanadienne en IA (CIFAR, 2017, renouvelée) a priorisé l'investissement dans la recherche.5

Philosophie : équilibre entre innovation et protection, avec une tradition de consultation et de prudence. La double juridiction (fédérale/provinciale) crée de la complexité mais aussi de la flexibilité.

Force : écosystème de recherche de pointe, tradition éthique (Déclaration de Montréal), Loi 25 avancée. Limite : fragmentation fédérale/provinciale, C-27 encore en processus, mise en œuvre inégale.

🇺🇸 États-Unis

Approche sectorielle — régulation légère et volontaire

Les États-Unis n'ont pas adopté de cadre réglementaire fédéral horizontal comparable à l'AI Act. L'approche repose sur des régulations sectorielles existantes (FDA pour la santé, FTC pour la protection des consommateurs), des décrets présidentiels6, des engagements volontaires de l'industrie, et des initiatives étatiques (notamment la loi californienne sur la transparence des IA).7

Philosophie : primat de l'innovation et de la compétitivité. La régulation doit être minimale et adaptée au secteur, pour ne pas entraver le leadership technologique américain. L'auto-régulation de l'industrie est privilégiée.

Force : flexibilité, rapidité d'adaptation, attractivité pour l'investissement. Limite : protection insuffisante des droits, fragmentation étatique, poids excessif de l'industrie dans la gouvernance.

🇨🇳 Chine

Approche par le contrôle étatique — régulation ciblée et rapide

La Chine a adopté plusieurs régulations spécifiques à des catégories d'IA : régulation des algorithmes de recommandation (2022), régulation de la synthèse profonde (deepfakes, 2023), et régulation de l'IA générative (2023).8 Ces textes sont administrés par la Cyberspace Administration of China (CAC) et complétés par la Loi sur la protection des informations personnelles (PIPL, 2021).9

Philosophie : double objectif de promotion de l'industrie nationale et de contrôle de l'information. La régulation sert à la fois la protection des consommateurs et la stabilité politique.

Force : rapidité législative, capacité d'adaptation technologie par technologie. Limite : opacité du processus décisionnel, instrumentalisation à des fins de contrôle social, absence de contre-pouvoirs indépendants.

🌍 Afrique francophone

Cadre émergent — entre initiatives continentales et lacunes normatives

L'Union africaine a adopté en 2024 une Stratégie continentale d'intelligence artificielle.10 Au niveau régional, plusieurs pays francophones développent des stratégies nationales (Sénégal, Rwanda, Maurice) mais les cadres réglementaires spécifiques à l'IA restent rares. La Convention de l'Union africaine sur la cybersécurité et la protection des données personnelles (Convention de Malabo, 2014) n'est entrée en vigueur qu'en 2023, avec des ratifications limitées.11

Philosophie : préoccupation pour la souveraineté numérique, la réduction des inégalités Nord-Sud et l'adaptation des technologies aux contextes locaux. L'absence de cadre réglementaire est à la fois un risque et une opportunité de « leapfrogging » réglementaire.

Force : jeunesse démographique, potentiel d'innovation frugale, sensibilité aux enjeux de souveraineté. Limite : capacités institutionnelles limitées, dépendance technologique, faible représentation dans les forums normatifs internationaux.

2. Tableau comparatif synthétique

Dimension🇪🇺 UE🇨🇦 Canada🇺🇸 USA🇨🇳 Chine🌍 Afrique fr.
ApprocheHorizontale, par risqueHybride, en constructionSectorielle, volontaireCiblée par technologieÉmergente
Texte principal IAAI Act (2024)C-27/LIAD (projet)Décrets + sectorielRégulations multiplesStratégie UA
ContraignantOuiPartiellementPeuOuiNon
Protection donnéesRGPDLoi 25/LPRPDESectorielPIPLMalabo (limité)
Priorité affichéeDroits fondamentauxÉquilibreInnovationContrôle + industrieSouveraineté
Portée extraterr.ForteLimitéeVariableLimitéeAucune
RechercheExemptions + sandboxesExceptions limitéesPeu encadréeEncouragée mais encadréePeu de cadre

3. Implications pour la recherche internationale

Collaborations UE-Canada : les chercheurs canadiens participant à des projets européens (Horizon Europe) devront respecter les exigences de l'AI Act et du RGPD. La conformité à la Loi 25 facilite partiellement cette mise en conformité, les deux cadres partageant une philosophie de protection.12

Collaborations avec les USA : l'absence de cadre fédéral américain crée une asymétrie réglementaire. Les chercheurs canadiens doivent appliquer leurs propres standards éthiques et réglementaires, même dans des collaborations avec des institutions américaines moins contraintes.

Mobilité des chercheurs : un chercheur formé au Canada qui travaille sur un projet déployé en Chine, financé par l'UE et impliquant des données de citoyens africains fait face à un enchevêtrement de cadres juridiques difficile à naviguer.

Publication de modèles : la mise en accès libre de modèles d'IA entraînés soulève des questions réglementaires dans toutes les juridictions. L'AI Act impose des obligations spécifiques pour les modèles d'IA à usage général, même publiés en accès libre.

🔬 Zoom sur l'écosystème montréalais

Montréal est un carrefour international de la recherche en IA, avec des collaborations actives avec l'Europe, les États-Unis, l'Asie et l'Afrique. La compréhension des différents cadres réglementaires est une compétence stratégique pour l'écosystème. Le positionnement éthique de Montréal (Déclaration de Montréal, Mila, IVADO) constitue un atout diplomatique dans les collaborations internationales, offrant un interlocuteur crédible tant pour les partenaires européens soucieux de conformité que pour les partenaires du Sud global préoccupés par la souveraineté.

Points clés à retenir

  1. Cinq philosophies réglementaires distinctes coexistent : droits fondamentaux (UE), équilibre (Canada), innovation (USA), contrôle étatique (Chine), souveraineté (Afrique).
  2. L'AI Act européen a l'effet extraterritorial le plus marqué et influence les cadres en développement.
  3. La recherche internationale implique de naviguer entre des cadres potentiellement contradictoires.
  4. L'Afrique francophone représente un espace où les normes sont en construction — une opportunité de co-construction avec le milieu académique.

Questions de réflexion

  1. L'harmonisation internationale des cadres IA est-elle souhaitable ? Une diversité d'approches peut-elle être un avantage ?
  2. Le Canada est-il mieux positionné pour jouer un rôle de pont entre l'approche européenne et l'approche américaine ? Quels en seraient les risques ?
  3. Comment les universités africaines francophones pourraient-elles contribuer à la construction de cadres réglementaires adaptés à leurs contextes ?

Notes

  1. Règlement (UE) 2024/1689 (AI Act). Voir Doc 2.1 de cette bibliothèque pour une synthèse détaillée.
  2. Règlement (UE) 2016/679 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel (RGPD). Applicable depuis le 25 mai 2018.
  3. Gouvernement du Canada, Secrétariat du Conseil du Trésor (2019). Directive sur la prise de décisions automatisée. Applicable aux institutions fédérales. [Vérifier les mises à jour]
  4. Voir Doc 2.2 de cette bibliothèque pour une analyse détaillée de la Loi 25 et du projet de loi C-27. [Vérifier le statut de C-27]
  5. CIFAR (2017). Stratégie pancanadienne en matière d'intelligence artificielle. Renouvelée avec un investissement additionnel annoncé dans le budget fédéral 2024. [Vérifier les détails du renouvellement]
  6. Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence (octobre 2023). [Vérifier si ce décret est toujours en vigueur — les décrets présidentiels peuvent être révoqués par une nouvelle administration]
  7. Plusieurs États américains ont adopté ou proposé des législations spécifiques. Le Colorado AI Act (2024) et les initiatives californiennes sont parmi les plus avancées. [Vérifier le statut de ces législations étatiques]
  8. Cyberspace Administration of China. Règlements sur les algorithmes de recommandation (2022), la synthèse profonde (2023) et l'IA générative (Interim Measures for the Management of Generative AI Services, 2023). [Vérifier les titres officiels et dates exactes]
  9. Personal Information Protection Law (PIPL), entrée en vigueur le 1er novembre 2021. Souvent comparée au RGPD mais avec des différences significatives, notamment le rôle de l'État dans l'accès aux données.
  10. Union africaine (2024). Continental Artificial Intelligence Strategy. [Vérifier la date d'adoption exacte et le statut]
  11. Convention de l'Union africaine sur la cybersécurité et la protection des données à caractère personnel (Convention de Malabo, 2014). Entrée en vigueur en juin 2023 après la 15ᵉ ratification. [Vérifier le nombre actuel de ratifications]
  12. L'UE a reconnu le Canada comme offrant un niveau de protection des données « adéquat » au sens du RGPD pour le secteur commercial (décision d'adéquation). Cette reconnaissance facilite les transferts de données. [Vérifier si cette décision a été mise à jour]
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Les cadres réglementaires décrits évoluent rapidement. Plusieurs textes mentionnés sont des projets ou des textes récents dont le statut doit être vérifié. Consultez les sources officielles (EUR-Lex, LEGISinfo, sites gouvernementaux) avant toute citation.
Bibliothèque de l'IA Responsable · Écosystème HEC Montréal / UdeM · Document 2.3 · Mars 2026
Bibliothèque IA Responsable — Document 2.4

Guide de conformité pour les projets de recherche impliquant des systèmes IA

Données · Consentement · Éthique de la recherche

Public : Chercheurs, étudiants gradués, soutien à la recherche ★★ Intermédiaire Format : Guide opérationnel (5-7 pages)

Résumé exécutif

Les projets de recherche impliquant l'intelligence artificielle doivent naviguer entre les exigences éthiques traditionnelles (EPTC 2)1, les obligations réglementaires récentes (Loi 25 au Québec, RGPD pour les collaborations européennes) et les enjeux spécifiques à l'IA (biais, transparence, impacts). Ce guide propose un parcours de conformité en six étapes, de la conception du projet à la diffusion des résultats.

Parcours de conformité en six étapes

01

Caractérisation du projet et de ses risques

Avant toute démarche de conformité, il faut caractériser le projet : le système IA est-il un outil de collecte, d'analyse ou de décision ? Implique-t-il des données personnelles ? Affecte-t-il des personnes humaines directement ou indirectement ? Quels sont les groupes potentiellement vulnérables concernés ?

Checklist : Nature du système IA · Type de données (personnelles, sensibles, anonymisées, publiques) · Populations concernées · Domaine d'application · Juridictions impliquées · Collaborateurs et partenaires · Sources de financement et leurs exigences
02

Approbation éthique (CÉR)

Tout projet impliquant des êtres humains — y compris par le biais de leurs données — doit être soumis au Comité d'éthique de la recherche (CÉR) de l'institution.2 L'EPTC 2 s'applique à toute recherche financée par les trois conseils (CRSH, CRSNG, IRSC) et est adoptée par la plupart des universités canadiennes comme standard institutionnel.

Le protocole soumis au CÉR devrait explicitement aborder les dimensions spécifiques à l'IA : risque de biais dans les données ou le modèle, explicabilité des résultats, impacts potentiels sur les groupes vulnérables, plan de gestion des incidents.3

Checklist : Formulaire CÉR complété · Dimensions IA explicitement couvertes · Formulaire de consentement adapté (si applicable) · Plan de gestion des risques algorithmiques
03

Conformité en matière de données

Au Québec (Loi 25) : une Évaluation des facteurs relatifs à la vie privée (ÉFVP) est obligatoire pour tout projet impliquant la collecte ou l'utilisation de renseignements personnels.4 Le consentement doit être manifeste, libre et éclairé, donné à des fins spécifiques. Pour les données sensibles, un consentement explicite est requis.

Pour les collaborations européennes (RGPD) : le transfert de données personnelles hors de l'UE est encadré. Le Canada bénéficie d'une décision d'adéquation pour le secteur commercial.5 Les transferts vers les universités doivent être vérifiés au cas par cas.

Données autochtones : les projets impliquant des données de communautés autochtones doivent respecter les principes PCAP® (Propriété, Contrôle, Accès, Possession) et engager un processus de consentement communautaire, en plus du consentement individuel.6

Checklist : ÉFVP réalisée (Loi 25) · Consentement adapté au type de données · Transferts internationaux vérifiés · PCAP® respecté si données autochtones · Plan de conservation et de destruction · Mesures de sécurité documentées
04

Conception responsable du système IA

La conformité ne se limite pas aux données : la conception même du système IA doit intégrer les principes d'IA responsable.7 Cela inclut l'évaluation des biais potentiels dans les données d'entraînement, le choix de métriques d'équité appropriées au contexte, la documentation du modèle et de ses limites, et la mise en place de mécanismes de supervision humaine.

Checklist : Audit des données d'entraînement (représentativité, biais) · Métriques d'équité sélectionnées et justifiées · Documentation du modèle (fiche modèle / model card) · Limites connues documentées · Supervision humaine prévue

Voir Doc 4.1 (IA Responsable by Design) et Doc 4.3 (Protocole d'audit éthique) pour des méthodologies détaillées.

05

Documentation et traçabilité

La documentation est une exigence transversale à tous les cadres réglementaires et éthiques. Elle est indispensable pour l'imputabilité, la reproductibilité scientifique et la conformité réglementaire. Une documentation rigoureuse doit couvrir l'ensemble du cycle de vie du projet.8

Checklist : Provenance et caractéristiques des données · Architecture et paramètres du modèle · Processus d'entraînement et de validation · Résultats des tests d'équité et de robustesse · Décisions de conception et leurs justifications · Incidents et mesures correctives · Registre des versions
06

Diffusion responsable des résultats

La publication de recherches impliquant l'IA soulève des enjeux spécifiques : partage responsable de modèles et de données, divulgation des limites et des biais identifiés, respect de la vie privée des participants, et anticipation des usages détournés (dual use).9

Checklist : Limites et biais documentés dans la publication · Données anonymisées ou synthétiques partagées (si applicable) · Licence de diffusion appropriée pour les modèles · Évaluation des risques de double usage · Formulaire de consentement couvrant la diffusion · Conformité AI Act si modèle à usage général

🔬 Zoom sur l'écosystème montréalais

Les universités montréalaises disposent de structures de soutien à la conformité éthique et réglementaire : les CÉR d'HEC Montréal, de l'Université de Montréal et de Polytechnique Montréal évaluent les protocoles de recherche impliquant des êtres humains. L'émergence de l'IA dans les projets de recherche pousse ces comités à développer de nouvelles expertises. Les bureaux de la recherche offrent un accompagnement pour les ÉFVP et les questions de conformité. IVADO et Mila disposent également de ressources en matière d'éthique de la recherche en IA. [Vérifier les ressources actuellement disponibles auprès de chaque institution]

Points clés à retenir

  1. La conformité en IA est multicouche : éthique (EPTC 2), réglementaire (Loi 25, RGPD) et technique (IA responsable by design).
  2. L'ÉFVP est obligatoire au Québec pour tout projet impliquant des données personnelles.
  3. Les données autochtones nécessitent un processus de consentement communautaire (PCAP®) en plus du consentement individuel.
  4. La documentation et la traçabilité sont des exigences transversales à tous les cadres.
  5. La diffusion des résultats doit anticiper les risques de double usage et respecter les obligations réglementaires.

Questions de réflexion

  1. Les procédures actuelles des CÉR sont-elles adaptées pour évaluer les risques spécifiques à l'IA, ou des réformes sont-elles nécessaires ?
  2. Comment concilier l'ouverture scientifique (partage de données et de modèles) avec les exigences croissantes de protection des données ?
  3. Les chercheurs disposent-ils d'un soutien institutionnel suffisant pour naviguer la complexité réglementaire ? Que manque-t-il ?

Notes

  1. CRSH, CRSNG, IRSC (2022). Énoncé de politique des trois conseils : Éthique de la recherche avec des êtres humains (EPTC 2). Secrétariat sur la conduite responsable de la recherche. Disponible sur le site du Secrétariat.
  2. EPTC 2, chapitre 6 (Gouvernance de l'éthique de la recherche). L'examen par un CÉR est obligatoire pour toute recherche avec des êtres humains financée par les trois conseils.
  3. L'EPTC 2 ne contient pas de section spécifique à l'IA, mais ses principes généraux (respect des personnes, préoccupation pour le bien-être, justice) s'appliquent. Certains CÉR ont développé des grilles complémentaires. [Vérifier si l'EPTC 2 a été mis à jour pour intégrer l'IA]
  4. Loi 25, dispositions relatives à l'ÉFVP. La Commission d'accès à l'information du Québec (CAI) publie des guides pratiques pour la réalisation d'ÉFVP. Disponibles sur le site de la CAI.
  5. Commission européenne, décision d'adéquation relative au Canada (2002). Cette décision couvre les transferts vers les organisations commerciales assujetties à la LPRPDE. [Vérifier si la décision a été réexaminée ou mise à jour]
  6. Centre de gouvernance de l'information des Premières Nations (CGIPN). Les principes PCAP® (Propriété, Contrôle, Accès, Possession) sont un standard reconnu pour la recherche impliquant les Premières Nations au Canada. Voir le site du CGIPN.
  7. Voir Doc 4.1 de cette bibliothèque : Guide « IA Responsable by Design ». Voir aussi : Mitchell, M. et al. (2019). Model Cards for Model Reporting. Proceedings of the ACM Conference on Fairness, Accountability, and Transparency (FAT*). [Vérifier l'année et la conférence exacte]
  8. L'AI Act européen (Annexe IV) impose une documentation technique détaillée pour les systèmes à haut risque. Même en dehors du cadre européen, cette documentation est une bonne pratique de reproductibilité scientifique.
  9. La question du « dual use » (double usage — usage pacifique et usage potentiellement nocif) est un enjeu de longue date dans les sciences et fait l'objet de discussions spécifiques dans le contexte de l'IA. Voir les politiques de publication de conférences comme NeurIPS. [Vérifier les politiques actuelles]
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Ce guide ne constitue pas un avis juridique. Les exigences réglementaires sont susceptibles d'évoluer. Consultez le bureau de la recherche et les services juridiques de votre institution pour un accompagnement adapté à votre projet spécifique.
Bibliothèque de l'IA Responsable · Écosystème HEC Montréal / UdeM · Document 2.4 · Mars 2026
Bibliothèque IA Responsable — Document 2.5

Rôle des comités d'éthique de la recherche (CÉR) face à l'IA

Défis, lacunes et pistes d'adaptation

Public : Membres de CÉR, chercheurs, administrateurs ★★ Intermédiaire Format : Fiche (2-3 pages)

Résumé exécutif

Les comités d'éthique de la recherche (CÉR) sont confrontés à des défis inédits avec l'émergence de l'IA dans les protocoles de recherche. L'EPTC 21, cadre de référence au Canada, n'a pas été conçu pour les enjeux spécifiques de l'IA. Cette fiche examine les lacunes des grilles d'évaluation actuelles, identifie les défis spécifiques et propose des pistes d'adaptation pour renforcer l'expertise IA au sein des CÉR.

1. Mandat et cadre actuel des CÉR

Au Canada, les CÉR ont pour mandat d'évaluer l'acceptabilité éthique des projets de recherche impliquant des êtres humains, conformément à l'EPTC 2.2 Leur évaluation repose sur trois principes fondamentaux : le respect des personnes, la préoccupation pour le bien-être, et la justice. Les CÉR examinent le consentement, les risques et bénéfices, la confidentialité et l'inclusion.

Ce cadre a été développé principalement pour les recherches biomédicales et comportementales. Il s'applique à la recherche en IA lorsque celle-ci implique des êtres humains — directement (participants) ou indirectement (données personnelles, impacts sur des populations).3 Cependant, plusieurs caractéristiques de l'IA mettent en difficulté les grilles d'évaluation traditionnelles.

2. Défis spécifiques posés par l'IA

Opacité des systèmes

Les modèles d'apprentissage profond sont souvent des « boîtes noires » dont le fonctionnement est difficile à expliquer, même pour leurs créateurs. Un CÉR peut difficilement évaluer les risques d'un système qu'il ne peut pas comprendre. Cette opacité complique l'évaluation du rapport risques-bénéfices, pierre angulaire de l'examen éthique.4

Consentement à géométrie variable

L'IA exploite souvent des données collectées à d'autres fins (utilisation secondaire), des données publiquement disponibles (web scraping), ou des données agrégées dont les individus ignorent l'existence. Le modèle classique du consentement individuel, libre, éclairé et spécifique est mis au défi.5

Risques collectifs et diffus

L'IA peut produire des préjudices collectifs (biais affectant un groupe démographique) plutôt qu'individuels, et des risques diffus qui ne se manifestent qu'à l'échelle du déploiement. Les CÉR sont habitués à évaluer des risques individuels pour des participants identifiés, pas des risques systémiques pour des populations.6

Évolution continue des systèmes

Un modèle IA peut évoluer après son déploiement (apprentissage continu, mises à jour). Le protocole de recherche évalué par le CÉR peut ne plus correspondre au système réellement utilisé. Les cadres d'évaluation statiques (approbation ponctuelle) sont inadaptés à des systèmes dynamiques.

Frontière floue recherche / déploiement

Avec l'IA, la frontière entre recherche et déploiement est souvent poreuse. Un prototype de recherche peut être rapidement intégré à un produit ou un service. Cette fluidité complique la détermination du moment où l'examen éthique s'applique et de sa durée.7

Déficit d'expertise technique

Les membres des CÉR ont rarement une expertise en apprentissage automatique, en science des données ou en ingénierie logicielle. Cette asymétrie d'expertise rend difficile l'évaluation critique des protocoles techniques et l'identification des risques spécifiques.

3. Pistes d'adaptation

Renforcer l'expertise IA au sein des CÉR : intégrer des membres ayant une formation en science des données ou en IA, ou recourir à des experts externes pour l'évaluation des projets impliquant l'IA. Des formations ciblées pour les membres existants sont également souhaitables.8
Développer des grilles complémentaires spécifiques à l'IA : sans remplacer l'EPTC 2, des critères complémentaires pourraient couvrir les dimensions propres à l'IA : évaluation des biais, explicabilité, impact sur les groupes vulnérables, traçabilité des données d'entraînement, plan de surveillance post-déploiement.
Passer d'une évaluation ponctuelle à un suivi continu : pour les projets IA à risque élevé, un examen éthique continu (avec des points de contrôle périodiques) serait plus approprié qu'une approbation unique en début de projet.
Intégrer l'évaluation d'impact algorithmique : exiger une Évaluation d'Impact Algorithmique (EIA) comme composante du dossier soumis au CÉR, en complément de l'évaluation éthique traditionnelle.9 Voir Doc 4.2 de cette bibliothèque.
Coordonner avec les exigences réglementaires : aligner les procédures du CÉR avec les obligations de la Loi 25 (ÉFVP) pour éviter les doublons et assurer une couverture complète. Un dossier unique répondant aux deux cadres gagnerait en efficacité.
Favoriser la collaboration inter-CÉR : les enjeux de l'IA sont transversaux. Des collaborations entre CÉR (partage de bonnes pratiques, évaluations conjointes pour les projets multi-institutionnels) permettraient de mutualiser l'expertise et d'harmoniser les standards.

🔬 Zoom sur l'écosystème montréalais

Les CÉR des universités montréalaises font face à un volume croissant de projets impliquant l'IA, alimenté par la vitalité de l'écosystème de recherche local (Mila, IVADO, HEC Montréal, UdeM). La proximité de ces institutions offre une opportunité de développer des approches coordonnées. Le Comité d'éthique de la recherche d'HEC Montréal et celui de l'Université de Montréal évaluent déjà des projets impliquant l'IA et pourraient servir de laboratoires pour l'élaboration de nouvelles grilles d'évaluation. [Vérifier les pratiques actuelles de ces CÉR]

Points clés à retenir

  1. L'EPTC 2 s'applique à la recherche en IA impliquant des êtres humains, mais n'a pas été conçu pour ses enjeux spécifiques.
  2. Six défis principaux : opacité, consentement, risques collectifs, évolution continue, frontière recherche/déploiement, déficit d'expertise.
  3. Les CÉR doivent renforcer leur expertise technique et développer des grilles complémentaires adaptées à l'IA.
  4. Le passage à un suivi continu (plutôt qu'une approbation ponctuelle) est souhaitable pour les projets IA à risque élevé.
  5. La coordination avec les exigences réglementaires (Loi 25) éviterait les doublons et renforcerait la protection.

Questions de réflexion

  1. L'EPTC 2 devrait-il être mis à jour pour intégrer explicitement les enjeux de l'IA, ou des lignes directrices complémentaires suffisent-elles ?
  2. Comment recruter et former des experts en IA pour les CÉR tout en préservant l'indépendance et la diversité de perspectives ?
  3. Les CÉR sont-ils l'instance appropriée pour évaluer les risques sociétaux de l'IA, ou faut-il créer de nouvelles structures de gouvernance ?

Notes

  1. CRSH, CRSNG, IRSC (2022). Énoncé de politique des trois conseils : Éthique de la recherche avec des êtres humains (EPTC 2), 2ᵉ édition. Secrétariat sur la conduite responsable de la recherche. [Vérifier si une mise à jour intégrant l'IA a été publiée]
  2. L'examen par un CÉR est obligatoire pour toute recherche avec des êtres humains dans les institutions recevant des fonds des trois conseils (CRSH, CRSNG, IRSC). La plupart des universités canadiennes appliquent ce cadre à l'ensemble de leurs activités de recherche.
  3. L'EPTC 2 définit la « recherche avec des êtres humains » de manière large, incluant l'utilisation de données personnelles identifiables et les interventions indirectes. Chapitre 2, articles 2.1 et suivants.
  4. Sur l'opacité algorithmique et ses implications éthiques, voir : Burrell, J. (2016). How the machine 'thinks': Understanding opacity in machine learning algorithms. Big Data & Society, 3(1). [Vérifier le DOI]
  5. L'EPTC 2, chapitre 3, prévoit des dispositions pour l'utilisation secondaire de données et pour les situations où le consentement individuel est impraticable. Cependant, ces dispositions n'ont pas été conçues pour l'échelle et la complexité des traitements IA.
  6. Sur les risques collectifs de l'IA, voir : Selbst, A.D. et al. (2019). Fairness and Abstraction in Sociotechnical Systems. Proceedings of ACM FAT*. [Vérifier la référence]
  7. Ce flou est reconnu par l'AI Act européen, qui prévoit que l'exemption de recherche cesse dès qu'un système est « mis sur le marché ou en service ». Voir Doc 2.1 de cette bibliothèque.
  8. Certaines institutions ont créé des sous-comités spécialisés ou des comités consultatifs en IA pour appuyer le travail des CÉR. [Vérifier les exemples canadiens existants]
  9. Gouvernement du Canada. Outil d'évaluation de l'incidence algorithmique. Conçu pour les institutions fédérales mais adaptable au contexte universitaire. Disponible sur le site du gouvernement du Canada.
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Les pratiques des CÉR varient selon les institutions et évoluent. Consultez le CÉR de votre institution et le Secrétariat sur la conduite responsable de la recherche pour les procédures en vigueur.
Bibliothèque de l'IA Responsable · Écosystème HEC Montréal / UdeM · Document 2.5 · Mars 2026
Bibliothèque IA Responsable — Document 3.1

Guide d'identification et de mitigation des biais algorithmiques

Cadre méthodologique · Taxonomie · Stratégies de mitigation

Public : Chercheurs, étudiants gradués, data scientists★★★ AvancéMise à jour : Annuelle

Résumé exécutif

Les biais algorithmiques constituent l'un des enjeux les plus étudiés de l'IA responsable. Ce guide propose un cadre méthodologique structuré pour identifier, mesurer et atténuer les biais à chaque étape du cycle de vie d'un modèle d'IA. Il présente les principales taxonomies de biais, les métriques d'équité formelles et leurs incompatibilités mathématiques, ainsi que les stratégies de mitigation documentées dans la littérature scientifique.

1. Taxonomie des biais algorithmiques

Les biais algorithmiques ne sont pas un phénomène unique : ils émergent de sources diverses à différentes étapes du processus. La taxonomie suivante est synthétisée à partir de plusieurs travaux de référence.1

Biais liés aux données

Biais de représentation Representation Bias

Les données d'entraînement ne reflètent pas la diversité de la population cible. Certains groupes sont sur- ou sous-représentés, produisant un modèle qui performe inégalement selon les sous-populations. L'étude Gender Shades a documenté des disparités considérables dans les systèmes de reconnaissance faciale commerciaux.2

Biais historique Historical Bias

Les données reflètent fidèlement une réalité elle-même marquée par des inégalités ou des discriminations passées. Le modèle apprend et reproduit ces inégalités structurelles, même si les données sont « correctes ». Par exemple, les systèmes de prédiction de la récidive entraînés sur des données historiques d'arrestation reproduisent les biais de sur-policing de certaines communautés.3

Biais de mesure Measurement Bias

Les variables utilisées pour représenter un phénomène ne le mesurent pas de manière équivalente pour tous les groupes. Par exemple, utiliser le score de crédit comme proxy de fiabilité financière défavorise les populations historiquement exclues du système bancaire. L'étude d'Obermeyer et al. (2019) a montré comment l'utilisation du coût des soins comme proxy de la gravité de maladie produisait un biais racial majeur.4

Biais d'étiquetage Label Bias

Les annotations humaines (étiquettes) utilisées pour l'apprentissage supervisé contiennent elles-mêmes des biais, reflétant les préjugés ou le contexte culturel des annotateurs. Ce biais est particulièrement insidieux car il est intégré directement dans la « vérité terrain » du modèle.

Biais liés au modèle

Biais d'agrégation Aggregation Bias

Un modèle unique est appliqué à des populations hétérogènes ayant des dynamiques différentes. L'agrégation masque les disparités entre sous-groupes. Ce problème est particulièrement documenté en santé, où des modèles entraînés sur des populations majoritairement blanches performent moins bien pour d'autres groupes ethniques.5

Biais d'apprentissage Learning Bias

Le choix de la fonction objectif, de l'architecture du modèle ou des hyperparamètres favorise implicitement certains résultats ou groupes. La définition même de ce que le modèle « optimise » est un choix normatif qui a des conséquences distributives.

Biais liés au déploiement

Biais d'évaluation Evaluation Bias

Le modèle est évalué sur des jeux de test qui ne sont pas représentatifs de son contexte réel d'utilisation, masquant des performances dégradées pour certains sous-groupes.

Biais de déploiement Deployment Bias

Le système est utilisé dans un contexte différent de celui pour lequel il a été conçu, ou ses résultats sont interprétés de manière biaisée par les utilisateurs humains. Le biais d'automatisation — confiance excessive dans la machine — est bien documenté dans la littérature sur les facteurs humains.6

2. Métriques d'équité et leurs incompatibilités

La recherche en équité algorithmique a produit plus de vingt définitions formelles de l'équité.7 Trois familles de métriques sont particulièrement utilisées :

Parité démographique (Demographic Parity) : le taux de résultats positifs doit être égal entre les groupes. Ex. : même pourcentage de candidats acceptés dans chaque groupe démographique.
Égalité des chances (Equalized Odds) : les taux de vrais positifs et de faux positifs doivent être égaux entre les groupes. Proposé par Hardt, Price et Srebro (2016).8
Calibration : parmi les individus ayant reçu un même score de risque, la proportion de résultats positifs réels doit être la même dans tous les groupes.

Résultat fondamental d'impossibilité : Chouldechova (2017) et Kleinberg, Mullainathan et Raghavan (2016) ont démontré indépendamment que la parité démographique, l'égalité des chances et la calibration ne peuvent être satisfaites simultanément, sauf lorsque les taux de base sont identiques entre les groupes.9 Ce résultat implique que chaque choix de métrique d'équité est un choix normatif qui doit être justifié en fonction du contexte d'application et des valeurs des parties prenantes.

3. Stratégies de mitigation par phase

Phase 1 — Pré-traitement (données)

Interventions sur les données avant entraînement

Rééchantillonnage : ajuster la distribution des données pour corriger les déséquilibres de représentation (sur-échantillonnage des groupes minoritaires, sous-échantillonnage du groupe majoritaire).

Repondération : attribuer des poids différents aux exemples d'entraînement pour compenser les déséquilibres sans modifier le jeu de données.

Transformation des données : modifier les variables pour supprimer la corrélation avec les attributs protégés, tout en préservant autant d'information utile que possible.10

Audit des étiquettes : vérifier la cohérence et l'absence de biais dans les annotations humaines, idéalement avec des annotateurs diversifiés et des protocoles de réconciliation des désaccords.

Phase 2 — En cours d'entraînement (modèle)

Contraintes d'équité dans l'optimisation

Régularisation par l'équité : ajouter un terme de pénalité dans la fonction objectif qui pénalise les disparités entre groupes, forçant le modèle à trouver un compromis entre performance et équité.

Apprentissage adverse : utiliser un réseau adversaire qui tente de prédire l'attribut protégé à partir des représentations internes du modèle, forçant le modèle à apprendre des représentations indépendantes du groupe.11

Optimisation multi-objectifs : optimiser simultanément la performance et une ou plusieurs métriques d'équité, en explorant le front de Pareto des compromis possibles.

Phase 3 — Post-traitement (résultats)

Ajustements après prédiction

Calibration différenciée : ajuster les seuils de décision différemment pour chaque groupe afin d'égaliser une métrique d'équité choisie.

Rejet avec option : dans les cas proches du seuil de décision, référer à un décideur humain plutôt que de s'appuyer sur la prédiction automatique.

Avantage : ces méthodes peuvent être appliquées sans réentraîner le modèle. Limite : elles traitent les symptômes plutôt que les causes structurelles du biais.12

4. Outils disponibles

OutilOrganisationFonction principaleLicence
AI Fairness 360IBMMétriques d'équité + algorithmes de mitigation pré/en/postApache 2.0
FairlearnMicrosoftMétriques + algorithmes de réduction et post-traitementMIT
What-If ToolGoogleExploration visuelle des performances par sous-groupeApache 2.0
AequitasU. ChicagoAudit d'équité pour systèmes de décisionMIT

Voir Doc 4.4 de cette bibliothèque pour une recension commentée détaillée de ces outils.

🔬 Zoom sur l'écosystème montréalais

L'écosystème montréalais contribue activement à la recherche sur les biais algorithmiques. Mila héberge des travaux sur l'équité en apprentissage automatique. IVADO soutient des projets de recherche interdisciplinaires combinant expertise technique et analyse sociale des biais. La proximité entre informaticiens, sociologues, juristes et philosophes dans le milieu universitaire montréalais favorise les approches interdisciplinaires, reconnues comme essentielles pour un enjeu qui n'est pas réductible à sa dimension technique.13

Points clés à retenir

  1. Les biais algorithmiques émergent à chaque étape : collecte, modélisation, déploiement. Chaque étape nécessite des stratégies spécifiques.
  2. Il est mathématiquement impossible de satisfaire toutes les définitions de l'équité simultanément — chaque choix de métrique est un choix normatif.
  3. Les stratégies de mitigation se déploient en trois phases : pré-traitement, en cours d'entraînement, post-traitement.
  4. Des outils open-source existent (AI Fairness 360, Fairlearn, etc.) mais leur utilisation nécessite une compréhension des choix normatifs sous-jacents.
  5. La correction des biais est un processus continu, pas une intervention ponctuelle.

Questions de réflexion

  1. Qui devrait décider quelle métrique d'équité est appropriée pour un contexte donné ? Les développeurs ? Les personnes affectées ? Les régulateurs ?
  2. Les biais historiques dans les données doivent-ils être corrigés par des interventions techniques, ou est-ce le rôle de politiques sociales plus larges ?
  3. Un modèle parfaitement « équitable » selon une métrique donnée peut-il néanmoins produire des résultats injustes ? Pourquoi ?

Notes

  1. Mehrabi, N. et al. (2021). A survey on bias and fairness in machine learning. ACM Computing Surveys, 54(6). Suresh, H. & Guttag, J. (2021). A framework for understanding sources of harm throughout the machine learning life cycle. Proceedings of EAAMO '21. [Vérifier la référence Suresh & Guttag]
  2. Buolamwini, J. & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research, 81, 1–15.
  3. Le système COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) a été analysé par ProPublica en 2016. Angwin, J. et al. (2016). Machine Bias. ProPublica.
  4. Obermeyer, Z. et al. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464), 447–453.
  5. Le biais d'agrégation est documenté en santé, où des modèles entraînés sur des populations à diversité limitée performent moins bien pour les groupes sous-représentés. Voir les travaux sur la médecine de précision et l'équité.
  6. Parasuraman, R. & Manzey, D. (2010). Complacency and bias in human use of automation. Human Factors, 52(3), 381–410. [pages à vérifier]
  7. Verma, S. & Rubin, J. (2018). Fairness definitions explained. Proceedings of IEEE/ACM International Workshop on Software Fairness (FairWare). [Vérifier la conférence exacte]
  8. Hardt, M., Price, E., & Srebro, N. (2016). Equality of opportunity in supervised learning. Advances in Neural Information Processing Systems (NeurIPS).
  9. Chouldechova, A. (2017). Fair prediction with disparate impact: A study of bias in recidivism prediction instruments. Big Data, 5(2), 153–163. Kleinberg, J., Mullainathan, S., & Raghavan, M. (2016). Inherent trade-offs in the fair determination of risk scores. arXiv preprint arXiv:1609.05807. [Vérifier si publié dans une revue]
  10. Feldman, M. et al. (2015). Certifying and removing disparate impact. Proceedings of the 21st ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. [pages à vérifier]
  11. Zhang, B.H., Lemoine, B., & Mitchell, M. (2018). Mitigating unwanted biases with adversarial learning. Proceedings of AIES '18. [Vérifier la référence complète]
  12. Corbett-Davies, S. & Goel, S. (2018). The measure and mismeasure of fairness: A critical review of fair machine learning. arXiv preprint arXiv:1808.00023. [Vérifier si publié dans une revue]
  13. Selbst, A.D. et al. (2019). Fairness and Abstraction in Sociotechnical Systems. Proceedings of ACM FAT*. Cet article argumente que les solutions purement techniques à l'équité échouent lorsqu'elles ignorent le contexte social.
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Les outils et méthodes décrits évoluent rapidement. Consultez la documentation officielle de chaque outil et les publications récentes sur Google Scholar, ACM Digital Library et arXiv pour les mises à jour.
Bibliothèque de l'IA Responsable · Écosystème HEC Montréal / UdeM · Document 3.1 · Mars 2026
Bibliothèque IA Responsable — Document 3.2

Catalogue des risques IA par domaine académique

Gestion · Finance · Santé · Droit · Sciences sociales · Éducation

Public : Professeurs, étudiants gradués, chercheurs★★ IntermédiaireFormat : Catalogue structuré (8-10 pages)

Résumé exécutif

Les risques associés à l'IA se manifestent différemment selon les domaines d'application. Ce catalogue recense les risques spécifiques dans six domaines académiques clés, en identifiant pour chacun les cas documentés, les enjeux éthiques saillants et les mesures de précaution recommandées. Il vise à aider les chercheurs à anticiper les risques propres à leur champ disciplinaire.

Six domaines, six profils de risque

📊 Gestion et administration des affaires

Marketing · RH · Opérations · Stratégie

L'IA transforme la gestion à travers l'analytique prédictive, l'automatisation des processus et les systèmes de recommandation. Les risques touchent tant les organisations que leurs parties prenantes.1

Recrutement algorithmique : les systèmes de tri automatisé des CV peuvent reproduire des discriminations historiques (genre, origine ethnique, âge). Amazon a abandonné un outil de recrutement IA en 2018 après avoir découvert qu'il pénalisait systématiquement les candidatures féminines.2
Marketing ciblé et profilage : le micro-ciblage algorithmique soulève des enjeux de vie privée, de manipulation des consommateurs et de discrimination par les prix (dynamic pricing discriminatoire).
Surveillance des employés : les outils de suivi de la productivité par IA (surveillance des frappes, analyse des communications, reconnaissance faciale) posent des problèmes de dignité au travail et de vie privée.
Opacité décisionnelle : les systèmes d'aide à la décision en gestion peuvent devenir des « boîtes noires » où les gestionnaires perdent la compréhension et le contrôle des décisions stratégiques et opérationnelles.

💰 Finance

Crédit · Trading · Assurance · Détection de fraude

Le secteur financier est l'un des plus avancés dans l'adoption de l'IA, mais aussi l'un des plus exposés aux risques de discrimination et d'instabilité systémique.3

Scoring de crédit discriminatoire : les modèles de crédit peuvent discriminer indirectement sur la base de variables corrélées à l'origine ethnique ou au genre (code postal, historique de navigation), même sans utiliser explicitement ces attributs protégés.
Trading algorithmique et risque systémique : la vitesse et l'interconnexion des algorithmes de trading peuvent amplifier les crises financières. Le Flash Crash du 6 mai 2010 — où le Dow Jones a perdu puis regagné environ 1 000 points en quelques minutes — illustre ce risque systémique.4
Exclusion financière : les modèles entraînés sur des données historiques tendent à perpétuer l'exclusion des populations déjà marginalisées du système financier, créant un cercle vicieux de discrimination.
Assurance et discrimination : la tarification individualisée par IA peut conduire à des pratiques discriminatoires, réduisant la mutualisation des risques qui est le fondement même de l'assurance.

🏥 Santé

Diagnostic · Imagerie · Recherche clinique · Santé publique

L'IA en santé promet des avancées considérables (détection précoce, médecine personnalisée) mais les erreurs ont des conséquences directes sur la vie des patients.5

Biais raciaux dans les algorithmes cliniques : Obermeyer et al. (2019) ont documenté un biais racial majeur dans un algorithme utilisé pour des millions de patients aux États-Unis : à gravité de maladie égale, les patients noirs recevaient des scores de risque inférieurs aux patients blancs, en raison de l'utilisation du coût des soins comme proxy.6
Fiabilité des diagnostics automatisés : les modèles de diagnostic par imagerie peuvent être trompés par des artefacts techniques ou des distributions de données différentes entre sites cliniques, conduisant à des faux positifs ou faux négatifs aux conséquences potentiellement graves.
Vie privée des données de santé : les données de santé sont parmi les plus sensibles. Leur utilisation pour entraîner des modèles IA nécessite des précautions extrêmes en matière de consentement, d'anonymisation et de sécurité.
Automatisation du jugement clinique : le risque de remplacement du jugement clinique par la recommandation algorithmique (automation bias) peut réduire la qualité des soins et la relation soignant-patient.

⚖️ Droit

Justice prédictive · Analyse contractuelle · Recherche juridique

L'IA en droit soulève des questions fondamentales sur l'accès à la justice, l'équité des procédures et l'indépendance judiciaire.7

Justice prédictive et biais : les systèmes de prédiction de la récidive (comme COMPAS aux États-Unis) ont été critiqués pour des biais raciaux. L'analyse de ProPublica (2016) a suscité un débat majeur sur l'équité des outils de justice prédictive et l'incompatibilité des métriques d'équité.8
Accès inégal aux outils : les outils d'IA juridique (recherche, rédaction, analyse contractuelle) sont coûteux et peuvent accentuer les inégalités d'accès à la justice entre justiciables disposant de ressources et ceux qui n'en ont pas.
Hallucinations juridiques : les modèles de langage utilisés pour la recherche juridique peuvent fabriquer des références de jurisprudence inexistantes, avec des conséquences graves. Des cas documentés ont impliqué des avocats soumettant des mémoires contenant des citations fictives.9

📖 Sciences sociales

Sociologie · Science politique · Psychologie · Communication

L'IA transforme les méthodes de recherche en sciences sociales tout en soulevant des enjeux méthodologiques et éthiques spécifiques.10

Biais de représentation dans les corpus : les modèles de langage entraînés sur des corpus anglophones dominants encodent et reproduisent des stéréotypes culturels, de genre et raciaux qui peuvent contaminer les analyses en sciences sociales.
Surveillance de masse et libertés : les outils d'analyse de données massives (réseaux sociaux, communications) peuvent être détournés à des fins de surveillance et porter atteinte aux libertés civiles et à la vie privée.
Désinformation : l'IA générative facilite la production de désinformation à grande échelle, un enjeu central pour la science politique, les études en communication et la sociologie des médias.
Reproductibilité : l'utilisation d'outils IA propriétaires (dont le comportement peut changer entre versions) sans compréhension de leurs limites peut aggraver les problèmes existants de reproductibilité en sciences sociales.

🎓 Éducation

Évaluation · Tuteurs intelligents · Admission · Pédagogie adaptative

L'IA en éducation promet la personnalisation de l'apprentissage mais soulève des préoccupations majeures en matière d'équité, de vie privée et d'autonomie pédagogique. L'AI Act européen classe les systèmes IA en éducation comme « haut risque ».11

Évaluation algorithmique et équité : les systèmes de notation automatisée peuvent défavoriser certains groupes. En août 2020, l'organisme Ofqual au Royaume-Uni a utilisé un algorithme pour ajuster les notes du A-Level en l'absence d'examens (pandémie COVID-19). L'algorithme a été jugé discriminatoire envers les élèves de milieux défavorisés et a été abandonné après une crise publique.12
Surveillance des apprenants : les outils de surveillance d'examens par IA (proctoring) soulèvent des préoccupations de vie privée et de discrimination (biais de reconnaissance faciale pour les personnes à peau foncée).
IA générative et intégrité académique : l'accès généralisé aux outils d'IA générative transforme les pratiques d'apprentissage et d'évaluation. Voir Doc 3.4 de cette bibliothèque pour une analyse détaillée.
Réduction de l'autonomie pédagogique : les plateformes d'apprentissage adaptatif pilotées par IA peuvent imposer des parcours standardisés, réduisant le rôle professionnel et l'autonomie de l'enseignant.

🔬 Zoom sur l'écosystème montréalais

Les six domaines couverts sont représentés dans les programmes de recherche et d'enseignement des universités montréalaises. HEC Montréal couvre particulièrement les risques en gestion et en finance. L'Université de Montréal, avec ses facultés de médecine, de droit et de sciences sociales, offre un terrain fertile pour l'étude interdisciplinaire des risques de l'IA. La diversité disciplinaire de l'écosystème est un atout pour développer des approches de mitigation adaptées à chaque domaine.

Points clés à retenir

  1. Les risques de l'IA sont spécifiques à chaque domaine — une approche sectorielle de l'évaluation des risques est nécessaire.
  2. Certains risques sont transversaux (biais, opacité, vie privée) mais se manifestent différemment selon les contextes d'application.
  3. Les domaines à enjeux élevés (santé, droit, finance) nécessitent des garde-fous renforcés et une supervision humaine effective.
  4. L'éducation est à la fois un domaine d'application et le lieu de formation des futurs praticiens — un double enjeu stratégique.
  5. L'interdisciplinarité est indispensable pour traiter des risques qui ont des dimensions techniques, sociales et juridiques.

Questions de réflexion

  1. Dans votre domaine de recherche ou d'enseignement, quels sont les trois risques IA que vous jugez les plus préoccupants ? Pourquoi ?
  2. La classification de l'AI Act (systèmes IA en éducation = haut risque) est-elle justifiée ? Y a-t-il des domaines non classés à haut risque qui devraient l'être ?
  3. Comment assurer que la mitigation des risques dans un domaine ne crée pas de nouveaux risques dans un autre ?

Notes

  1. Pour une vue d'ensemble des risques de l'IA en gestion, voir : Tambe, P. et al. (2019). Artificial Intelligence in Human Resources Management. California Management Review, 61(4), 15–42. [Volume et pages à vérifier]
  2. Le cas Amazon a été rapporté par Reuters en octobre 2018. L'entreprise a confirmé avoir abandonné l'outil après avoir constaté qu'il pénalisait les candidatures contenant des mots associés au genre féminin. [Source primaire : article Reuters]
  3. Pour les risques IA en finance, voir les rapports du Financial Stability Board (FSB) sur l'IA et la stabilité financière. [Vérifier les rapports FSB les plus récents]
  4. Le Flash Crash du 6 mai 2010 a été documenté dans un rapport conjoint de la SEC et de la CFTC. Le rôle du trading algorithmique dans l'amplification de la chute a été largement analysé. [Vérifier la référence du rapport SEC/CFTC]
  5. Topol, E. (2019). Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again. Basic Books. Ouvrage de référence sur les promesses et risques de l'IA en santé.
  6. Obermeyer, Z. et al. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464), 447–453. L'un des articles les plus influents sur les biais IA en santé.
  7. Sur l'IA et le droit, voir : Pasquale, F. (2015). The Black Box Society. Harvard University Press. Voir aussi les travaux du Laboratoire de cyberjustice de l'Université de Montréal. [Vérifier si le laboratoire existe sous ce nom]
  8. Angwin, J. et al. (2016). Machine Bias. ProPublica. Cette enquête a lancé un débat majeur sur l'équité des outils de justice prédictive et a mis en lumière le résultat d'impossibilité de Chouldechova (2017).
  9. Des cas de juristes soumettant des mémoires contenant des références fictives générées par ChatGPT ont été documentés aux États-Unis en 2023. [Vérifier dans la presse juridique]
  10. Salganik, M. (2018). Bit by Bit: Social Research in the Digital Age. Princeton University Press. Ouvrage de référence sur les méthodes computationnelles en sciences sociales et leurs enjeux éthiques.
  11. AI Act, Annexe III, point 3. Les systèmes d'IA utilisés pour déterminer l'accès à l'éducation ou pour évaluer les apprenants sont explicitement classés à haut risque. Voir Doc 2.1.
  12. En août 2020, Ofqual (Royaume-Uni) a utilisé un algorithme pour standardiser les notes A-Level. L'algorithme favorisait les écoles ayant historiquement de bons résultats, pénalisant les élèves de milieux défavorisés. Après une mobilisation massive, le gouvernement a abandonné les notes algorithmiques au profit des évaluations enseignantes.
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Les cas cités sont documentés dans la littérature mais les détails doivent être vérifiés aux sources primaires. Le paysage des risques évolue rapidement avec le déploiement de nouvelles applications d'IA.
Bibliothèque de l'IA Responsable · Écosystème HEC Montréal / UdeM · Document 3.2 · Mars 2026
Bibliothèque IA Responsable — Document 3.3

Enjeux spécifiques au contexte québécois et canadien

Droits linguistiques · Peuples autochtones · Diversité · Inclusion

Public : Tous niveaux, chercheurs, partenaires communautaires★★ IntermédiaireFormat : Analyse (5-7 pages)

Résumé exécutif

Le Québec et le Canada présentent un contexte socioculturel singulier qui pose des défis spécifiques en matière d'IA responsable : bilinguisme officiel et pluralité linguistique, droits et souveraineté des données des peuples autochtones, diversité culturelle constitutionnellement protégée et engagement envers la réconciliation. Ce document examine ces enjeux et propose des pistes d'action pour une IA respectueuse de ce contexte.

1. Droits linguistiques et IA

Le français dans les systèmes d'IA

Le Québec est la seule juridiction en Amérique du Nord où le français est langue officielle unique. La Charte de la langue française (Loi 101), renforcée par la Loi 96 (2022), impose des obligations en matière d'offre de services en français.1 Or, les systèmes d'IA dominants sont développés principalement en anglais et pour des utilisateurs anglophones.

Les grands modèles de langage, bien qu'ils traitent le français, présentent des performances inégales selon les langues. La qualité des résultats en français — et plus encore en français québécois avec ses particularités lexicales et syntaxiques — est souvent inférieure à celle en anglais, en raison de la sous-représentation du français dans les données d'entraînement.2 Ce déséquilibre a des implications pour l'accès équitable aux services IA, la qualité des outils pédagogiques et la préservation des particularités linguistiques québécoises.

Au-delà du français, le Canada compte plus de 70 langues autochtones, dont la plupart sont considérées comme menacées selon Statistique Canada et l'UNESCO.3 Ces langues sont quasiment absentes des systèmes d'IA, ce qui contribue à leur marginalisation numérique et compromet les efforts de revitalisation linguistique.

2. Peuples autochtones et souveraineté des données

Les principes PCAP® et la gouvernance des données autochtones

Les Premières Nations du Canada ont développé les principes PCAP® — Propriété, Contrôle, Accès, Possession — comme cadre d'affirmation de leur souveraineté sur les données les concernant.4 Ces principes, élaborés par le Centre de gouvernance de l'information des Premières Nations (CGIPN), affirment que les communautés autochtones doivent avoir le contrôle de la collecte, de l'utilisation et de la conservation des données qui les concernent.

L'utilisation de données autochtones pour l'entraînement de modèles d'IA sans consentement communautaire pose des problèmes fondamentaux de souveraineté. Cela inclut les données linguistiques (enregistrements de langues autochtones), les données de santé, les données génétiques, les savoirs traditionnels et les expressions culturelles.5

Ce mouvement s'inscrit dans le contexte plus large de la réconciliation, tel qu'articulé dans les Appels à l'action de la Commission de vérité et réconciliation (CVR, 2015) et la Déclaration des Nations Unies sur les droits des peuples autochtones (DNUDPA), mise en œuvre au Canada par une loi fédérale adoptée en 2021.6

Risques spécifiques de l'IA pour les communautés autochtones

Surveillance et profilage : les systèmes de surveillance (reconnaissance faciale, analyse prédictive policière) peuvent perpétuer la surreprésentation historique des Autochtones dans le système de justice pénale canadien.

Biais dans les services publics : les systèmes IA utilisés pour l'allocation de ressources (santé, éducation, aide sociale) peuvent défavoriser les communautés autochtones si les données d'entraînement reflètent les inégalités historiques structurelles.

Extractivisme de données : la collecte de données linguistiques et culturelles autochtones par des entreprises technologiques, sans consentement communautaire ni partage des bénéfices, est une forme contemporaine d'extractivisme que plusieurs chercheurs ont dénoncée.7

3. Diversité, inclusion et équité

Biais et diversité culturelle canadienne

Le Canada se caractérise par un multiculturalisme officiellement reconnu (Loi sur le multiculturalisme canadien, 1988) et une diversité ethnoculturelle significative. Selon le recensement de 2021, plus de 25 % de la population canadienne appartenait à un groupe de minorités visibles.8 Cette diversité pose des défis spécifiques pour les systèmes d'IA :

Reconnaissance faciale et diversité : les systèmes de reconnaissance faciale présentent des taux d'erreur plus élevés pour les personnes racisées, comme l'ont documenté les travaux de Buolamwini et Gebru (2018).9 Dans un contexte aussi diversifié que le Canada, ces biais peuvent affecter un pourcentage significatif de la population.

Intersectionnalité : les discriminations algorithmiques ne se limitent pas à un seul axe. L'approche intersectionnelle, développée par Kimberlé Crenshaw (1989), examine comment les multiples dimensions de l'identité (genre, race, classe, handicap, langue) interagissent pour produire des formes spécifiques de discrimination.10 Cette approche est essentielle pour comprendre les impacts différenciés de l'IA dans un contexte aussi pluriel que le Canada.

Immigration et IA : le Canada utilise des systèmes automatisés dans le traitement des demandes d'immigration. Des préoccupations ont été soulevées quant au risque de discrimination algorithmique dans ces processus, affectant des populations particulièrement vulnérables.11

Accessibilité et handicap

La Loi canadienne sur l'accessibilité (2019) vise un Canada sans obstacles d'ici 2040.12 L'IA peut à la fois améliorer l'accessibilité (reconnaissance vocale, descriptions automatiques d'images, sous-titrage) et créer de nouvelles barrières (interfaces non accessibles, biais dans les systèmes de recrutement contre les personnes en situation de handicap, captchas visuels).

4. Pistes d'action

Recherche : développer des jeux de données et des modèles de langage représentatifs de la diversité linguistique et culturelle canadienne, incluant le français québécois et les langues autochtones. Impliquer les communautés concernées dans la conception et la gouvernance des projets.
Gouvernance : intégrer les principes PCAP® dans les politiques de gestion des données des institutions de recherche. Consulter les communautés autochtones avant tout projet impliquant leurs données ou leurs communautés.
Évaluation : évaluer systématiquement les systèmes d'IA pour les biais liés aux attributs protégés pertinents dans le contexte canadien, avec une attention particulière aux effets intersectionnels.
Formation : intégrer les enjeux de diversité, d'inclusion et de réconciliation dans la formation en IA, à tous les niveaux (BAC, maîtrise, doctorat, formation continue).

🔬 Zoom sur l'écosystème montréalais

Montréal, ville parmi les plus diversifiées au Canada, est un terrain naturel pour la recherche sur l'IA inclusive. L'Université de Montréal et ses partenaires ont contribué à la Déclaration de Montréal, dont le principe d'« inclusion de la diversité » (principe 7) vise explicitement ces enjeux. Des travaux de recherche sur le traitement du langage naturel en français québécois sont menés dans l'écosystème. Le défi reste de traduire ces engagements de principe en pratiques concrètes et mesurables dans les projets de recherche et les programmes de formation.

Points clés à retenir

  1. Le contexte québécois et canadien pose des enjeux IA spécifiques : bilinguisme, pluralité autochtone, multiculturalisme, immigration.
  2. Les principes PCAP® sont un cadre incontournable pour tout projet impliquant des données autochtones.
  3. La sous-représentation du français et des langues autochtones dans les systèmes IA est un enjeu d'équité linguistique.
  4. L'approche intersectionnelle est essentielle pour comprendre les impacts différenciés de l'IA.
  5. La réconciliation avec les peuples autochtones a des implications directes pour l'éthique de la recherche en IA.

Questions de réflexion

  1. Comment les principes PCAP® pourraient-ils être opérationnalisés concrètement dans un projet de recherche en IA impliquant des données autochtones ?
  2. Les universités québécoises ont-elles une responsabilité particulière en matière de développement d'outils IA en français ? Comment l'assumer concrètement ?
  3. L'IA peut-elle contribuer positivement à la revitalisation des langues autochtones, ou est-elle principalement un risque de marginalisation supplémentaire ?

Notes

  1. Charte de la langue française (Loi 101), RLRQ, c C-11. La Loi 96 (Loi sur la langue officielle et commune du Québec, le français), sanctionnée en 2022, renforce les obligations en matière de français. [Vérifier les dispositions spécifiques applicables aux services numériques et à l'IA]
  2. Plusieurs études et benchmarks multilingues documentent les disparités de performance entre l'anglais et d'autres langues dans les modèles de langage. Le français, bien que mieux représenté que la plupart des langues, reste significativement sous-représenté par rapport à l'anglais. [Vérifier les benchmarks récents comme FLORES, XTREME]
  3. Statistique Canada, Recensement 2021. UNESCO, Atlas des langues en danger dans le monde. Environ 70 langues autochtones sont parlées au Canada, mais la majorité ont un nombre de locuteurs en déclin. [Vérifier les données du recensement 2021]
  4. Centre de gouvernance de l'information des Premières Nations (CGIPN). Les principes PCAP® (Propriété, Contrôle, Accès, Possession) sont une marque déposée du CGIPN. Documentation officielle disponible sur le site du CGIPN.
  5. Sur la souveraineté des données autochtones, voir : Kukutai, T. & Taylor, J. (Eds.) (2016). Indigenous Data Sovereignty: Toward an Agenda. ANU Press. [Vérifier l'éditeur exact]
  6. Commission de vérité et réconciliation du Canada (2015). Appels à l'action. Disponible sur le site de la CVR. Loi sur la Déclaration des Nations Unies sur les droits des peuples autochtones (L.C. 2021, c 14), adoptée par le Parlement du Canada en juin 2021.
  7. Couldry, N. & Mejias, U. (2019). The Costs of Connection: How Data Is Colonizing Human Life and Appropriating It for Capitalism. Stanford University Press. Le concept d'« extractivisme de données » est de plus en plus utilisé dans les études critiques du numérique.
  8. Loi sur le multiculturalisme canadien, L.R.C. 1985, c 24 (4e suppl.). Statistique Canada, Recensement 2021 : données sur la diversité ethnoculturelle. [Vérifier le pourcentage exact de minorités visibles]
  9. Buolamwini, J. & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research, 81, 1–15.
  10. Crenshaw, K. (1989). Demarginalizing the intersection of race and sex: A Black feminist critique of antidiscrimination doctrine, feminist theory and antiracist politics. University of Chicago Legal Forum, 1989(1), 139–167. Article fondateur du concept d'intersectionnalité.
  11. Molnar, P. & Gill, L. (2018). Bots at the Gate: A Human Rights Analysis of Automated Decision-Making in Canada's Immigration and Refugee System. Citizen Lab / International Human Rights Program, University of Toronto. [Vérifier l'année et les auteurs exacts]
  12. Loi canadienne sur l'accessibilité, L.C. 2019, c 10. Vise à identifier, éliminer et prévenir les obstacles dans les domaines de compétence fédérale.
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Les enjeux autochtones sont particulièrement sensibles ; ce document ne saurait se substituer à la consultation directe des communautés et de leurs institutions représentatives. Les statistiques et le cadre juridique sont susceptibles d'avoir évolué. Consultez les sources primaires.
Bibliothèque de l'IA Responsable · Écosystème HEC Montréal / UdeM · Document 3.3 · Mars 2026
Bibliothèque IA Responsable — Document 3.4

IA générative en contexte académique

Risques d'intégrité · Détection · Encadrement pédagogique

Public : Professeurs, étudiants, administrateurs★ IntroductifMise à jour : Bisannuelle (évolution très rapide)

Résumé exécutif

Depuis fin 2022, l'IA générative (ChatGPT, Claude, Gemini, Copilot, etc.) a bouleversé le paysage académique. Cette fiche fait le point sur les risques pour l'intégrité académique, les capacités et limites des outils de détection, et les approches pédagogiques émergentes qui privilégient l'encadrement plutôt que l'interdiction. Elle s'adresse à tous les acteurs de l'enseignement supérieur confrontés à la nécessité d'adapter rapidement leurs pratiques.

1. Les risques pour l'intégrité académique

Plagiat et fabrication de contenu

Les modèles de langage peuvent produire des textes originaux, structurés et fluides en réponse à des consignes académiques. Contrairement au plagiat traditionnel (copie d'une source existante), le contenu généré par IA est « nouveau » — il ne figure dans aucune base de données de plagiat, rendant la détection par les outils classiques (Turnitin, Compilatio) inefficace dans sa forme traditionnelle.1

Fabrication de références

Les modèles de langage peuvent générer des citations et des références bibliographiques plausibles mais entièrement fictives (phénomène d'hallucination). Un étudiant — ou un chercheur — utilisant l'IA sans vérification peut soumettre un travail contenant des sources inexistantes. Des incidents documentés dans le milieu juridique américain ont mis en lumière la gravité de ce problème.2

Dépendance cognitive et appauvrissement de l'apprentissage

L'utilisation systématique de l'IA pour les travaux académiques peut court-circuiter les processus cognitifs essentiels à l'apprentissage : recherche bibliographique, lecture critique, synthèse, structuration de la pensée, rédaction argumentée. Le risque n'est pas seulement l'intégrité du diplôme, mais la qualité de la formation elle-même et le développement des compétences de pensée critique.3

Inégalités d'accès

Les versions premium des outils d'IA générative (ChatGPT Plus, Claude Pro, etc.) offrent des performances significativement supérieures aux versions gratuites. Le risque d'une fracture entre étudiants disposant de moyens financiers pour accéder aux meilleurs outils et ceux limités aux versions gratuites ou de base est un enjeu d'équité non négligeable.4

2. Détection : état des lieux et limites

ApprochePrincipeFiabilité
Classificateurs statistiques
(GPTZero, Originality.ai, etc.)
Analysent les caractéristiques statistiques du texte (perplexité, burstiness) pour distinguer texte humain et texte IA.Variable. Taux de faux positifs significatifs, surtout pour les locuteurs non natifs de l'anglais. Fiabilité généralement réduite en français.5
Watermarking
(filigranes statistiques)
Les fournisseurs de modèles intègrent des motifs statistiques imperceptibles dans le texte généré, détectables par un outil dédié.Prometteur mais nécessite la coopération des fournisseurs. Peut être contourné par la reformulation ou le mélange de sources.6
Détection intégrée (Turnitin AI)Turnitin a intégré un module de détection IA distinct de sa détection de plagiat classique.Résultats améliorés par rapport aux outils indépendants mais faux positifs persistants. Fiabilité en français inférieure à l'anglais.7

Consensus émergent : la communauté académique reconnaît de plus en plus que la détection technique seule ne peut pas être la solution. Les faux positifs peuvent stigmatiser injustement des étudiants (en particulier les locuteurs non natifs), et les stratégies de contournement progressent aussi vite que les outils de détection. La détection est un complément, pas une solution.8

3. Approches pédagogiques : encadrer plutôt qu'interdire

Face aux limites de l'interdiction et de la détection, de nombreuses institutions privilégient une approche d'encadrement. Cinq stratégies complémentaires se dégagent :

1. Transparence et divulgation : exiger que les étudiants déclarent explicitement leur utilisation de l'IA, en précisant les outils utilisés, les prompts fournis et les modifications apportées au contenu généré. Des modèles de mentions de divulgation peuvent être intégrés aux consignes de travaux. Voir Doc 4.5 et Doc 6.3 de cette bibliothèque.
2. Redesign des évaluations : concevoir des évaluations qui résistent mieux à l'utilisation non déclarée de l'IA. Parmi les pistes : évaluations orales, travaux réflexifs intégrant l'expérience personnelle, évaluations en classe sans accès numérique, travaux en plusieurs étapes avec rétroaction formative, et portfolios montrant l'évolution de la pensée au fil du temps.9
3. Développement de la littératie IA : former les étudiants à utiliser l'IA de manière critique et responsable, en comprenant ses limites (hallucinations, biais, manque de fiabilité factuelle), plutôt que de prétendre qu'ils ne l'utiliseront pas. L'IA devient un objet d'apprentissage autant qu'un outil.
4. Politiques institutionnelles claires : adopter des politiques claires et cohérentes au niveau institutionnel, distinguant les usages acceptables (brainstorming, correction linguistique) des usages non acceptables (substitution de la réflexion, fabrication de contenu soumis comme travail original). Voir Doc 7.1 pour un modèle de politique institutionnelle.
5. Évaluation par processus : évaluer le processus de travail (méthodologie, démarche réflexive, progression, capacité d'auto-critique) autant que le produit final, rendant l'utilisation non déclarée de l'IA plus difficile à dissimuler et moins profitable pour l'apprentissage.

🔬 Zoom sur l'écosystème montréalais

Les universités montréalaises ont dû réagir rapidement à l'émergence de l'IA générative. Plusieurs ont publié des directives institutionnelles encadrant l'utilisation de l'IA dans les travaux académiques. Le défi est de trouver un équilibre entre la préparation des étudiants au monde professionnel (où ces outils sont utilisés quotidiennement) et la préservation de la rigueur académique et des compétences fondamentales. La proximité de Mila et de l'écosystème IA montréalais est un atout pour développer des approches informées et nuancées, fondées sur une compréhension technique des outils.10

Points clés à retenir

  1. L'IA générative pose un défi sans précédent pour l'intégrité académique — le problème ne disparaîtra pas et s'intensifiera.
  2. La détection technique a des limites fondamentales (faux positifs, contournement, biais linguistiques contre les non-natifs).
  3. L'approche pédagogique — encadrer, former, adapter les évaluations — est plus durable et éducative que l'interdiction pure.
  4. La transparence (obligation de divulgation de l'usage de l'IA) est un pilier essentiel de tout cadre d'encadrement.
  5. Les politiques doivent être claires, cohérentes et régulièrement mises à jour face à l'évolution très rapide des outils.

Questions de réflexion

  1. Si un étudiant utilise l'IA pour brainstormer, structurer ses idées et corriger son texte, mais que la pensée est la sienne — est-ce du plagiat ? Où tracer la ligne entre assistance légitime et substitution ?
  2. L'interdiction de l'IA dans les travaux académiques est-elle réaliste à moyen terme ? Quelles en seraient les conséquences sur la préparation professionnelle des diplômés ?
  3. Les outils de détection d'IA devraient-ils être utilisés comme preuve d'inconduite académique, compte tenu de leurs taux de faux positifs documentés ?

Notes

  1. Les outils de détection de plagiat traditionnels comparent les textes soumis à une base de données de textes existants. Le contenu généré par IA étant original (non copié d'une source identifiable), il échappe à cette détection. Turnitin a ajouté un module de détection IA en 2023, distinct de sa détection de plagiat classique.
  2. En 2023, un avocat new-yorkais a soumis un mémoire juridique contenant des citations de jurisprudence entièrement fictives, générées par ChatGPT. L'affaire a été largement couverte par la presse juridique et générale. [Vérifier les détails de l'affaire dans la presse juridique — plusieurs incidents similaires ont été rapportés]
  3. Sur les risques cognitifs de la dépendance aux outils numériques, le concept de « décharge cognitive » (cognitive offloading) est documenté dans la littérature en psychologie cognitive. L'IA générative amplifie ce phénomène en automatisant des tâches intellectuelles complexes. [Vérifier les publications récentes sur la décharge cognitive dans le contexte spécifique de l'IA]
  4. Les versions premium (ChatGPT Plus/Team, Claude Pro, Gemini Advanced, etc.) offrent l'accès à des modèles plus performants, des temps de réponse plus rapides et des fonctionnalités avancées. Cette asymétrie de capacités crée un risque d'inégalité dans les performances académiques.
  5. Liang, W. et al. (2023). GPT detectors are biased against non-native English writers. arXiv preprint. Cette étude a montré que les détecteurs d'IA produisent des faux positifs significativement plus fréquents pour les textes écrits par des locuteurs non natifs de l'anglais. [Vérifier si publié dans une revue à comité de lecture]
  6. Kirchenbauer, J. et al. (2023). A watermark for large language models. Proceedings of ICML 2023. Le watermarking est techniquement prometteur mais nécessite la coopération des fournisseurs de modèles et peut être contourné par des techniques de paraphrase. [Vérifier la conférence exacte]
  7. Turnitin a déployé son module de détection IA en 2023. La fiabilité varie selon les langues, les modèles de langage utilisés et le degré de modification post-génération. [Consulter le site de Turnitin pour les données de performance les plus récentes]
  8. Ce consensus est reflété dans les prises de position de nombreuses associations universitaires et dans la littérature sur l'intégrité académique. Voir les recommandations de l'International Center for Academic Integrity (ICAI) et les orientations de l'UNESCO sur l'IA générative en éducation. [Vérifier les recommandations ICAI et UNESCO les plus récentes]
  9. Pour des exemples concrets d'évaluations résistantes à l'utilisation non déclarée de l'IA, voir les ressources des centres de pédagogie universitaire et les publications de l'UNESCO. Voir aussi Doc 6.2 (études de cas pédagogiques) et Doc 6.4 (grille d'évaluation éthique) de cette bibliothèque.
  10. [Vérifier les directives et politiques actuelles d'HEC Montréal, de l'Université de Montréal et de Polytechnique Montréal en matière d'IA générative dans l'enseignement — ces politiques évoluent rapidement]
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Le domaine de l'IA générative en contexte académique évolue extrêmement rapidement. Les outils de détection, les politiques institutionnelles et les pratiques pédagogiques sont susceptibles d'avoir considérablement changé depuis la rédaction. Consultez les ressources les plus récentes de votre institution.
Bibliothèque de l'IA Responsable · Écosystème HEC Montréal / UdeM · Document 3.4 · Mars 2026
Bibliothèque IA Responsable — Document 3.5

Concentration du pouvoir IA et dépendance technologique

Enjeux pour la souveraineté académique

Public : Chercheurs, administrateurs, analystes de politique★★★ AvancéFormat : Note critique (4-5 pages)

Résumé exécutif

Le développement de l'IA est marqué par une concentration sans précédent du pouvoir entre un nombre restreint de grandes entreprises technologiques. Cette concentration affecte l'infrastructure, les données, les talents et les normes. Pour les universités, elle soulève des questions fondamentales de souveraineté académique, de liberté de recherche et d'autonomie institutionnelle. Cette note critique analyse ces dynamiques et propose des pistes d'action.

1. La concentration du pouvoir IA

L'écosystème de l'IA est structuré par des asymétries de pouvoir considérables. Quelques entreprises — principalement les « Big Tech » américaines (Google/Alphabet, Microsoft, Meta, Amazon, Apple) et chinoises (Baidu, Alibaba, Tencent, ByteDance) — dominent les ressources critiques nécessaires au développement de l'IA avancée.1

Concentration de l'infrastructure de calcul

L'entraînement de grands modèles de fondation nécessite des ressources computationnelles considérables (clusters de GPU/TPU spécialisés), largement contrôlées par les hyperscalers du cloud (AWS, Azure, Google Cloud). Le coût d'entraînement d'un modèle de pointe se chiffre en dizaines, voire centaines de millions de dollars — une barrière à l'entrée quasi infranchissable pour les universités et les petits pays.2

Concentration des données

Les grandes plateformes accumulent des volumes de données massifs à travers leurs services (recherche, réseaux sociaux, commerce, messagerie). Ces données, essentielles à l'entraînement de modèles performants, ne sont pas accessibles aux chercheurs académiques. L'asymétrie d'accès aux données est un facteur structurel de la domination industrielle sur la recherche universitaire.3

Concentration des talents

Les entreprises technologiques attirent les chercheurs académiques avec des salaires considérablement supérieurs et des ressources de calcul incomparables. Ce « brain drain » appauvrit les capacités de recherche publique et universitaire. Les rapports de l'AI Index (Stanford HAI) documentent la part croissante des publications de recherche produites par l'industrie par rapport aux universités.4

Concentration du pouvoir normatif

Les entreprises qui développent les modèles de fondation font des choix normatifs conséquents (filtrage de contenu, alignement des valeurs, politiques d'utilisation) qui affectent des centaines de millions d'utilisateurs sans processus démocratique de légitimation. Les universités deviennent utilisatrices de systèmes dont elles ne contrôlent ni la conception, ni l'évolution, ni les conditions d'accès.5

2. Implications pour la souveraineté académique

Dépendance infrastructurelle

Les universités dépendent de plus en plus d'infrastructures cloud propriétaires (Microsoft Azure, Google Workspace, AWS) pour leur recherche, leur enseignement et leur gestion administrative. Les données institutionnelles et de recherche sont hébergées sur des serveurs contrôlés par des entreprises étrangères, soumis à des législations extraterritoriales comme le CLOUD Act américain (2018), qui permet aux autorités américaines d'exiger l'accès aux données hébergées par des entreprises américaines même à l'étranger.6

Dépendance aux modèles et outils

L'utilisation croissante de modèles propriétaires (GPT, Gemini, Claude) dans l'enseignement et la recherche crée une dépendance à des outils dont les conditions d'utilisation, les performances et la disponibilité sont unilatéralement contrôlées par des entreprises privées. Un changement de politique tarifaire, une modification des conditions d'utilisation ou une interruption de service peut avoir des impacts directs et immédiats sur les activités académiques.7

Influence sur l'agenda de recherche

Les financements de l'industrie technologique pour la recherche universitaire en IA, bien qu'importants, peuvent orienter les agendas vers les intérêts commerciaux au détriment de la recherche fondamentale ou critique. Les partenariats université-industrie, s'ils ne sont pas rigoureusement encadrés, peuvent compromettre l'indépendance académique.8

Érosion de la reproductibilité scientifique

L'utilisation de modèles propriétaires dans la recherche pose des problèmes de reproductibilité : les modèles sont mis à jour sans préavis ni documentation des changements, les résultats peuvent varier dans le temps, et les chercheurs n'ont pas accès aux détails techniques nécessaires à la réplication. La science ouverte est compromise lorsque les outils centraux sont des boîtes noires commerciales.9

3. Pistes de résistance et d'autonomie

Investir dans l'infrastructure publique de calcul : des initiatives comme l'Alliance de recherche numérique du Canada fournissent des ressources de calcul haute performance aux chercheurs canadiens. Le renforcement de ces capacités publiques est un levier essentiel de souveraineté.10
Soutenir les modèles ouverts : les modèles en accès libre (LLaMA de Meta, Mistral, le projet BLOOM) offrent une alternative aux modèles propriétaires. Les universités peuvent contribuer au développement de modèles ouverts, en particulier pour le français et les langues sous-représentées.11
Développer des politiques de souveraineté numérique : chaque institution devrait évaluer sa dépendance technologique et élaborer une stratégie de diversification (plans de sortie, alternatives locales ou open source). Voir Doc 7.1 de cette bibliothèque.
Encadrer les partenariats avec l'industrie : les ententes de collaboration doivent protéger l'indépendance de recherche, la propriété intellectuelle et l'accès aux données. Voir Doc 7.3 de cette bibliothèque.
Former à la pensée critique sur les dépendances : intégrer dans les programmes une réflexion critique sur les structures de pouvoir de l'écosystème IA, au-delà des seules compétences techniques.
Coopération francophone : les universités francophones (Québec, France, Belgique, Suisse, Afrique) ont un intérêt commun à développer des ressources IA en français et à mutualiser leurs capacités face à la domination anglophone.

🔬 Zoom sur l'écosystème montréalais

Montréal se trouve dans une position paradoxale : c'est à la fois un pôle mondial de recherche en IA (Mila, IVADO, universités) et un écosystème dont la vitalité dépend en partie des investissements des grandes entreprises technologiques qui y ont établi des laboratoires (Google, Meta, Microsoft, Samsung, entre autres).12 Ce paradoxe illustre les tensions entre l'ambition de souveraineté et la réalité de l'intégration dans un écosystème mondial dominé par les Big Tech. La prise de conscience de ces enjeux et un débat institutionnel ouvert sont des conditions préalables à toute action structurante.

Points clés à retenir

  1. La concentration du pouvoir IA entre quelques entreprises affecte l'infrastructure, les données, les talents et les normes.
  2. Les universités sont de plus en plus dépendantes d'outils et d'infrastructures qu'elles ne contrôlent pas — un risque structurel pour la souveraineté académique.
  3. L'utilisation de modèles propriétaires dans la recherche compromet la reproductibilité scientifique.
  4. Des alternatives existent (modèles ouverts, infrastructure publique, coopération francophone) mais nécessitent des investissements et une volonté politique.
  5. La souveraineté académique n'est pas un luxe — c'est une condition de la liberté de recherche et de l'intégrité institutionnelle.

Questions de réflexion

  1. La souveraineté académique en matière d'IA est-elle un objectif réaliste, ou les universités doivent-elles accepter une forme de dépendance technologique et en gérer les risques ?
  2. Comment les universités peuvent-elles bénéficier des partenariats avec l'industrie sans compromettre leur indépendance intellectuelle ?
  3. Les modèles en accès libre constituent-ils une véritable alternative aux modèles propriétaires pour la recherche académique, ou créent-ils de nouvelles formes de dépendance ?

Notes

  1. Pour une analyse de la concentration du pouvoir IA, voir : Whittaker, M. (2021). The steep cost of capture. Interactions, 28(6), 50–55. Voir aussi les rapports de l'AI Now Institute (New York University). [Vérifier la référence Whittaker]
  2. Les coûts d'entraînement des modèles de pointe sont difficiles à vérifier car rarement divulgués officiellement. Des estimations publiées dans la presse spécialisée et certaines publications académiques situent le coût de GPT-4 à plus de 100 millions de dollars. [Les chiffres exacts doivent être vérifiés dans des sources récentes — ils évoluent rapidement]
  3. Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs. Ouvrage de référence sur l'accumulation de données comportementales par les grandes plateformes.
  4. Stanford HAI. AI Index Report (annuel). Le rapport documente la part croissante des publications industrielles par rapport aux publications académiques en IA. [Consulter le rapport AI Index le plus récent pour les données à jour]
  5. Pasquale, F. (2015). The Black Box Society: The Secret Algorithms That Control Money and Information. Harvard University Press. Analyse du pouvoir normatif exercé par les systèmes algorithmiques opaques.
  6. CLOUD Act (Clarifying Lawful Overseas Use of Data Act), 2018, États-Unis. Cette loi permet aux autorités américaines d'exiger l'accès aux données hébergées par des entreprises américaines, indépendamment du lieu de stockage physique des données.
  7. Des changements de tarification significatifs des API d'IA ont déjà affecté des projets de recherche et des applications éducatives. Le risque de vendor lock-in (enfermement propriétaire) est un enjeu classique en gestion des technologies de l'information.
  8. Abdalla, M. & Abdalla, M. (2021). The Grey Hoodie Project: Big Tobacco, Big Tech, and the threat on academic integrity. Proceedings of AIES '21. Cet article établit un parallèle entre l'influence de l'industrie du tabac et celle de l'industrie technologique sur la recherche académique. [Vérifier la référence complète]
  9. Les problèmes de reproductibilité liés aux modèles propriétaires sont discutés dans la communauté scientifique, notamment dans les conférences NeurIPS et ICML. Le fait que les modèles propriétaires puissent être modifiés sans préavis rend la réplication exacte des résultats impossible.
  10. L'Alliance de recherche numérique du Canada (anciennement Calcul Canada et partenaires régionaux) fournit des infrastructures de calcul haute performance aux chercheurs canadiens. [Vérifier le nom et la structure actuels de l'organisme]
  11. Le projet BLOOM (BigScience Large Open-science Open-access Multilingual Language Model), coordonné par Hugging Face avec la participation de chercheurs de nombreux pays, est un exemple de collaboration internationale pour un modèle de langage ouvert et multilingue incluant le français.
  12. Google, Meta (anciennement Facebook), Microsoft, Samsung et d'autres entreprises ont établi des laboratoires de recherche en IA à Montréal, attirés par le bassin de talents formés par Mila et les universités. [Vérifier la liste des laboratoires industriels actuellement actifs à Montréal — des ouvertures et fermetures se produisent régulièrement]
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Les dynamiques de concentration du pouvoir IA évoluent rapidement (fusions, acquisitions, nouvelles régulations, ouverture de modèles). Les analyses présentées reflètent les tendances documentées dans la littérature mais doivent être complétées par une veille continue.
Bibliothèque de l'IA Responsable · Écosystème HEC Montréal / UdeM · Document 3.5 · Mars 2026
Bibliothèque IA Responsable — Document 4.1

Guide « IA Responsable by Design »

Pour la conception de projets de recherche et d'enseignement

Public : Chercheurs, professeurs, étudiants gradués★★ IntermédiaireFormat : Guide méthodologique (6-8 pages)

Résumé exécutif

L'approche « IA Responsable by Design » vise à intégrer les principes éthiques dès la conception d'un projet, plutôt qu'en aval. Ce guide propose un parcours en cinq phases — de l'idéation à l'évaluation continue — avec des questions-guides et des points de contrôle éthiques à chaque étape. Il s'inspire du Value-Sensitive Design1 et des cadres de gouvernance de l'IA, adaptés au contexte universitaire québécois.

Principe directeur

L'éthique de l'IA ne se réduit pas à une vérification finale. Les choix de conception les plus déterminants — sélection des données, définition de l'objectif, choix de la population cible — se font en amont. Une fois le système construit, les possibilités de correction sont limitées et coûteuses. L'approche by design intègre la réflexion éthique comme composante structurelle du processus de conception, au même titre que les exigences techniques ou de performance.2

Les cinq phases

01

Idéation — Pourquoi ce projet et pour qui ?

Avant toute considération technique, clarifier la finalité du projet et identifier les parties prenantes. Qui bénéficiera du système ? Qui pourrait en subir les effets négatifs ? Le problème nécessite-t-il réellement une solution IA, ou des approches plus simples seraient-elles préférables ?3

Questions-guides : Quel problème résolvons-nous ? Pour qui ? Qui sont les parties prenantes (bénéficiaires, affectés, exclus) ? Avons-nous consulté les communautés concernées ? L'IA est-elle la solution appropriée ? Quels sont les risques d'échec et leurs conséquences ?
Points de contrôle : Cartographie des parties prenantes réalisée · Analyse de proportionnalité (l'IA est-elle nécessaire ?) · Risques initiaux identifiés · Consentement des communautés concernées planifié (PCAP® si données autochtones)
02

Conception — Données, modèle et choix normatifs

Les choix de conception déterminent le comportement du système. La sélection des données d'entraînement, la définition de la variable cible, le choix de la fonction objectif et des métriques d'évaluation sont autant de décisions normatives qui doivent être explicites et justifiées.4

Questions-guides : D'où viennent les données ? Sont-elles représentatives ? Quels biais historiques pourraient-elles contenir ? Quelle définition de l'« équité » est appropriée à ce contexte ? Quelle est notre fonction objectif et que maximise-t-elle réellement ? Quels compromis acceptons-nous entre performance et équité ?
Points de contrôle : Audit de représentativité des données · Métriques d'équité choisies et justifiées · ÉFVP réalisée (Loi 25) · Protocole soumis au CÉR · Documentation des choix de conception (model card)5
03

Développement — Construction avec garde-fous intégrés

Durant le développement, intégrer des mécanismes de vérification continue : tests d'équité systématiques, documentation au fil de l'eau, versionnage des données et du modèle. Prévoir des mécanismes de supervision humaine et d'interruption (kill switch).

Questions-guides : Testons-nous régulièrement les performances par sous-groupe ? Les résultats intermédiaires révèlent-ils des biais ? La documentation est-elle à jour ? Un mécanisme de supervision humaine est-il en place ?
Points de contrôle : Tests d'équité par sous-groupe à chaque itération · Documentation continue (données, modèle, décisions) · Mécanisme de supervision humaine opérationnel · Registre des versions
04

Déploiement — Mise en contexte et vigilance

Le passage du laboratoire au déploiement est un moment critique. Le contexte réel peut différer des conditions d'entraînement. Informer les utilisateurs de la nature IA du système et de ses limites. Mettre en place une surveillance continue et des mécanismes de rétroaction.6

Questions-guides : Les utilisateurs savent-ils qu'ils interagissent avec un système IA ? Connaissent-ils ses limites ? Le système fonctionne-t-il comme prévu dans le contexte réel ? Les populations affectées ont-elles un recours ?
Points de contrôle : Information des utilisateurs (transparence) · Plan de surveillance post-déploiement · Mécanisme de recours pour les personnes affectées · Plan d'intervention en cas d'incident · Conformité AI Act vérifiée si déploiement UE
05

Évaluation continue — Apprentissage et amélioration

L'évaluation éthique ne s'arrête pas au déploiement. Les systèmes IA évoluent (dérive des données, changement de contexte d'usage). Une évaluation périodique est nécessaire pour détecter les dérives, intégrer les retours des utilisateurs et des personnes affectées, et mettre à jour le système.7

Questions-guides : Les performances sont-elles stables dans le temps et entre sous-groupes ? Y a-t-il des usages non anticipés ? Les retours des utilisateurs et des personnes affectées sont-ils intégrés ? Le contexte réglementaire a-t-il évolué ?
Points de contrôle : Audit d'équité périodique (voir Doc 4.3) · Rapport d'évaluation publié · Retours des parties prenantes collectés et analysés · Mise à jour du système si nécessaire · Renouvellement de l'approbation CÉR si applicable

Intégration avec les cadres existants

Ce guide n'est pas un cadre isolé. Il s'articule avec les obligations existantes :

EPTC 2 : les phases 1 et 2 alimentent directement le protocole soumis au CÉR.8

Loi 25 : l'ÉFVP s'intègre à la phase 2 (conception). Voir Doc 2.2.

AI Act : pour les systèmes à haut risque déployés dans l'UE, les phases 3-5 correspondent aux exigences de gestion des risques, documentation et surveillance. Voir Doc 2.1.

EIA : l'Évaluation d'Impact Algorithmique (Doc 4.2) peut être réalisée à la transition entre les phases 2 et 3.

🔬 Zoom sur l'écosystème montréalais

L'approche by design s'inscrit dans la continuité du principe de « prudence » de la Déclaration de Montréal (2018), qui invite à anticiper les impacts plutôt qu'à réagir après coup. Les chercheurs de l'écosystème montréalais disposent de ressources (Mila, IVADO, bureaux de la recherche des universités) pour appuyer la mise en œuvre de ce type de démarche. L'enjeu est de passer de la sensibilisation à l'intégration systématique dans les pratiques de recherche.9

Points clés à retenir

  1. L'éthique by design intègre la réflexion éthique dès l'idéation, pas en fin de parcours.
  2. Cinq phases : idéation, conception, développement, déploiement, évaluation continue.
  3. Chaque phase comporte des questions-guides et des points de contrôle concrets.
  4. Le guide s'articule avec les cadres existants (EPTC 2, Loi 25, AI Act, EIA).
  5. La documentation continue est essentielle pour l'imputabilité et la reproductibilité.

Questions de réflexion

  1. Dans votre dernier projet impliquant l'IA, à quelle phase la réflexion éthique a-t-elle commencé ? Aurait-elle pu commencer plus tôt ?
  2. La question « l'IA est-elle la solution appropriée ? » (phase 1) est-elle réaliste dans un contexte où les incitatifs favorisent l'adoption de l'IA ?
  3. Comment assurer que l'évaluation continue (phase 5) ne devienne pas un exercice bureaucratique sans impact réel ?

Notes

  1. Friedman, B., Hendry, D. G., & Borning, A. (2017). A survey of value sensitive design methods. Foundations and Trends in HCI, 11(2), 63–125. [Volume à vérifier]
  2. L'approche by design est analogue au principe de Privacy by Design développé par Ann Cavoukian, qui a influencé le RGPD européen. L'extension aux dimensions éthiques de l'IA est une évolution naturelle.
  3. La question de la proportionnalité (l'IA est-elle nécessaire ?) est un principe de la Recommandation de l'UNESCO sur l'éthique de l'IA (2021), principe 1 (proportionnalité et innocuité).
  4. Sur les choix normatifs dans la conception des systèmes IA, voir : Winner, L. (1980). Do artifacts have politics? Daedalus, 109(1), 121–136. Article fondateur sur la dimension politique des choix techniques.
  5. Mitchell, M. et al. (2019). Model Cards for Model Reporting. Proceedings of ACM FAT*. Les model cards sont un format de documentation standardisé pour les modèles IA. [Vérifier conférence exacte]
  6. L'AI Act européen impose des obligations de transparence et de supervision humaine pour les systèmes à haut risque. Voir Doc 2.1.
  7. La dérive des données (data drift) et la dérive conceptuelle (concept drift) sont des phénomènes bien documentés où les performances d'un modèle se dégradent au fil du temps.
  8. CRSH, CRSNG, IRSC (2022). EPTC 2. Le chapitre 2 (portée et approche) et le chapitre 4 (consentement) sont directement pertinents pour les phases 1-2 du guide.
  9. Déclaration de Montréal pour un développement responsable de l'IA (2018). Principe 8 : prudence. Disponible sur le site de la Déclaration.
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Ce guide est un cadre de référence à adapter au contexte spécifique de chaque projet. Consultez les bureaux de la recherche et les CÉR de votre institution pour un accompagnement personnalisé.
Bibliothèque de l'IA Responsable · Document 4.1 · Mars 2026
Bibliothèque IA Responsable — Document 4.2

Évaluation d'Impact Algorithmique (EIA)

Adaptée au contexte universitaire québécois

Public : Chercheurs, professeurs, conformité★★ IntermédiaireFormat : Fiche méthode (3-4 pages)

Résumé exécutif

L'Évaluation d'Impact Algorithmique (EIA) est un processus structuré visant à identifier et évaluer les impacts potentiels d'un système de décision automatisée avant son déploiement. Cette fiche adapte au contexte universitaire québécois la méthodologie développée par le gouvernement du Canada1, en proposant un protocole en six étapes réalisable par une équipe de recherche.

1. Origines et cadre

Le gouvernement du Canada a développé un Outil d'évaluation de l'incidence algorithmique (OEIA) dans le cadre de sa Directive sur la prise de décisions automatisée (2019).2 Cet outil classe les systèmes en quatre niveaux d'incidence et détermine les obligations correspondantes. L'AI Act européen impose également des évaluations d'impact pour les systèmes à haut risque.3

Dans le contexte universitaire, l'EIA complète (mais ne remplace pas) l'évaluation par le CÉR et l'ÉFVP de la Loi 25. Elle se concentre spécifiquement sur les impacts algorithmiques : biais, équité, transparence et impacts sociétaux du système IA lui-même.

2. Protocole en six étapes

Étape 1 — Description du système

Décrire le système IA, sa finalité, les données utilisées, le type de modèle, les décisions qu'il prend ou influence, et les personnes affectées. Identifier le niveau d'autonomie du système (aide à la décision vs. décision automatique).4

Étape 2 — Classification du niveau d'incidence

Évaluer le niveau d'incidence du système selon quatre facteurs : réversibilité des décisions, portée (nombre de personnes affectées), impact sur les droits fondamentaux, et vulnérabilité des populations concernées.

Niveau 1 — Faible Décisions réversibles, faible portée, impact limité.

Niveau 2 — Modéré Décisions ayant un impact mesurable, portée moyenne.

Niveau 3 — Élevé Décisions difficiles à renverser, affectant des droits ou des populations vulnérables.

Niveau 4 — Très élevé Décisions irréversibles ou affectant gravement des droits fondamentaux.5

Étape 3 — Analyse des risques d'équité et de biais

Examiner les sources potentielles de biais à chaque étape (données, modèle, déploiement). Identifier les attributs protégés pertinents dans le contexte canadien (genre, origine ethnique, âge, handicap, langue, statut autochtone). Choisir et justifier les métriques d'équité appropriées.6 Voir Doc 3.1 pour la taxonomie des biais et les métriques.

Étape 4 — Analyse de transparence et d'explicabilité

Évaluer le degré d'explicabilité du système. Les personnes affectées peuvent-elles comprendre pourquoi une décision a été prise ? Un mécanisme d'explication est-il en place ? La documentation technique est-elle suffisante pour un audit ?7

Étape 5 — Plan de mitigation et de surveillance

Pour chaque risque identifié, définir des mesures de mitigation, des indicateurs de surveillance et des seuils d'alerte. Prévoir un plan d'intervention en cas de détection d'un impact négatif non anticipé. Désigner les responsables de la surveillance.8

Étape 6 — Rapport et révision

Rédiger un rapport d'EIA documentant l'analyse, les risques identifiés, les mesures de mitigation et le plan de surveillance. Prévoir une périodicité de révision (annuelle recommandée, ou lors de changements significatifs du système).

3. Articulation avec les autres obligations

L'EIA ne se substitue pas aux cadres existants mais les complète :

ÉFVP (Loi 25) : l'ÉFVP porte sur la vie privée ; l'EIA porte sur les impacts algorithmiques plus largement (équité, transparence, impacts sociétaux). Les deux peuvent être réalisées conjointement.9

CÉR (EPTC 2) : le rapport d'EIA enrichit le dossier soumis au CÉR avec une analyse spécifique aux risques algorithmiques.

AI Act : pour les systèmes déployés dans l'UE, l'EIA peut servir de base à l'évaluation de conformité requise par le règlement.

🔬 Zoom sur l'écosystème montréalais

L'OEIA du gouvernement fédéral est un outil en ligne conçu pour les institutions fédérales. Son adaptation au contexte universitaire nécessite des ajustements : les enjeux de recherche (reproductibilité, liberté académique), les populations spécifiques (étudiants, communautés de recherche) et le cadre québécois (Loi 25, CÉR) doivent être intégrés. Les universités montréalaises pourraient collaborer pour développer une version commune adaptée à leurs besoins.10

Points clés à retenir

  1. L'EIA évalue les impacts algorithmiques spécifiques (biais, équité, transparence) — elle complète l'ÉFVP et l'évaluation du CÉR.
  2. Six étapes : description, classification, analyse des biais, analyse de transparence, plan de mitigation, rapport.
  3. Quatre niveaux d'incidence déterminent l'intensité des obligations.
  4. L'EIA doit être révisée périodiquement et lors de changements significatifs.

Questions de réflexion

  1. L'EIA devrait-elle être obligatoire pour tous les projets de recherche impliquant l'IA, ou seulement au-delà d'un certain niveau d'incidence ?
  2. Qui devrait réaliser l'EIA ? L'équipe de recherche elle-même (risque de conflit d'intérêts) ou un tiers (coût et disponibilité) ?
  3. Comment éviter que l'EIA ne devienne un exercice bureaucratique sans impact réel sur les pratiques ?

Notes

  1. Gouvernement du Canada, Secrétariat du Conseil du Trésor. Outil d'évaluation de l'incidence algorithmique. Disponible en ligne. [Vérifier l'URL et la version actuelle]
  2. Directive sur la prise de décisions automatisée (2019). Applicable aux institutions fédérales canadiennes. [Vérifier les mises à jour]
  3. AI Act, Titre III, Chapitre 2 : les fournisseurs de systèmes IA à haut risque doivent établir un système de gestion des risques. Voir Doc 2.1.
  4. La classification du niveau d'autonomie est importante : un système d'aide à la décision (avec humain dans la boucle) a un profil de risque différent d'un système entièrement automatisé.
  5. Les quatre niveaux sont inspirés de l'OEIA fédéral. L'adaptation au contexte universitaire peut nécessiter des ajustements des critères et des seuils.
  6. Voir Doc 3.1 de cette bibliothèque pour la taxonomie des biais et les métriques d'équité. Au Canada, la Loi canadienne sur les droits de la personne (L.R.C., 1985, c H-6) définit les motifs de discrimination interdits.
  7. Sur l'explicabilité, voir Doc 1.1 (glossaire, entrée « Explicabilité ») et Doc 4.4 (outils LIME, SHAP).
  8. Le plan de mitigation doit être proportionné au niveau d'incidence. Un système de niveau 1 nécessite des mesures minimales ; un système de niveau 4 exige un plan robuste avec supervision humaine renforcée.
  9. La CAI du Québec publie des guides pour la réalisation d'ÉFVP. L'intégration avec l'EIA évite les doublons. [Consulter les guides CAI les plus récents]
  10. [Vérifier si des universités canadiennes ont déjà développé des versions adaptées de l'OEIA pour le milieu académique]
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. L'OEIA fédéral est susceptible d'évoluer. Consultez le site du Secrétariat du Conseil du Trésor pour la version en vigueur.
Bibliothèque de l'IA Responsable · Document 4.2 · Mars 2026
Bibliothèque IA Responsable — Document 4.3

Protocole d'audit éthique d'un modèle IA

Grille multicritère · Procédures · Rapport d'audit

Public : Équipes de recherche, doctorants, ingénieurs IA★★★ AvancéFormat : Protocole (5-7 pages)

Résumé exécutif

Ce protocole permet à une équipe de recherche de mener un audit éthique interne de ses modèles d'IA. Il propose une grille d'évaluation couvrant cinq dimensions (équité, transparence, robustesse, vie privée, impact social), des procédures de documentation et un modèle de rapport d'audit. Il s'adresse aux équipes souhaitant aller au-delà de la conformité minimale vers une démarche proactive d'IA responsable.1

1. Les cinq dimensions de l'audit

Dimension 1 — Équité et non-discrimination

Évaluer si le modèle produit des résultats injustement différenciés pour des sous-groupes définis par des attributs protégés.2

Critères : Métriques d'équité calculées par sous-groupe (parité démographique, égalité des chances, calibration) · Analyse des taux d'erreur différenciés · Identification des groupes les plus affectés · Justification du choix de métrique
Outils : AI Fairness 360 (IBM), Fairlearn (Microsoft), Aequitas. Voir Doc 4.4.

Dimension 2 — Transparence et explicabilité

Évaluer le degré de compréhension du fonctionnement et des décisions du modèle.3

Critères : Documentation technique complète (model card) · Méthode d'explicabilité utilisée et ses limites · Intelligibilité pour les publics cibles (utilisateurs, personnes affectées, auditeurs) · Traçabilité des données d'entraînement
Outils : LIME, SHAP, What-If Tool (Google). Voir Doc 4.4.

Dimension 3 — Robustesse et fiabilité

Évaluer la capacité du modèle à maintenir ses performances face à des perturbations, des données hors distribution ou des attaques adverses.4

Critères : Performance sur des données hors distribution · Sensibilité aux perturbations d'entrée · Résistance aux attaques adverses · Comportement sur les cas limites (edge cases) · Stabilité temporelle (dérive)

Dimension 4 — Vie privée et protection des données

Évaluer les risques d'atteinte à la vie privée dans les données d'entraînement, le modèle et les résultats.5

Critères : Risque de mémorisation de données personnelles · Protection contre les attaques par inférence d'appartenance (membership inference) · Conformité aux obligations légales (Loi 25, RGPD) · Mesures de protection (anonymisation, vie privée différentielle)

Dimension 5 — Impact social et environnemental

Évaluer les conséquences sociétales et environnementales du système au-delà de ses performances techniques.6

Critères : Impacts sur l'emploi et les conditions de travail · Effets sur les inégalités sociales · Empreinte carbone de l'entraînement et de l'inférence · Risques de double usage · Accessibilité et inclusion

2. Procédure d'audit

Étape 1 — Cadrage : définir le périmètre de l'audit, les dimensions prioritaires et les ressources disponibles. Un audit complet couvre les cinq dimensions ; un audit ciblé peut se concentrer sur les dimensions les plus critiques pour le contexte.

Étape 2 — Collecte des données d'audit : rassembler la documentation technique, les résultats de tests, les données d'entraînement et de validation, et tout retour d'utilisation disponible.

Étape 3 — Évaluation : appliquer la grille multicritère dimension par dimension. Pour chaque critère, attribuer une évaluation (satisfaisant / amélioration nécessaire / non satisfaisant / non applicable) avec justification.

Étape 4 — Rédaction du rapport : documenter les résultats dans un rapport structuré incluant : résumé exécutif, description du système, résultats par dimension, recommandations d'amélioration, et plan de suivi.7

Étape 5 — Suivi : mettre en œuvre les recommandations et planifier le prochain audit (périodicité recommandée : annuelle ou lors de changements significatifs).

3. Modèle de rapport d'audit

SectionContenu
1. Identité du systèmeNom, version, finalité, responsable, date d'audit
2. PérimètreDimensions auditées, données et méthodes utilisées
3. Résultats par dimensionPour chaque dimension : évaluation, métriques, constats, preuves
4. Synthèse des risquesRisques identifiés classés par gravité et probabilité
5. RecommandationsActions correctives, responsables, échéances
6. Plan de suiviIndicateurs de surveillance, prochaine date d'audit
7. AnnexesDonnées détaillées, résultats de tests, code utilisé

🔬 Zoom sur l'écosystème montréalais

L'audit éthique de modèles IA est un domaine de pratique émergent. Les équipes de Mila et des universités montréalaises sont à la pointe de la recherche en équité et en explicabilité, ce qui facilite l'accès à l'expertise nécessaire. Le développement d'une culture d'audit interne dans les laboratoires de recherche serait un signal fort de l'engagement de l'écosystème envers l'IA responsable.8

Points clés à retenir

  1. L'audit éthique couvre cinq dimensions : équité, transparence, robustesse, vie privée, impact social.
  2. L'audit peut être complet ou ciblé selon les ressources et les risques du système.
  3. Le rapport d'audit est un outil d'imputabilité et d'amélioration continue.
  4. L'audit interne ne remplace pas un audit externe indépendant pour les systèmes à enjeux élevés.
  5. Des outils open-source existent pour chaque dimension (voir Doc 4.4).

Questions de réflexion

  1. Un audit éthique réalisé par l'équipe qui a développé le modèle est-il crédible ? Comment gérer le conflit d'intérêts ?
  2. Devrait-on publier les rapports d'audit des modèles développés en milieu académique ? Quels en seraient les avantages et les risques ?
  3. Comment adapter ce protocole aux contraintes de temps et de ressources d'un projet de recherche typique ?

Notes

  1. Sur les audits algorithmiques en général, voir : Raji, I. D. et al. (2020). Closing the AI Accountability Gap. Proceedings of ACM FAT*. [Vérifier référence exacte]
  2. Voir Doc 3.1 pour la taxonomie des biais et les métriques d'équité. Voir Doc 1.1, entrée « Équité algorithmique ».
  3. Mitchell, M. et al. (2019). Model Cards for Model Reporting. ACM FAT*. Les model cards sont un standard de documentation de plus en plus adopté.
  4. Goodfellow, I., Shlens, J., & Szegedy, C. (2015). Explaining and harnessing adversarial examples. ICLR. Travail fondateur sur les attaques adverses. [Vérifier conférence]
  5. Shokri, R. et al. (2017). Membership inference attacks against machine learning models. IEEE Symposium on Security and Privacy. [Vérifier pages]
  6. Strubell, E., Ganesh, A., & McCallum, A. (2019). Energy and policy considerations for deep learning in NLP. ACL. Sur l'empreinte environnementale.
  7. Le format de rapport proposé s'inspire des pratiques d'audit en sécurité informatique et des exigences de documentation de l'AI Act (Annexe IV).
  8. L'absence de standards d'audit algorithmique unifiés est reconnue comme un défi par la communauté. Des initiatives comme l'Algorithmic Auditing Taskforce tentent de combler cette lacune. [Vérifier le statut de cette initiative]
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Ce protocole est un cadre de référence, pas un standard certifié. Les méthodes d'audit algorithmique sont un domaine en développement rapide. Consultez la littérature récente et les experts de votre institution.
Bibliothèque de l'IA Responsable · Document 4.3 · Mars 2026
Bibliothèque IA Responsable — Document 4.4

Boîte à outils : Frameworks open-source pour l'IA éthique

Recension commentée · Cas d'usage · Forces et limites

Public : Étudiants gradués, data scientists, chercheurs★★ IntermédiaireMise à jour : Annuelle

Résumé exécutif

Plusieurs bibliothèques open-source permettent d'opérationnaliser l'IA éthique : mesure des biais, explicabilité des modèles, protection de la vie privée. Ce document recense les principaux outils disponibles, décrit leurs cas d'usage, évalue leurs forces et limites, et indique le niveau de compétence technique requis. Il vise à guider les choix des équipes de recherche.

Outils d'équité et de détection des biais

AI Fairness 360 (AIF360)

IBM · Python · Apache 2.0 · GitHub : Trusted-AI/AIF360

Bibliothèque complète offrant plus de 70 métriques d'équité et 10 algorithmes de mitigation des biais (pré-traitement, en cours d'entraînement, post-traitement). C'est l'un des outils les plus complets du domaine.1

équitémitigationmétriquesPython

Forces : couverture large (métriques + mitigation), documentation abondante, tutoriels. Limites : courbe d'apprentissage, certaines fonctions complexes, nécessite des connaissances statistiques solides. Niveau : intermédiaire à avancé.

Fairlearn

Microsoft · Python · MIT · GitHub : fairlearn/fairlearn

Bibliothèque centrée sur l'évaluation et l'amélioration de l'équité. Propose des métriques d'équité par groupe, des algorithmes de post-traitement (ThresholdOptimizer) et de réduction (ExponentiatedGradient).2

équitépost-traitementréductionPython

Forces : intégration avec scikit-learn, API intuitive, documentation claire, communauté active. Limites : moins de métriques qu'AIF360, algorithmes de mitigation limités. Niveau : intermédiaire.

Aequitas

U. Chicago (DSAPP) · Python · MIT · GitHub : dssg/aequitas

Outil d'audit d'équité centré sur les systèmes de décision. Calcule des métriques de biais par groupe et fournit des visualisations pour comparer les performances entre sous-populations.3

auditvisualisationmétriques

Forces : simplicité d'utilisation, interface web disponible, bon outil d'entrée. Limites : pas d'algorithmes de mitigation intégrés, fonctionnalités plus limitées. Niveau : débutant à intermédiaire.

Outils d'explicabilité

LIME (Local Interpretable Model-agnostic Explanations)

Ribeiro et al. · Python · BSD 2 · GitHub : marcotcr/lime

Génère des explications locales pour les prédictions de n'importe quel modèle en approximant le comportement du modèle autour d'un point spécifique par un modèle interprétable (régression linéaire).4

explicabilitéagnostiquelocal

Forces : applicable à tout modèle, intuitif, bon pour les cas individuels. Limites : explications locales seulement, instabilité des explications (deux exécutions peuvent donner des résultats différents), ne révèle pas le fonctionnement global du modèle. Niveau : intermédiaire.

SHAP (SHapley Additive exPlanations)

Lundberg & Lee · Python · MIT · GitHub : slundberg/shap

Fournit des explications basées sur la théorie des jeux (valeurs de Shapley) pour quantifier la contribution de chaque variable à une prédiction. Permet des analyses locales et globales.5

explicabilitéShapleylocal+global

Forces : fondement théorique solide, explications locales et globales, visualisations riches, large adoption. Limites : coûteux en calcul pour certaines méthodes (KernelSHAP), interprétation des valeurs de Shapley non triviale. Niveau : intermédiaire à avancé.

What-If Tool

Google (PAIR) · JavaScript/Python · Apache 2.0

Outil visuel et interactif pour explorer les performances d'un modèle sans écrire de code. Permet d'examiner les prédictions par sous-groupe, de tester des scénarios contrefactuels et de comparer des métriques d'équité.6

visualisationexplorationno-code

Forces : interface visuelle accessible, pas de code nécessaire pour l'exploration de base, intégration avec TensorBoard et Jupyter. Limites : moins flexible pour les analyses personnalisées, limité aux modèles de classification et régression. Niveau : débutant à intermédiaire.

Outils de documentation et gouvernance

Model Cards Toolkit

Google · Python · Apache 2.0

Framework pour créer des model cards standardisées documentant les performances, limites, biais potentiels et usages prévus d'un modèle. S'inspire de l'article fondateur de Mitchell et al. (2019).7

documentationmodel cardtransparence

Forces : standardisation de la documentation, adoption croissante dans la communauté. Limites : qualité dépendante du soin apporté par l'équipe, pas de vérification automatique. Niveau : débutant.

Datasheets for Datasets

Gebru et al. · Cadre méthodologique (pas de logiciel)

Proposition de documentation standardisée pour les jeux de données, couvrant la motivation, la composition, la collecte, le nettoyage, les usages prévus et les limites. Conçu comme un complément aux model cards.8

documentationdonnéescadre

Tableau comparatif synthétique

OutilDomaineNiveauLicenceLangage
AI Fairness 360Équité + mitigation★★★Apache 2.0Python
FairlearnÉquité + mitigation★★MITPython
AequitasAudit d'équitéMITPython
LIMEExplicabilité locale★★BSDPython
SHAPExplicabilité loc.+glob.★★★MITPython
What-If ToolExploration visuelleApache 2.0JS/Python
Model CardsDocumentation modèleApache 2.0Python

🔬 Zoom sur l'écosystème montréalais

Les chercheurs de l'écosystème montréalais utilisent et contribuent à plusieurs de ces outils. Mila et IVADO organisent des ateliers de formation sur les outils d'IA éthique. L'intégration de ces outils dans les cursus de formation (maîtrise, doctorat) est un enjeu pédagogique important pour former la prochaine génération de praticiens responsables.9

Points clés à retenir

  1. Des outils open-source existent pour chaque dimension de l'IA éthique : équité, explicabilité, documentation.
  2. Aucun outil n'est une solution complète — ils doivent être combinés selon les besoins du projet.
  3. Les outils mesurent et documentent ; les décisions normatives (quelle métrique d'équité ?) restent humaines.
  4. Aequitas et What-If Tool sont les meilleurs points d'entrée pour les débutants.
  5. La documentation (model cards, datasheets) est aussi importante que les tests techniques.

Questions de réflexion

  1. L'utilisation d'outils d'équité devrait-elle être obligatoire dans les publications de recherche en IA ?
  2. Les outils open-source développés par les Big Tech (Google, IBM, Microsoft) posent-ils un problème de dépendance ?
  3. Comment assurer que l'utilisation de ces outils ne devienne pas un exercice de conformité superficielle (fairness washing) ?

Notes

  1. Bellamy, R. K. E. et al. (2019). AI Fairness 360: An extensible toolkit for detecting and mitigating algorithmic bias. IBM Journal of Research and Development, 63(4/5). [Vérifier volume et pages]
  2. Bird, S. et al. (2020). Fairlearn: A toolkit for assessing and improving fairness in AI. Microsoft Research. [Vérifier si publié en conférence]
  3. Saleiro, P. et al. (2018). Aequitas: A bias and fairness audit toolkit. arXiv:1811.05577. [Vérifier publication]
  4. Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). "Why should I trust you?": Explaining the predictions of any classifier. Proceedings of ACM KDD. Article fondateur de LIME.
  5. Lundberg, S. M. & Lee, S.-I. (2017). A unified approach to interpreting model predictions. Advances in Neural Information Processing Systems (NeurIPS).
  6. Wexler, J. et al. (2019). The What-If Tool: Interactive probing of machine learning models. IEEE Transactions on Visualization and Computer Graphics. [Vérifier volume]
  7. Mitchell, M. et al. (2019). Model Cards for Model Reporting. Proceedings of ACM FAT*.
  8. Gebru, T. et al. (2021). Datasheets for datasets. Communications of the ACM, 64(12), 86–92.
  9. [Vérifier les formations actuellement offertes par Mila et IVADO sur ces outils]
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Les outils open-source évoluent rapidement (nouvelles versions, nouveaux outils). Consultez les dépôts GitHub respectifs et la documentation officielle pour les informations les plus récentes.
Bibliothèque de l'IA Responsable · Document 4.4 · Mars 2026
Bibliothèque IA Responsable — Document 4.5

Guide d'utilisation responsable des outils d'IA générative

Pour les étudiants, chargés de cours et professeurs

Public : Étudiants (tous cycles), professeurs, chargés de cours★ IntroductifFormat : Guide pratique (3-4 pages)

Résumé exécutif

Ce guide pratique offre un cadre d'utilisation responsable des outils d'IA générative (ChatGPT, Claude, Gemini, Copilot, etc.) en contexte universitaire. Il s'adresse à tous les acteurs de l'enseignement supérieur et propose des principes directeurs, une classification des scénarios d'usage, des modèles de mentions de divulgation et des conseils pour préserver la pensée critique.

1. Quatre principes directeurs

Transparence : toujours déclarer l'utilisation d'outils d'IA générative dans ses travaux. La transparence est la condition minimale de tout usage responsable.1
Pensée critique : ne jamais accepter les résultats de l'IA sans vérification. Vérifier les faits, les sources, les raisonnements. L'IA génère du texte plausible, pas nécessairement vrai.2
Apprentissage authentique : utiliser l'IA comme outil de soutien, pas comme substitut à la réflexion. L'objectif de la formation est le développement de compétences, pas la production de livrables.3
Conformité : respecter les politiques de votre institution et les consignes spécifiques de chaque cours. En cas de doute, demander à l'enseignant.4

2. Scénarios d'usage : du vert au rouge

La légitimité de l'utilisation de l'IA dépend du contexte, de la consigne et de la politique institutionnelle. Voici une classification indicative :

🟢 Généralement acceptable (avec divulgation)

Brainstorming et exploration d'idées : utiliser l'IA pour générer des pistes de réflexion, explorer un sujet, structurer ses idées initiales — puis développer sa propre pensée.
Correction linguistique : faire réviser son texte pour la grammaire, l'orthographe et le style, de la même manière qu'on utiliserait un correcteur orthographique avancé.
Compréhension de concepts : demander des explications sur des notions difficiles, comme complément aux cours et aux lectures — en vérifiant toujours avec des sources fiables.
Aide au code : utiliser l'IA pour déboguer, comprendre du code ou explorer des solutions techniques — en comprenant le code produit.

🟡 Zone grise (vérifier avec l'enseignant)

⚠️
Résumé de lectures : faire résumer des textes par l'IA peut court-circuiter le processus de lecture critique. Acceptable comme complément, pas comme substitut.
⚠️
Structuration d'un plan : faire générer un plan de travail, puis le développer soi-même. Acceptable si la réflexion est ensuite authentique, mais le plan lui-même est un exercice intellectuel.
⚠️
Traduction : utiliser l'IA pour traduire dans le cadre d'un cours de langue peut neutraliser l'objectif pédagogique.

🔴 Généralement non acceptable

🚫
Soumission de texte IA comme travail original : soumettre un texte généré par IA (même reformulé) comme s'il était le fruit de sa propre réflexion, sans divulgation adéquate.
🚫
Fabrication de données ou de références : utiliser l'IA pour générer des données de recherche fictives ou des références bibliographiques sans vérification.5
🚫
Contournement des consignes : utiliser l'IA en violation explicite des consignes d'un travail ou d'un examen.

3. Modèles de mentions de divulgation

La divulgation doit préciser : quels outils ont été utilisés, à quelles fins, et quelles modifications ont été apportées au contenu généré.

Modèle 1 — Utilisation légère (brainstorming, correction)

Mention d'utilisation de l'IA : J'ai utilisé [nom de l'outil, ex. : ChatGPT-4] pour [décrire l'usage : brainstormer des idées initiales / corriger la grammaire de mon texte]. Le contenu final reflète ma propre analyse et rédaction.

Modèle 2 — Utilisation substantielle (aide à la rédaction, structuration)

Mention d'utilisation de l'IA : Certaines sections de ce travail ont été développées avec l'assistance de [nom de l'outil]. J'ai utilisé l'outil pour [décrire précisément : générer un premier brouillon de la section X / structurer le plan / reformuler certains passages]. J'ai ensuite révisé, complété et vérifié l'ensemble du contenu. Les prompts utilisés sont disponibles en annexe [si demandé par l'enseignant].

Modèle 3 — Pour la recherche

Déclaration d'utilisation d'IA générative : Cette étude a utilisé [nom de l'outil, version, date d'accès] pour [objectif précis : analyse exploratoire de données textuelles / génération de code / revue de littérature préliminaire]. Les résultats ont été vérifiés par [décrire la méthode de vérification]. Les limites de cette utilisation incluent [décrire]. Les prompts sont documentés dans le matériel supplémentaire.

4. Conseils pour les enseignants

Clarifier les attentes : pour chaque travail, préciser explicitement quels usages de l'IA sont autorisés, tolérés ou interdits. L'ambiguïté est source de conflits.6

Adapter les évaluations : privilégier les évaluations qui résistent à l'utilisation non déclarée : évaluations orales, travaux réflexifs, processus en étapes, portfolios. Voir Doc 6.4 pour une grille d'évaluation intégrant la dimension éthique.

Former plutôt qu'interdire : enseigner l'utilisation critique de l'IA comme une compétence professionnelle. Les diplômés utiliseront ces outils dans leur carrière — mieux vaut les former à les utiliser de manière responsable.7

Montrer l'exemple : si vous utilisez l'IA pour préparer votre matériel pédagogique, le mentionner. La transparence est bidirectionnelle.

🔬 Zoom sur l'écosystème montréalais

Les universités montréalaises ont développé des directives institutionnelles sur l'IA générative. La proximité de Mila et de l'écosystème IA offre l'opportunité d'intégrer la littératie IA de manière approfondie dans les programmes, au-delà des simples règles d'utilisation. Former des diplômés qui comprennent les capacités et les limites de ces outils est un avantage compétitif pour l'écosystème.8

Points clés à retenir

  1. Quatre principes : transparence, pensée critique, apprentissage authentique, conformité.
  2. L'utilisation de l'IA n'est pas binaire (autorisé/interdit) — elle se situe sur un spectre dépendant du contexte.
  3. La divulgation est obligatoire pour tout usage, même léger.
  4. Toujours vérifier les faits, les sources et les références générées par l'IA.
  5. Les enseignants doivent clarifier leurs attentes et adapter leurs évaluations.

Questions de réflexion

  1. Si l'IA peut rédiger un texte acceptable, qu'est-ce que cela révèle sur la qualité de nos évaluations actuelles ?
  2. La divulgation de l'utilisation de l'IA devrait-elle être obligatoire dans les publications scientifiques ? De nombreuses revues l'exigent désormais.
  3. Comment développer une « littératie IA » chez les étudiants qui aille au-delà des règles d'utilisation vers une compréhension critique des outils ?

Notes

  1. La transparence est un principe fondamental de l'intégrité académique. Plusieurs universités exigent désormais une déclaration d'utilisation de l'IA dans les travaux soumis. [Vérifier les politiques de votre institution]
  2. Le phénomène d'hallucination (fabrication de contenus faux) est bien documenté dans les modèles de langage. Voir Doc 1.1, entrée « Hallucination (IA) ».
  3. Sur les risques de dépendance cognitive, voir Doc 3.4 de cette bibliothèque.
  4. Les politiques varient considérablement entre les institutions et les cours. Certains interdisent tout usage ; d'autres l'encouragent avec divulgation. L'étudiant est responsable de connaître et de respecter les règles applicables.
  5. Des cas de soumission de références fictives générées par l'IA ont été documentés dans le milieu académique et juridique. Voir Doc 3.4, note 2.
  6. Les conflits liés à l'IA surviennent souvent quand les consignes sont ambiguës. Une mention explicite dans le plan de cours ou les consignes de travail prévient les malentendus.
  7. Cette approche est recommandée par de nombreuses organisations, dont l'UNESCO dans ses orientations sur l'IA générative en éducation. [Vérifier les orientations UNESCO les plus récentes]
  8. [Vérifier les directives institutionnelles actuelles d'HEC Montréal, UdeM et Polytechnique Montréal]
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Les politiques institutionnelles évoluent rapidement. Consultez les directives officielles de votre institution et les consignes spécifiques de chaque cours pour les règles en vigueur.
Bibliothèque de l'IA Responsable · Document 4.5 · Mars 2026
Bibliothèque IA Responsable — Document 5.1

Cartographie des chaires et laboratoires IA éthique à Montréal

HEC Montréal · UdeM · Mila · IVADO · OBVIA · Partenaires

Public : Tous niveaux, chercheurs, partenaires★ IntroductifMise à jour : Annuelle (paysage évolutif)

Résumé exécutif

Montréal concentre un écosystème exceptionnel d'institutions travaillant sur l'IA et son éthique. Ce document cartographie les principaux acteurs — instituts, chaires, observatoires et consortiums — en présentant pour chacun le mandat, les axes de recherche et les réalisations marquantes. Il constitue un répertoire de référence pour les chercheurs, étudiants et partenaires souhaitant s'orienter dans cet écosystème.

⚠️ Avertissement : Le paysage institutionnel évolue rapidement (créations, fusions, renouvellements de mandats). Les informations ci-dessous reflètent l'état de connaissance au moment de la rédaction et doivent être vérifiées auprès des institutions concernées.

Instituts et consortiums majeurs

Mila — Institut québécois d'intelligence artificielle

Affilié à l'Université de Montréal · Fondé en 1993 (sous le nom LISA) · Directeur scientifique fondateur : Yoshua Bengio

Mila est l'un des plus importants centres de recherche en apprentissage profond au monde. Fondé par Yoshua Bengio (colauréat du prix Turing 2018 avec Geoffrey Hinton et Yann LeCun), il regroupe des centaines de chercheurs et étudiants.1

Axes pertinents pour l'IA responsable : recherche sur l'équité en apprentissage automatique, l'explicabilité, la robustesse, la sécurité de l'IA et les impacts sociétaux. Mila a été un acteur clé dans les discussions sur les risques existentiels de l'IA et la gouvernance internationale.

Réalisations marquantes : contributions fondatrices à l'apprentissage profond, participation à la Déclaration de Montréal, publications influentes en équité et robustesse. Yoshua Bengio a été un signataire de plusieurs appels internationaux pour la gouvernance de l'IA.2

IVADO — Institut de valorisation des données

Consortium : UdeM, HEC Montréal, Polytechnique Montréal, Université Laval · Fondé en 2016

IVADO est un consortium interuniversitaire dédié au développement et au transfert de l'expertise en science des données, intelligence artificielle et recherche opérationnelle. Il fédère quatre universités québécoises et soutient la formation, la recherche et les partenariats.3

Axes pertinents : formation en IA responsable, financement de projets de recherche interdisciplinaires sur les impacts sociétaux de l'IA, programmes de bourses et stages, ateliers sur l'éthique de l'IA.

Réalisations : financement de dizaines de projets de recherche, programmes de formation continue, soutien au développement de compétences en science des données dans les entreprises et organismes publics.

OBVIA — Observatoire international sur les impacts sociétaux de l'IA et du numérique

Basé à l'Université Laval · Réseau interprovincial et international · Créé en 2019

L'OBVIA est un observatoire dédié à l'étude des impacts sociétaux de l'IA et du numérique. Il regroupe des chercheurs de plusieurs universités québécoises et internationales dans une perspective interdisciplinaire (sciences sociales, droit, philosophie, informatique).4

Axes : impacts sur le travail et l'emploi, vie privée et surveillance, justice et équité algorithmique, gouvernance de l'IA, culture et médias numériques, santé. Approche résolument interdisciplinaire et critique.

Réalisations : publications, rapports de recherche, veille sur les politiques publiques, activités de transfert de connaissances. [Vérifier le statut actuel et le financement de l'OBVIA]

Universités et chaires

HEC Montréal

École affiliée à l'Université de Montréal · Gestion, analytique, technologies

HEC Montréal est une institution de premier plan en sciences de la gestion au Canada. Plusieurs initiatives y touchent à l'IA responsable dans le contexte de la gestion et des affaires.5

Axes pertinents : analytique des affaires et IA, éthique de la gestion technologique, gouvernance des données, transformation numérique responsable, pédagogie de l'éthique en gestion.

Programmes : HEC Montréal offre des programmes intégrant l'analytique et l'IA (maîtrise en analytique d'affaires, DESS en analytique d'affaires, spécialisations en intelligence d'affaires). [Vérifier les programmes et chaires actuellement actifs]

Université de Montréal

Université de recherche · Multidisciplinaire

L'UdeM est l'institution d'attache de Mila et a été l'instigatrice de la Déclaration de Montréal pour un développement responsable de l'IA (2018). Plusieurs facultés contribuent à la recherche sur l'IA éthique : informatique, droit, philosophie, sciences sociales, médecine.6

Axes pertinents : apprentissage automatique et ses fondements éthiques (Département d'informatique et de recherche opérationnelle — DIRO), droit des technologies (Faculté de droit), philosophie de l'IA, éthique appliquée, cyberjustice.

Réalisations : Déclaration de Montréal (2018), formation de chercheurs de pointe en IA, programmes interdisciplinaires. [Vérifier les chaires et centres de recherche actuellement actifs à l'UdeM en lien avec l'éthique IA]

Polytechnique Montréal

École d'ingénierie · Affiliée à l'UdeM

Polytechnique Montréal contribue à l'écosystème par ses travaux en génie informatique, science des données et recherche opérationnelle, avec une attention croissante aux dimensions éthiques et sociétales.7

Axes : optimisation et apprentissage automatique, sécurité informatique, vie privée, applications industrielles responsables de l'IA.

Université McGill

Université de recherche · Anglophone · Montréal

McGill contribue à l'écosystème montréalais de l'IA par ses départements d'informatique, de philosophie et de droit. La proximité avec Mila et les institutions francophones favorise les collaborations interdisciplinaires et bilingues.8

Axes : IA et santé, éthique de l'IA et philosophie, droit et technologies, apprentissage automatique.

Autres acteurs clés

CIFAR — Institut canadien de recherches avancées

Organisation pancanadienne · Siège à Toronto · Programme IA pan-canadien

Le CIFAR administre la Stratégie pancanadienne en matière d'intelligence artificielle depuis 2017, avec des investissements majeurs dans les trois pôles nationaux (Mila à Montréal, Vector Institute à Toronto, Amii à Edmonton). Le programme « IA et société » du CIFAR soutient la recherche sur les dimensions éthiques et sociétales.9

CIRANO — Centre interuniversitaire de recherche en analyse des organisations

Consortium interuniversitaire · Montréal

Le CIRANO contribue à l'analyse des politiques publiques en matière de numérique et d'IA, avec des travaux sur les impacts économiques et la gouvernance.10

Laboratoires industriels à Montréal

Google, Meta, Microsoft, Samsung, et autres

Plusieurs entreprises technologiques majeures ont établi des laboratoires de recherche en IA à Montréal, attirés par l'écosystème académique. Ces laboratoires emploient des chercheurs formés localement et collaborent avec les universités. Cette présence soulève aussi des questions de souveraineté académique et de « brain drain » (voir Doc 3.5).11

🔬 Forces et défis de l'écosystème

Forces : concentration exceptionnelle de talents, tradition interdisciplinaire, leadership normatif international (Déclaration de Montréal), bilinguisme, diversité des institutions.

Défis : coordination entre institutions, compétition avec l'industrie pour les talents, maintien de l'indépendance face aux financements privés, opérationnalisation des principes éthiques dans les pratiques de recherche quotidiennes, pérennité des financements publics.

Points clés à retenir

  1. Montréal concentre un écosystème unique : Mila (apprentissage profond), IVADO (science des données), OBVIA (impacts sociétaux), et quatre universités de recherche.
  2. L'écosystème couvre toute la chaîne : recherche fondamentale, recherche appliquée, éthique, politiques publiques, formation.
  3. La Déclaration de Montréal (2018) a positionné la ville comme pôle mondial de l'IA éthique.
  4. La présence de laboratoires industriels est à la fois un atout (collaboration) et un risque (dépendance, brain drain).
  5. Le paysage évolue rapidement — cette cartographie doit être vérifiée et mise à jour régulièrement.

Questions de réflexion

  1. L'écosystème montréalais est-il suffisamment coordonné, ou y a-t-il des duplications et des lacunes ?
  2. Comment les institutions académiques peuvent-elles bénéficier de la présence des laboratoires industriels sans compromettre leur indépendance ?
  3. Quels sont les domaines de recherche en IA responsable les plus urgents que l'écosystème devrait prioriser ?

Notes

  1. Mila — Institut québécois d'intelligence artificielle. Originellement le laboratoire LISA (Laboratoire d'informatique des systèmes adaptatifs), fondé par Yoshua Bengio. Renommé Mila en 2017. [Vérifier le nombre actuel de chercheurs et étudiants sur le site de Mila]
  2. Yoshua Bengio a été signataire de la lettre ouverte du Future of Life Institute (2023) appelant à un moratoire sur l'entraînement de systèmes IA plus puissants que GPT-4. [Vérifier les prises de position récentes]
  3. IVADO. [Vérifier les institutions membres actuelles et les programmes en cours sur le site d'IVADO — l'Université Laval était partenaire mais vérifier le statut actuel]
  4. OBVIA, Observatoire international sur les impacts sociétaux de l'IA et du numérique, Université Laval. Financé par les Fonds de recherche du Québec (FRQ). [VÉRIFIER : le statut, le financement actuel et l'activité de l'OBVIA — les financements des observatoires peuvent être limités dans le temps]
  5. [Vérifier les chaires et groupes de recherche actuellement actifs à HEC Montréal en lien avec l'IA et l'éthique. Le paysage des chaires évolue avec les renouvellements de mandat et les créations/fermetures.]
  6. La Déclaration de Montréal a été pilotée par l'Université de Montréal sous la direction de Yoshua Bengio et coordonnée par Marc-Antoine Dilhac. [Vérifier les rôles exacts et les affiliations actuelles]
  7. [Vérifier les centres et chaires actifs à Polytechnique Montréal en IA responsable]
  8. McGill héberge le McGill Centre for the Convergence of Health and Economics (MCCHE) et des initiatives en IA et santé. [Vérifier les centres actuellement actifs]
  9. CIFAR (2017). Stratégie pancanadienne en matière d'IA. Budget 2024 : renouvellement annoncé avec investissement additionnel. [Vérifier les détails du renouvellement]
  10. CIRANO, Centre interuniversitaire de recherche en analyse des organisations. [Vérifier les projets en cours liés à l'IA]
  11. [Vérifier la liste des laboratoires industriels actuellement actifs à Montréal — des ouvertures et fermetures se produisent régulièrement]
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Le paysage institutionnel évolue rapidement. Chaque institution et initiative mentionnée doit être vérifiée sur les sites officiels respectifs pour confirmer leur statut actuel, leurs mandats et leurs activités.
Bibliothèque de l'IA Responsable · Document 5.1 · Mars 2026
Bibliothèque IA Responsable — Document 5.2

Travaux phares issus de l'écosystème montréalais

Publications · Rapports d'impact · Contributions internationales

Public : Chercheurs, étudiants gradués, professeurs★★ IntermédiaireMise à jour : Annuelle

Résumé exécutif

L'écosystème montréalais a produit des contributions scientifiques et institutionnelles majeures en IA responsable. Ce document recense les travaux phares : publications fondatrices, initiatives normatives, rapports d'impact et collaborations internationales. Il met en perspective l'apport de Montréal au débat mondial sur la gouvernance de l'IA.

1. Contributions scientifiques fondatrices

Publication scientifique

Deep Learning — LeCun, Bengio & Hinton (2015)

L'article fondateur publié dans Nature par Yann LeCun, Yoshua Bengio et Geoffrey Hinton a établi les bases conceptuelles de l'apprentissage profond et contribué à lancer la vague d'applications IA actuelles. Bengio, basé à l'Université de Montréal et à Mila, est l'un des trois « pères de l'apprentissage profond ».1

Impact : l'un des articles les plus cités en IA. A valu à ses auteurs le prix Turing 2018 (considéré comme le « prix Nobel de l'informatique »).

Publication scientifique

Generative Adversarial Networks (GANs) — Goodfellow et al. (2014)

Ian Goodfellow, alors étudiant doctoral au laboratoire de Yoshua Bengio à l'Université de Montréal, a proposé le cadre des réseaux antagonistes génératifs, une architecture fondatrice de l'IA générative actuelle.2

Impact : les GANs ont ouvert la voie à la génération d'images réalistes, avec des implications éthiques considérables (deepfakes, désinformation). Un exemple de contribution technique ayant des ramifications éthiques majeures.

Publication scientifique

Travaux sur l'attention et les Transformers

Plusieurs chercheurs de Mila ont contribué aux travaux sur les mécanismes d'attention en apprentissage profond, qui ont conduit à l'architecture Transformer — la base technique de tous les grands modèles de langage actuels (GPT, Claude, etc.).3

2. Initiatives normatives et éthiques

Initiative normative

Déclaration de Montréal pour un développement responsable de l'IA (2018)

Initiative phare de l'écosystème, la Déclaration de Montréal est issue d'un processus délibératif citoyen inédit piloté par l'Université de Montréal. Elle propose dix principes pour un développement responsable de l'IA et a eu un rayonnement international considérable.4 Voir Doc 5.3 pour une étude de cas détaillée.

Impact : a influencé plusieurs cadres normatifs internationaux, citée dans de nombreux documents institutionnels et académiques. Pionnière par sa méthodologie participative.

Contribution à la gouvernance

Engagement de Yoshua Bengio pour la gouvernance mondiale de l'IA

Yoshua Bengio s'est positionné comme une voix majeure dans les débats sur la gouvernance de l'IA, plaidant pour une régulation internationale et alertant sur les risques des systèmes IA avancés. Il a participé à des consultations auprès de gouvernements et d'organisations internationales.5

Stratégie nationale

Stratégie pancanadienne en IA (CIFAR, 2017)

Le Canada a été le premier pays à adopter une stratégie nationale en IA, administrée par le CIFAR. L'écosystème montréalais (Mila) est l'un des trois pôles nationaux soutenus par cette stratégie, avec le Vector Institute (Toronto) et Amii (Edmonton).6

3. Recherche interdisciplinaire sur les impacts

Recherche interdisciplinaire

Travaux de l'OBVIA sur les impacts sociétaux

L'OBVIA a produit des recherches sur les impacts de l'IA dans le travail, la santé, la justice et la culture, avec une approche interdisciplinaire mobilisant des chercheurs de sciences sociales, de droit et de philosophie.7

Recherche appliquée

Projets IVADO en IA responsable

IVADO a financé et soutenu des projets de recherche appliquée en IA responsable, couvrant l'équité algorithmique, l'explicabilité, la protection de la vie privée et les applications sectorielles (santé, finance, transport).8

Formation et transfert

Programmes de formation en IA responsable

L'écosystème a développé des programmes de formation à plusieurs niveaux : programmes académiques (BAC, maîtrise, doctorat), écoles d'été, ateliers de formation continue, et programmes spécialisés pour les professionnels. IVADO et Mila sont particulièrement actifs dans ce domaine.9

🔬 Mise en perspective internationale

L'écosystème montréalais occupe une position singulière dans le paysage mondial de l'IA responsable : il combine une excellence en recherche fondamentale (Mila est classé parmi les meilleurs centres mondiaux en apprentissage profond), un leadership normatif (Déclaration de Montréal) et un engagement interdisciplinaire (OBVIA, facultés de sciences sociales et de droit). Cette combinaison est rare à l'échelle internationale. Le défi est de maintenir cette position face à la compétition mondiale pour les talents et les financements, et de traduire les principes éthiques en pratiques concrètes de recherche et d'enseignement.

Points clés à retenir

  1. Montréal a produit des contributions fondatrices en apprentissage profond (Bengio, LeCun, Goodfellow) qui ont façonné l'IA actuelle.
  2. La Déclaration de Montréal (2018) est un jalon normatif international majeur.
  3. L'écosystème combine recherche technique de pointe et réflexion éthique interdisciplinaire.
  4. Le Canada a été le premier pays à se doter d'une stratégie nationale en IA (2017).
  5. Le transfert des principes éthiques vers les pratiques concrètes reste un défi permanent.

Questions de réflexion

  1. Les contributions techniques fondatrices (apprentissage profond, GANs) ont-elles été accompagnées d'une réflexion éthique suffisante dès le départ ?
  2. La Déclaration de Montréal a-t-elle eu un impact concret sur les pratiques de recherche, ou est-elle restée un document symbolique ?
  3. Comment l'écosystème montréalais peut-il maintenir son avantage compétitif tout en préservant son engagement éthique ?

Notes

  1. LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444.
  2. Goodfellow, I. et al. (2014). Generative Adversarial Nets. Advances in Neural Information Processing Systems (NeurIPS). Travail réalisé à l'Université de Montréal.
  3. Bahdanau, D., Cho, K., & Bengio, Y. (2015). Neural machine translation by jointly learning to align and translate. ICLR. Ce travail sur l'attention a été l'un des précurseurs de l'architecture Transformer (Vaswani et al., 2017). [Vérifier la conférence exacte]
  4. Déclaration de Montréal pour un développement responsable de l'IA (2018). Université de Montréal. Voir Doc 5.3 pour l'étude de cas.
  5. [Vérifier les interventions récentes de Yoshua Bengio dans le débat sur la gouvernance de l'IA — ses positions ont évolué significativement depuis 2023]
  6. CIFAR (2017). Stratégie pancanadienne en matière d'intelligence artificielle. [Vérifier le renouvellement et le budget actuel]
  7. [Vérifier les publications et rapports récents de l'OBVIA sur le site de l'observatoire]
  8. [Consulter le site d'IVADO pour les projets de recherche en cours et terminés]
  9. [Vérifier les programmes de formation actuellement offerts par Mila, IVADO et les universités partenaires]
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Seules des contributions dont l'existence est vérifiable publiquement sont mentionnées. Les attributions de travaux scientifiques doivent être vérifiées dans les publications originales. Le paysage des contributions évolue rapidement.
Bibliothèque de l'IA Responsable · Document 5.2 · Mars 2026
Bibliothèque IA Responsable — Document 5.3

La Déclaration de Montréal pour un développement responsable de l'IA

Étude de cas · Genèse · Principes · Portée internationale

Public : Tous niveaux, chercheurs, partenaires★★ IntermédiaireFormat : Étude de cas (5-6 pages)

Résumé exécutif

La Déclaration de Montréal pour un développement responsable de l'IA (2018) est l'une des initiatives les plus significatives de l'écosystème montréalais. Issue d'un processus délibératif citoyen inédit, elle propose dix principes et a eu un rayonnement international considérable. Cette étude de cas retrace sa genèse, analyse sa méthodologie participative innovante, présente ses principes et évalue son influence sur les cadres normatifs mondiaux.

1. Genèse et contexte

En novembre 2017, dans un contexte d'accélération du développement de l'IA et de prise de conscience de ses enjeux sociétaux, l'Université de Montréal a lancé un processus de consultation publique visant à élaborer un cadre de principes éthiques pour l'IA. L'initiative a été portée par Yoshua Bengio et coordonnée par Marc-Antoine Dilhac, professeur de philosophie.1

Ce qui distingue la démarche montréalaise des autres initiatives contemporaines (principes d'Asilomar, lignes directrices de l'UE, principes de l'OCDE) est sa méthodologie : plutôt qu'un comité d'experts rédigeant un texte à huis clos, la Déclaration est issue d'un processus délibératif impliquant des citoyens, des organisations de la société civile, des entreprises, des chercheurs et des représentants gouvernementaux.2

Chronologie

Novembre 2017 : Forum sur le développement socialement responsable de l'IA, Université de Montréal. Lancement du processus de consultation.

2017-2018 : Série de consultations publiques, ateliers citoyens, contributions en ligne. Des milliers de personnes ont participé au processus.3

Décembre 2018 : Présentation officielle de la Déclaration de Montréal dans sa version finale, comprenant dix principes et des recommandations.

2019-présent : Diffusion internationale, citation dans des cadres normatifs, influence sur les politiques publiques.

2. Les dix principes

La Déclaration articule dix principes, chacun décliné en sous-principes opérationnels :4

1. Bien-être : le développement et l'utilisation de l'IA doivent viser à promouvoir le bien-être de tous les êtres sensibles.
2. Autonomie : l'IA doit être développée de manière à permettre aux individus de conserver leur capacité de décision et d'autodétermination.
3. Protection de la vie privée et de l'intimité : la vie privée et l'intimité doivent être protégées face à la collecte et l'utilisation des données par l'IA.
4. Solidarité : l'IA doit être compatible avec le maintien de liens de solidarité entre les personnes et les générations.
5. Participation démocratique : les citoyens doivent pouvoir participer de manière informée à la définition des normes encadrant l'IA.
6. Équité : l'IA doit contribuer à une société juste et équitable.
7. Inclusion de la diversité : l'IA doit être compatible avec la diversité sociale et culturelle et ne pas restreindre la portée des choix de vie.
8. Prudence : les acteurs du développement de l'IA doivent faire preuve de prudence en anticipant les conséquences néfastes.
9. Responsabilité : le développement et l'utilisation de l'IA ne doivent pas diminuer la responsabilité des êtres humains.
10. Développement soutenable : l'IA doit être compatible avec la viabilité écologique de la planète.

3. Méthodologie participative : une innovation

La méthodologie de la Déclaration constitue son apport le plus original. Contrairement aux déclarations émanant d'experts ou d'organisations internationales, elle a intégré directement la voix des citoyens dans l'élaboration des principes.5

Délibération citoyenne : des ateliers ont permis à des citoyens non spécialistes de s'informer, de débattre et de contribuer à la formulation des principes. Cette approche s'inscrit dans la tradition de la démocratie délibérative et des conférences de consensus.

Multi-parties prenantes : le processus a impliqué des acteurs variés — chercheurs, entrepreneurs, organisations de la société civile, artistes, juristes, représentants gouvernementaux — permettant de croiser des perspectives diverses.

Transparence du processus : les contributions et les délibérations ont été documentées et rendues accessibles, assurant la traçabilité du processus de construction des principes.

4. Réception et influence internationale

La Déclaration de Montréal a eu un rayonnement significatif :

Citations académiques : elle est fréquemment citée dans la littérature académique sur l'éthique de l'IA, notamment dans l'étude de référence de Jobin, Ienca et Vayena (2019) sur le paysage mondial des principes éthiques de l'IA.6

Influence sur les cadres normatifs : plusieurs de ses principes — notamment la participation démocratique et le développement soutenable — ont anticipé des éléments qui seront repris dans des cadres ultérieurs (Recommandation de l'UNESCO, 2021).7

Modèle méthodologique : la méthodologie délibérative citoyenne a inspiré d'autres initiatives de consultation sur l'IA dans d'autres juridictions.8

5. Limites et critiques

Opérationnalisation : comme pour de nombreuses déclarations de principes, le passage des principes abstraits aux pratiques concrètes reste le défi principal. Comment mesurer le respect du « bien-être de tous les êtres sensibles » dans un projet de recherche spécifique ?9

Force contraignante : la Déclaration est un cadre volontaire, sans mécanisme de mise en œuvre ni de sanction. Son influence dépend de l'adoption volontaire par les acteurs.

Représentativité : malgré l'effort de participation citoyenne, les participants aux consultations n'étaient pas nécessairement représentatifs de l'ensemble de la population québécoise. Les voix des communautés les plus marginalisées (populations autochtones, personnes en situation de handicap, etc.) ont pu être insuffisamment entendues.

Suivi et mise à jour : la Déclaration a été publiée en 2018, avant l'explosion de l'IA générative. La question de sa mise à jour face aux évolutions technologiques rapides se pose.10

Points clés à retenir

  1. La Déclaration de Montréal (2018) est un jalon majeur de l'éthique de l'IA à l'échelle mondiale.
  2. Sa méthodologie délibérative citoyenne est son apport le plus original — une innovation dans le domaine.
  3. Dix principes couvrant le bien-être, l'autonomie, la vie privée, la solidarité, la participation, l'équité, la diversité, la prudence, la responsabilité et la soutenabilité.
  4. Son influence internationale est documentée, mais son opérationnalisation reste un défi.
  5. Les principes de participation démocratique et de développement soutenable étaient précurseurs.

Questions de réflexion

  1. La méthodologie délibérative citoyenne produit-elle de meilleurs principes éthiques qu'un comité d'experts ? Pourquoi ?
  2. La Déclaration devrait-elle être mise à jour pour intégrer les enjeux de l'IA générative ? Si oui, avec quel processus ?
  3. Comment passer de principes abstraits (« bien-être ») à des critères opérationnels dans un projet de recherche concret ?
  4. La Déclaration de Montréal a-t-elle été un exercice réussi de démocratie délibérative, ou les limites de représentativité l'invalident-elles ?

Notes

  1. Déclaration de Montréal pour un développement responsable de l'IA (2018). Université de Montréal. La coordination scientifique a été assurée par Marc-Antoine Dilhac. [Vérifier les rôles et affiliations actuels]
  2. Cette approche participative distingue la Déclaration de Montréal des principes d'Asilomar (2017, élaborés par des chercheurs en IA) et des lignes directrices de l'UE (2019, élaborées par un groupe d'experts nommés).
  3. Le nombre exact de participants varie selon les sources. Le processus a inclus des ateliers en présentiel et des contributions en ligne. [Vérifier les chiffres de participation sur le site de la Déclaration]
  4. Les dix principes et leurs sous-principes sont disponibles intégralement sur le site officiel de la Déclaration de Montréal.
  5. Sur la démocratie délibérative et les conférences de consensus, voir les travaux de James Fishkin sur les « sondages délibératifs ». [Référence à vérifier]
  6. Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389–399.
  7. UNESCO (2021). Recommandation sur l'éthique de l'intelligence artificielle. Le principe de « durabilité » de l'UNESCO fait écho au principe de « développement soutenable » de la Déclaration de Montréal.
  8. [Vérifier les initiatives ayant explicitement cité la méthodologie de la Déclaration de Montréal comme modèle]
  9. Le défi de l'opérationnalisation des principes éthiques (principles-to-practice gap) est un thème récurrent dans la littérature. Voir : Mittelstadt, B. (2019). Principles alone cannot guarantee ethical AI. Nature Machine Intelligence, 1(11), 501–507.
  10. [Vérifier si un processus de mise à jour de la Déclaration a été annoncé ou engagé]
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Les informations sur la Déclaration de Montréal sont basées sur des sources publiques vérifiables. Les détails du processus de consultation et les chiffres de participation doivent être confirmés sur le site officiel de la Déclaration.
Bibliothèque de l'IA Responsable · Document 5.3 · Mars 2026
Bibliothèque IA Responsable — Document 5.4

Fiches chercheurs

Figures clés de l'IA responsable au Québec

Public : Étudiants, chercheurs, partenaires★ IntroductifMise à jour : Annuelle

Résumé exécutif

Ce document présente des portraits synthétiques de chercheurs ayant contribué de manière significative au développement de l'IA et de l'IA responsable au Québec. Seuls des profils dont les contributions sont vérifiables publiquement sont inclus. Les attributions sont limitées à ce qui est documenté avec certitude.

⚠️ Avertissement d'intégrité : Conformément aux principes de cette bibliothèque, aucune position, citation ou travail n'est attribué à un chercheur sans certitude de l'exactitude de cette attribution. Les affiliations et les travaux mentionnés reflètent l'état de connaissance au moment de la rédaction. Les profils doivent être vérifiés sur les pages institutionnelles des chercheurs concernés.

Profils

Yoshua Bengio

Université de Montréal · Mila · Prix Turing 2018

Yoshua Bengio est l'un des trois « pères de l'apprentissage profond » (avec Geoffrey Hinton et Yann LeCun), distinction qui leur a valu le prix Turing 2018.1 Professeur au Département d'informatique et de recherche opérationnelle (DIRO) de l'Université de Montréal, il est le fondateur scientifique de Mila.

Contributions à l'IA responsable : au-delà de ses contributions techniques fondatrices, Bengio s'est engagé activement dans les débats sur la gouvernance de l'IA. Il a été un acteur clé de la Déclaration de Montréal (2018) et a plaidé publiquement pour une régulation internationale des systèmes IA avancés. Depuis 2023, il s'est particulièrement prononcé sur les risques des systèmes IA de grande puissance.2

Vérification : page institutionnelle UdeM/DIRO, site Mila, Google Scholar.

Marc-Antoine Dilhac

Université de Montréal · Département de philosophie [Vérifier affiliation actuelle]

Philosophe spécialisé en éthique de l'IA, Marc-Antoine Dilhac a été le coordonnateur scientifique de la Déclaration de Montréal pour un développement responsable de l'IA (2018). Il a joué un rôle central dans la conception et la mise en œuvre du processus de consultation citoyenne qui a produit la Déclaration.3

Contributions : coordination de la Déclaration de Montréal, recherche en éthique de l'IA, participation à des consultations gouvernementales sur la gouvernance de l'IA.

Vérification : page institutionnelle UdeM, site de la Déclaration de Montréal.

Aaron Courville

Université de Montréal · Mila [Vérifier affiliation actuelle]

Professeur en informatique à l'Université de Montréal et membre de Mila, Aaron Courville est un chercheur reconnu en apprentissage profond. Il est coauteur avec Ian Goodfellow et Yoshua Bengio du manuel de référence Deep Learning (MIT Press, 2016), l'un des ouvrages les plus utilisés pour l'enseignement de l'apprentissage profond dans le monde.4

Contributions : recherche en apprentissage profond, en modèles génératifs et en représentation des connaissances. Contribution à la formation de centaines de chercheurs à travers son enseignement et le manuel Deep Learning.

Note : Cette liste est volontairement restreinte aux profils dont les contributions peuvent être attribuées avec une certitude élevée. De nombreux autres chercheurs et chercheuses contribuent activement à l'IA responsable au Québec — dans les universités montréalaises, à l'Université Laval, à l'Université de Sherbrooke et ailleurs. L'absence d'un profil ne reflète pas un jugement sur l'importance de ses contributions, mais les limites de certitude de ce document. Les lecteurs sont invités à consulter les sites de Mila, IVADO, OBVIA et des universités pour une cartographie complète et à jour.

Points clés à retenir

  1. L'écosystème québécois compte des chercheurs de calibre mondial en IA et en éthique de l'IA.
  2. Les contributions couvrent un spectre large : recherche fondamentale, normes éthiques, gouvernance, formation.
  3. L'interdisciplinarité (informatique, philosophie, droit, gestion) est une force de l'écosystème.
  4. Ce document est intentionnellement prudent dans ses attributions — mieux vaut moins mais exact.

Questions de réflexion

  1. Comment assurer la visibilité des chercheurs et chercheuses émergents en IA responsable, au-delà des figures les plus connues ?
  2. L'interdisciplinarité est-elle suffisamment valorisée dans les parcours de carrière académique en IA ?
  3. Le modèle de la « star scientist » (concentration de la visibilité sur quelques individus) est-il compatible avec une approche collective de l'IA responsable ?

Notes

  1. Prix Turing 2018 attribué conjointement à Yoshua Bengio, Geoffrey Hinton et Yann LeCun par l'Association for Computing Machinery (ACM). Vérifiable sur le site de l'ACM.
  2. [Vérifier les prises de position les plus récentes de Yoshua Bengio — ses positions sur les risques IA ont évolué significativement depuis 2023. Consulter ses publications et interventions publiques récentes.]
  3. Le rôle de Marc-Antoine Dilhac dans la Déclaration de Montréal est documenté sur le site officiel de la Déclaration. [Vérifier son affiliation et ses activités actuelles]
  4. Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. MIT Press. L'un des manuels les plus utilisés dans l'enseignement de l'apprentissage profond.
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Par souci d'intégrité, ce document est volontairement limité à un petit nombre de profils dont les contributions sont vérifiables avec un haut degré de certitude. Aucune position ou citation n'est attribuée sans fondement documenté. Consultez les pages institutionnelles pour des informations à jour et complètes.
Bibliothèque de l'IA Responsable · Document 5.4 · Mars 2026
Bibliothèque IA Responsable — Document 5.5

20 articles incontournables sur l'IA éthique

Revue de littérature annotée · Gestion & sciences sociales

Public : Étudiants gradués, chercheurs, professeurs★★★ AvancéMise à jour : Annuelle

Résumé exécutif

Cette revue de littérature annotée sélectionne 20 articles scientifiques fondamentaux sur l'IA éthique, avec un accent sur les sciences de la gestion et les sciences sociales. Chaque entrée présente la référence, un résumé de la contribution, ses limites et sa pertinence. Seules des publications dont l'existence est vérifiable sont incluses.

Critères de sélection : impact académique (citations), pertinence pour les sciences de la gestion et sociales, accessibilité, diversité thématique. Classement thématique, non hiérarchique. Vérification recommandée : Google Scholar, ACM DL, JSTOR, CAIRN.

A. Paysage et principes de l'IA éthique

1. The global landscape of AI ethics guidelines

Jobin, A., Ienca, M., & Vayena, E. (2019). Nature Machine Intelligence, 1(9), 389–399.

Recension systématique de 84 ensembles de principes éthiques pour l'IA à l'échelle mondiale. Identifie cinq principes récurrents (transparence, justice, non-malfaisance, responsabilité, vie privée) et des divergences significatives. Article de référence pour cartographier le champ.

principespanoramaconvergences

2. Principles alone cannot guarantee ethical AI

Mittelstadt, B. (2019). Nature Machine Intelligence, 1(11), 501–507.

Critique fondamentale de l'approche par les principes : sans mécanismes d'application, les déclarations éthiques risquent l'ethics washing. Argumente en faveur d'une gouvernance contraignante et de mécanismes de reddition de comptes.

critiquegouvernanceopérationnalisation

3. Closing the AI accountability gap

Raji, I. D. et al. (2020). Proceedings of ACM FAT*. [pages à vérifier]

Propose un cadre d'audit interne des systèmes IA inspiré des pratiques d'audit financier. Contribue à opérationnaliser l'imputabilité algorithmique en proposant des mécanismes concrets de vérification.

auditimputabilitéopérationnel

B. Biais et équité algorithmique

4. Gender Shades: Intersectional Accuracy Disparities

Buolamwini, J. & Gebru, T. (2018). Proceedings of Machine Learning Research, 81, 1–15.

Étude pionnière documentant les disparités de performance des systèmes de reconnaissance faciale commerciaux selon le genre et le teint de peau. A lancé un débat majeur sur les biais dans les systèmes déployés et influencé les politiques de plusieurs entreprises.

biaisintersectionnalitéreconnaissance faciale

5. A survey on bias and fairness in machine learning

Mehrabi, N. et al. (2021). ACM Computing Surveys, 54(6). [n° article à vérifier]

Revue exhaustive des sources de biais en apprentissage automatique, des métriques d'équité et des techniques de mitigation. Référence complète et actualisée pour tout chercheur travaillant sur les biais.

biaisrevuemétriques

6. Fairness and Abstraction in Sociotechnical Systems

Selbst, A. D. et al. (2019). Proceedings of ACM FAT*.

Critique les approches purement formelles de l'équité algorithmique en identifiant cinq « pièges d'abstraction » qui déconnectent les solutions techniques de leur contexte social. Essentiel pour comprendre pourquoi les solutions techniques seules ne suffisent pas.

équitésociotechniquecritique

7. Fair prediction with disparate impact

Chouldechova, A. (2017). Big Data, 5(2), 153–163.

Démonstration mathématique de l'impossibilité de satisfaire simultanément certaines définitions de l'équité. Résultat fondamental impliquant que tout choix de métrique est un choix normatif.

impossibilitémétriquesfondamental

8. Dissecting racial bias in an algorithm used to manage health of populations

Obermeyer, Z. et al. (2019). Science, 366(6464), 447–453.

Révèle un biais racial majeur dans un algorithme de santé utilisé pour des millions de patients aux USA. Montre comment le choix d'un proxy inadéquat (coût des soins au lieu de gravité de la maladie) peut produire une discrimination systématique.

santébiais racialproxy

C. Transparence et explicabilité

9. Stop explaining black box models for high stakes decisions

Rudin, C. (2019). Nature Machine Intelligence, 1(5), 206–215.

Argumente que les modèles intrinsèquement interprétables doivent être préférés aux explications post hoc de modèles opaques dans les contextes à enjeux élevés. Remet en question l'approche dominante de l'explicabilité.

explicabilitéinterprétabilitéboîte noire

10. "Why should I trust you?": Explaining the predictions of any classifier

Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). Proceedings of ACM KDD.

Article fondateur de LIME (Local Interpretable Model-agnostic Explanations), l'un des outils d'explicabilité les plus utilisés. Propose une méthode pour expliquer les prédictions individuelles de n'importe quel classificateur.

LIMEexplicabilitéoutil

11. A unified approach to interpreting model predictions

Lundberg, S. M. & Lee, S.-I. (2017). Advances in NeurIPS.

Propose SHAP (SHapley Additive exPlanations), cadre unifié d'explicabilité fondé sur les valeurs de Shapley de la théorie des jeux. Devenu un standard pour la quantification des contributions de variables.

SHAPShapleyoutil

D. Gouvernance, pouvoir et société

12. The relevance of algorithms

Gillespie, T. (2014). In Media Technologies, MIT Press. [pages à vérifier]

Analyse fondatrice de la dimension sociale et politique des algorithmes. Montre comment les algorithmes structurent la participation publique et le débat démocratique. Essentiel pour les études de communication et la sociologie.

algorithmessociétémédias

13. Weapons of Math Destruction

O'Neil, C. (2016). Weapons of Math Destruction. Crown Publishing.

Ouvrage grand public mais influent, documentant comment les algorithmes perpétuent les inégalités dans le crédit, l'éducation, l'emploi et la justice. Accessible aux non-spécialistes.

inégalitéssociétévulgarisation

14. The Age of Surveillance Capitalism

Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.

Analyse magistrale du capitalisme de surveillance : comment les données comportementales sont extraites et transformées en produits de prédiction. Cadre théorique influent pour comprendre l'économie politique de l'IA.

surveillanceéconomie politiquedonnées

15. On the Opportunities and Risks of Foundation Models

Bommasani, R. et al. (2021). Stanford CRFM. [Disponible sur arXiv]

Rapport de référence sur les modèles de fondation : analyse systématique des opportunités et des risques (homogénéisation, concentration, biais à l'échelle). A popularisé le terme « foundation model ».

modèles de fondationrisquesconcentration

E. Documentation et méthodologie

16. Model Cards for Model Reporting

Mitchell, M. et al. (2019). Proceedings of ACM FAT*.

Propose les model cards, un format standardisé de documentation des performances, limites et biais des modèles IA. Devenu un standard de facto dans l'industrie et la recherche.

documentationtransparencestandard

17. Datasheets for Datasets

Gebru, T. et al. (2021). Communications of the ACM, 64(12), 86–92.

Propose un cadre de documentation systématique des jeux de données (motivation, composition, collecte, usages, limites). Complément naturel des model cards pour la traçabilité des données.

donnéesdocumentationméthodologie

F. IA et gestion

18. Artificial Intelligence in Human Resources Management

Tambe, P. et al. (2019). California Management Review, 61(4), 15–42. [Volume et pages à vérifier]

Analyse des applications et des défis de l'IA en gestion des ressources humaines. Examine les risques de biais dans le recrutement algorithmique et les enjeux éthiques de la surveillance au travail.

gestionRHrecrutement

19. Value Sensitive Design methods

Friedman, B., Hendry, D. G., & Borning, A. (2017). Foundations and Trends in HCI, 11(2), 63–125. [volume à vérifier]

Revue systématique des méthodes de Value-Sensitive Design, l'approche méthodologique visant à intégrer les valeurs humaines dans la conception des technologies. Fondement de l'approche « by design » en IA éthique.

conceptionvaleursméthodologie

20. Energy and policy considerations for deep learning in NLP

Strubell, E., Ganesh, A., & McCallum, A. (2019). Proceedings of the 57th ACL. [pages à vérifier]

Article pionnier quantifiant les coûts énergétiques et environnementaux de l'entraînement de modèles de langage. A ouvert le débat sur la durabilité de l'IA et la responsabilité environnementale de la recherche.

environnementénergiedurabilité

Points clés à retenir

  1. Le champ de l'IA éthique est interdisciplinaire : informatique, philosophie, droit, gestion, STS, communication.
  2. Trois axes structurants : biais/équité, transparence/explicabilité, gouvernance/pouvoir.
  3. Plusieurs résultats fondamentaux (impossibilité d'équité simultanée, biais systémiques documentés) ont des implications directes pour la pratique.
  4. La documentation (model cards, datasheets) émerge comme standard de l'IA responsable.
  5. La durabilité environnementale de l'IA est un thème en croissance rapide.

Questions de réflexion

  1. Quels articles ajouteriez-vous à cette liste pour refléter les développements les plus récents (IA générative, régulation) ?
  2. La littérature sur l'IA éthique est-elle suffisamment diversifiée géographiquement et culturellement ?
  3. Comment intégrer cette littérature dans un cours qui n'est pas spécifiquement dédié à l'éthique de l'IA ?

Bases de données recommandées pour vérification et exploration : Google Scholar, ACM Digital Library, JSTOR, arXiv, SSRN, CAIRN (francophone), Érudit (québécois). La plupart des articles sont accessibles en accès libre ou via les abonnements institutionnels des universités québécoises.

⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Toutes les références citées sont des publications dont l'existence est vérifiable, mais les détails bibliographiques (volume, pages, année exacte) marqués [à vérifier] doivent être confirmés sur Google Scholar ou les bases de données mentionnées. Cette liste n'est pas exhaustive et reflète un choix éditorial.