Public : Tous niveaux★ IntroductifMise à jour : Annuelle
Résumé exécutif
Ce glossaire rassemble 45 termes fondamentaux de l'IA responsable. Chaque entrée propose une définition rigoureuse, l'équivalent anglais, et un éclairage sur les débats conceptuels associés. Il constitue le socle terminologique de l'ensemble de la bibliothèque et privilégie les acceptions en usage dans l'écosystème académique montréalais et francophone.
A
AlgorithmeAlgorithm
Suite finie et ordonnée d'instructions permettant de résoudre un problème ou d'effectuer un calcul. En IA, désigne les procédures mathématiques permettant à un système d'apprendre à partir de données et de produire des résultats (prédictions, classifications, recommandations).
Débat · Les chercheurs en études des sciences et technologies (STS) contestent la réduction des algorithmes à des objets purement techniques, invitant à les analyser comme des assemblages sociotechniques intégrant choix de conception, données et contextes d'usage.
Gillespie, T. (2014). The relevance of algorithms. In Media Technologies, MIT Press. [pages à vérifier]
AlignementAlignment
Problématique visant à s'assurer que le comportement d'un système d'IA reste conforme aux intentions, valeurs et objectifs de ses concepteurs et de la société. Concerne tant les spécifications techniques que les dimensions éthiques.
Débat · « Aligné sur quelles valeurs, celles de qui ? » Les approches techniques comme le RLHF sont critiquées pour aligner les systèmes sur les préférences d'un groupe restreint d'annotateurs, soulevant des enjeux de représentativité et de pluralisme moral.
Apprentissage automatiqueMachine Learning (ML)
Sous-domaine de l'IA regroupant les méthodes permettant à un système d'améliorer ses performances sur une tâche à partir de données, sans programmation explicite. On distingue l'apprentissage supervisé, non supervisé et par renforcement.
Mitchell, T. (1997). Machine Learning, McGraw-Hill.
Apprentissage fédéréFederated Learning
Technique d'apprentissage où un modèle est entraîné de façon décentralisée sur plusieurs appareils, sans centraliser les données brutes. Seules les mises à jour du modèle sont partagées.
Débat · Réduit les risques de centralisation mais n'élimine pas tous les risques : des attaques par inférence sur les mises à jour peuvent permettre de reconstituer des données individuelles.
Apprentissage profondDeep Learning
Sous-ensemble de l'apprentissage automatique reposant sur des réseaux de neurones à nombreuses couches. À l'origine des avancées récentes en reconnaissance d'images, traitement du langage naturel et IA générative.
LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444. — Yoshua Bengio (Mila, Montréal) est l'un des pionniers du domaine.
Audit algorithmiqueAlgorithmic Audit
Processus systématique d'examen d'un système algorithmique visant à évaluer sa conformité à des critères prédéfinis (équité, transparence, légalité, performance). Peut être interne ou externe, porter sur les données, le modèle ou les résultats.
Débat · L'absence de standards méthodologiques unifiés et le risque que l'audit devienne un exercice superficiel (ethics washing) font l'objet de critiques croissantes.
B
Biais algorithmiqueAlgorithmic Bias
Erreur systématique dans les résultats d'un système algorithmique produisant des traitements injustement différenciés pour certains groupes. Les biais peuvent provenir des données (représentation, biais historiques), de la conception du modèle ou de l'interaction avec le contexte d'usage.
Débat · Impossibilité mathématique de satisfaire simultanément plusieurs définitions de l'équité (parité démographique, égalité des chances, calibration). La correction des biais est autant un choix normatif que technique.
Mehrabi, N. et al. (2021). A survey on bias and fairness in machine learning. ACM Computing Surveys, 54(6). [n° article à vérifier]
Biais de confirmationConfirmation Bias
Tendance cognitive à privilégier les informations confirmant les croyances préexistantes. En IA : choix de variables guidés par des attentes, survalorisation des résultats conformes, confiance excessive dans un système qui confirme des préjugés.
Biais de représentationRepresentation Bias
Biais survenant lorsque les données d'entraînement ne reflètent pas la diversité de la population ciblée. Particulièrement préoccupant pour les communautés historiquement sous-représentées (minorités linguistiques, communautés autochtones, populations du Sud global).
Boîte noireBlack Box
Système dont on observe les entrées et sorties mais dont le fonctionnement interne reste opaque. Les modèles d'apprentissage profond (millions ou milliards de paramètres) sont qualifiés de boîtes noires, posant des défis pour la transparence et l'imputabilité.
Débat · Tension entre explicabilité post hoc (LIME, SHAP) et modèles intrinsèquement interprétables. Cynthia Rudin argue que les modèles interprétables devraient être préférés dans les contextes à enjeux élevés.
Rudin, C. (2019). Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. Nature Machine Intelligence, 1(5), 206–215.
C
Consentement éclairéInformed Consent
Principe éthique et juridique selon lequel une personne doit être informée de manière claire avant d'accepter que ses données soient collectées ou traitées. La Loi 25 du Québec renforce les exigences en la matière.
Débat · La fiction du consentement « éclairé » à l'ère du Big Data est questionnée : les individus acceptent des conditions qu'ils ne lisent pas, pour des usages qu'ils ne peuvent anticiper. Des alternatives émergent : consentement dynamique, fiducies de données (data trusts).
D
Données d'entraînementTraining Data
Ensemble de données utilisées pour entraîner un modèle d'apprentissage automatique. Leur qualité, représentativité et conditions de collecte déterminent en grande partie le comportement du modèle et constituent un vecteur majeur de biais.
Données synthétiquesSynthetic Data
Données générées artificiellement par des algorithmes plutôt que collectées à partir de sources réelles. Utiles pour augmenter des jeux de données ou protéger la vie privée, mais risquent de masquer l'absence de données réelles représentatives.
Droit à l'explicationRight to Explanation
Droit d'un individu à obtenir une explication compréhensible lorsqu'une décision le concernant est prise par un système automatisé. Évoqué dans le RGPD (articles 13-15, 22) et l'AI Act européen. Au Canada, le cadre juridique reste en développement.
Débat · L'existence et la portée exacte de ce droit dans le RGPD font débat. Questions pratiques : l'explication doit-elle être compréhensible pour un non-spécialiste ? Doit-elle révéler les mécanismes internes du modèle ?
Durabilité de l'IAAI Sustainability
Prise en compte de l'empreinte environnementale des systèmes d'IA : consommation énergétique de l'entraînement et de l'inférence, eau pour le refroidissement, empreinte carbone, extraction de matériaux. Inclut aussi la durabilité sociale et économique.
Débat · La course aux modèles toujours plus volumineux est remise en question. Tension entre performance et sobriété computationnelle.
Strubell, E., Ganesh, A., & McCallum, A. (2019). Energy and policy considerations for deep learning in NLP. Proc. 57th Annual Meeting of the ACL. [pages à vérifier]
E
Équité algorithmiqueAlgorithmic Fairness
Propriété d'un système algorithmique qui n'opère pas de discrimination injuste envers des groupes définis par des attributs protégés. Plus de vingt définitions formelles existent, plusieurs étant mathématiquement incompatibles entre elles.
Débat · Chaque choix de métrique d'équité est un choix normatif. L'impossibilité de satisfaire toutes les définitions simultanément (sauf cas triviaux) est un résultat fondamental du domaine.
Éthique de l'IAAI Ethics
Champ interdisciplinaire examinant les enjeux moraux soulevés par la conception, le déploiement et l'utilisation des systèmes d'IA. Puise dans la philosophie morale, le droit, les sciences sociales, l'informatique et les STS.
Éthique de façadeEthics Washing / Ethics Theatre
Pratique par laquelle une organisation affiche un engagement éthique (principes, comités consultatifs, communications) sans modifier substantiellement ses pratiques. Peut servir à détourner les critiques ou retarder la régulation.
Débat · Le risque d'ethics washing nourrit les appels à passer d'une éthique « douce » (principes non contraignants) vers une gouvernance « dure » (régulations, audits obligatoires, certifications).
Processus structuré visant à évaluer, avant déploiement, les impacts d'un système de décision automatisée sur les droits fondamentaux, l'équité et la vie privée. Le gouvernement du Canada a développé un outil d'EIA pour les institutions fédérales. L'AI Act européen impose des évaluations pour les systèmes à haut risque.
ExplicabilitéExplainability / XAI
Capacité d'un système d'IA à fournir des explications compréhensibles de ses raisonnements ou décisions. On distingue l'explicabilité intrinsèque (modèles simples et interprétables) de l'explicabilité post hoc (outils appliqués après coup sur des modèles complexes).
Outils courants : LIME (Ribeiro et al., 2016), SHAP (Lundberg & Lee, 2017). Consultables sur Google Scholar.
G
Gouvernance algorithmiqueAlgorithmic Governance
Ensemble des structures, processus, normes et mécanismes encadrant la conception, le déploiement et la surveillance des systèmes algorithmiques au sein d'une organisation ou d'une société. Englobe les aspects juridiques, éthiques, techniques et organisationnels.
H
Hallucination (IA)AI Hallucination
Phénomène par lequel un modèle d'IA générative produit des contenus factuellement faux ou inventés tout en les présentant avec un degré apparent de confiance. Défi majeur pour la fiabilité des systèmes d'IA générative.
Débat · Le terme lui-même est contesté : il anthropomorphise le phénomène. Des alternatives comme « confabulation » ou « fabrication » sont proposées. Le débat porte aussi sur le caractère éliminable ou intrinsèque du phénomène.
I
IA de confianceTrustworthy AI
Concept cadre désignant une IA légale, éthique et robuste. Formalisé par le Groupe d'experts de haut niveau sur l'IA de la Commission européenne (2019) qui identifie sept exigences clés pour une IA de confiance.
IA générativeGenerative AI
Catégorie de systèmes capables de produire de nouveaux contenus (texte, images, audio, vidéo, code) à partir de modèles entraînés sur de vastes corpus. Enjeux : désinformation, droits d'auteur, intégrité académique, impacts environnementaux, transformation de l'emploi.
IA responsableResponsible AI
Démarche globale visant à ce que les systèmes d'IA soient développés et déployés dans le respect de principes éthiques et de droits fondamentaux. Intègre équité, transparence, imputabilité, vie privée, sécurité, durabilité et bien-être social. Se veut plus opérationnel que « éthique de l'IA ».
Débat · La notion de « responsabilité » est polysémique : responsabilité des développeurs, des organisations, des régulateurs ou des utilisateurs ? Le terme est aussi critiqué pour être devenu un label marketing vidé de substance dans certains contextes.
ImputabilitéAccountability
Obligation pour les acteurs impliqués dans un système d'IA de rendre compte de ses impacts et décisions. Suppose l'identification des responsables, des mécanismes de recours et la possibilité de sanctions. Rendu complexe par la multiplication des acteurs dans les chaînes de valeur de l'IA.
InterprétabilitéInterpretability
Degré auquel un humain peut comprendre le fonctionnement interne d'un modèle. Distinct de l'explicabilité post hoc : un modèle interprétable est transparent par conception (régression logistique, arbre de décision), tandis que l'explicabilité post hoc tente d'expliquer un modèle opaque après coup.
J
Justice algorithmiqueAlgorithmic Justice
Vision plus large que l'équité algorithmique technique : intègre les structures de pouvoir, les injustices systémiques et les dimensions distributives de la justice sociale dans l'analyse des systèmes algorithmiques.
L
Littératie en IAAI Literacy
Capacité d'un individu à comprendre, évaluer et interagir de façon critique avec les systèmes d'IA. Inclut la compréhension des principes de base, la capacité à identifier les biais et les limites, et l'aptitude à utiliser ces outils de manière responsable.
M
Modèle de fondationFoundation Model
Modèle d'IA entraîné sur de vastes quantités de données, adaptable à de nombreuses tâches en aval (GPT, Claude, LLaMA, etc.). Le terme a été proposé par des chercheurs de Stanford en 2021. Soulève des enjeux de concentration du pouvoir, de coûts environnementaux et de dépendance technologique.
Bommasani, R. et al. (2021). On the Opportunities and Risks of Foundation Models. Stanford CRFM. [disponible sur arXiv]
O
Opacité algorithmiqueAlgorithmic Opacity
Impossibilité d'accéder au fonctionnement interne d'un système. Peut être technique (complexité du modèle), légale (secret commercial), ou intentionnelle (choix de conception). L'opacité est un obstacle central aux exigences de transparence et d'imputabilité.
P
Principes PCAP®OCAP® Principles
Propriété, Contrôle, Accès et Possession : principes affirmant la souveraineté des Premières Nations sur la collecte, la gestion et l'utilisation des données les concernant. Cadre de référence pour la gouvernance des données autochtones au Canada, développé par le Centre de gouvernance de l'information des Premières Nations (CGIPN).
Profilage algorithmiqueAlgorithmic Profiling
Construction automatisée de profils individuels à partir de données comportementales, transactionnelles ou biométriques. Utilisé en marketing, crédit, assurance, sécurité. Risques de discrimination, de surveillance et d'atteinte à la vie privée.
Protection des renseignements personnelsPersonal Data Protection
Cadre juridique encadrant la collecte, le traitement et la conservation des données personnelles. Au Québec : Loi 25 (Loi modernisant des dispositions législatives en matière de protection des renseignements personnels, entrée en vigueur progressive 2022-2024). Au fédéral : Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) et projet de loi C-27.
R
Reconnaissance facialeFacial Recognition
Technologie d'identification de personnes par analyse du visage. Cas emblématique des biais raciaux et de genre en IA : des études ont documenté des taux d'erreur significativement plus élevés pour les personnes à la peau foncée et les femmes.
Buolamwini, J. & Gebru, T. (2018). Gender Shades. Proceedings of Machine Learning Research, 81, 1–15.
Question juridique de l'attribution de responsabilité en cas de préjudice causé par un système d'IA. Les cadres juridiques existants (fondés sur la faute ou la responsabilité du fait des produits) peinent à s'adapter à des systèmes autonomes et opaques.
RobustesseRobustness
Capacité d'un système d'IA à fonctionner correctement face à des perturbations, erreurs d'entrée ou attaques adverses intentionnelles. Un système robuste maintient ses performances et sa fiabilité en dehors de ses conditions d'entraînement idéales.
S
Souveraineté des donnéesData Sovereignty
Droit d'un État ou d'une communauté à gouverner les données produites sur son territoire ou par ses membres. Enjeu central pour les communautés autochtones (cf. PCAP®) et pour les nations face à la domination des géants technologiques étrangers.
Souveraineté numériqueDigital Sovereignty
Capacité d'un État à exercer son autorité dans l'espace numérique et à maintenir son autonomie face aux dépendances technologiques. Enjeu pour les universités face à l'utilisation d'infrastructures et d'outils propriétaires de grandes entreprises technologiques.
Système de décision automatiséeAutomated Decision System (ADS)
Système utilisant l'IA pour prendre ou assister des décisions affectant des individus (octroi de crédit, admissions, prestations sociales, etc.). Soumis à une réglementation croissante dans plusieurs juridictions. La Directive sur la prise de décisions automatisée du gouvernement du Canada encadre leur usage dans les services fédéraux.
T
Traitement du langage naturelNatural Language Processing (NLP)
Sous-domaine de l'IA traitant de la compréhension et de la génération du langage humain. Au cœur de l'IA générative textuelle et des grands modèles de langage. Soulève des enjeux de biais linguistiques et de sous-représentation des langues minoritaires.
Capacité de rendre visible et compréhensible le fonctionnement, les données d'entraînement, les objectifs et les impacts d'un système algorithmique. Pilier de l'IA de confiance et condition nécessaire (mais non suffisante) de l'imputabilité.
V
Valeurs par conceptionValue-Sensitive Design (VSD)
Approche méthodologique visant à intégrer les valeurs éthiques et humaines dès la phase de conception d'un système, plutôt qu'en aval. Développée notamment par Batya Friedman à l'Université de Washington. Parente de la démarche « IA responsable by design ».
Friedman, B., Hendry, D. G., & Borning, A. (2017). A survey of value sensitive design methods. Foundations and Trends in Human–Computer Interaction, 11(2), 63–125. [volume à vérifier]
Vie privée différentielleDifferential Privacy
Technique mathématique ajoutant du bruit calibré aux données ou aux résultats de requêtes pour garantir qu'aucune information individuelle ne puisse être extraite, tout en permettant l'analyse statistique agrégée. Utilisée notamment par Apple et le Census Bureau américain.
Virage numérique responsableResponsible Digital Transformation
Démarche d'intégration des principes éthiques, de durabilité et de responsabilité sociale dans la transformation numérique des organisations, incluant le déploiement de systèmes d'IA.
🔬 Zoom sur l'écosystème montréalais
Montréal est un pôle mondial de la recherche en IA et en éthique de l'IA. Plusieurs termes de ce glossaire ont été façonnés ou enrichis par des travaux issus de cet écosystème :
Apprentissage profond — Yoshua Bengio (Mila, Université de Montréal), prix Turing 2018, est l'un des trois pionniers du domaine.
Déclaration de Montréal (2018) — Processus délibératif inédit ayant produit des principes pour un développement responsable de l'IA, sous la direction de l'Université de Montréal.
IVADO — Institut de valorisation des données, consortium montréalais soutenant la recherche et la formation en science des données et IA.
OBVIA — Observatoire international sur les impacts sociétaux de l'IA et du numérique, basé à l'Université Laval mais impliquant des chercheurs montréalais. [statut actuel à vérifier]
Mila — Institut québécois d'intelligence artificielle, l'un des plus importants centres de recherche en apprentissage profond au monde.
Points clés à retenir
Le vocabulaire de l'IA responsable est interdisciplinaire : les mêmes termes ont des acceptions techniques, juridiques et éthiques qu'il importe de distinguer.
De nombreux concepts clés font l'objet de débats non résolus (équité, alignement, explicabilité) — il n'existe pas de consensus unique.
L'écosystème montréalais a contribué de manière significative à la structuration de ce champ, tant sur le plan scientifique que normatif.
La terminologie évolue rapidement : un glossaire de l'IA responsable nécessite une mise à jour régulière.
La traduction français-anglais n'est pas toujours stabilisée ; les équivalents proposés ici reflètent l'usage académique francophone courant.
Questions de réflexion
Pourquoi est-il important de distinguer les acceptions techniques, juridiques et éthiques d'un même terme comme « biais » ou « transparence » ?
Le terme « hallucination » appliqué à l'IA est-il approprié ? Quels effets le choix de ce vocabulaire a-t-il sur la perception publique de ces technologies ?
L'impossibilité de satisfaire simultanément toutes les définitions de l'équité algorithmique est-elle un problème technique ou un problème politique ?
Comment la souveraineté des données (étatique, autochtone, individuelle) peut-elle être conciliée avec les modèles économiques actuels de l'IA ?
Références bibliographiques
Bommasani, R. et al. (2021). On the Opportunities and Risks of Foundation Models. Stanford CRFM. Disponible sur arXiv.
Buolamwini, J. & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research, 81, 1–15.
Gillespie, T. (2014). The relevance of algorithms. In T. Gillespie, P. Boczkowski & K. Foot (Eds.), Media Technologies. MIT Press. [pages à vérifier]
LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444.
Mehrabi, N. et al. (2021). A survey on bias and fairness in machine learning. ACM Computing Surveys, 54(6). [n° article à vérifier]
Mitchell, T. (1997). Machine Learning. McGraw-Hill.
Rudin, C. (2019). Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. Nature Machine Intelligence, 1(5), 206–215.
Strubell, E., Ganesh, A., & McCallum, A. (2019). Energy and policy considerations for deep learning in NLP. Proc. 57th Annual Meeting of the ACL. [pages à vérifier]
Friedman, B., Hendry, D. G., & Borning, A. (2017). A survey of value sensitive design methods. Foundations and Trends in HCI, 11(2), 63–125. [volume à vérifier]
Bases de données recommandées pour vérification : Google Scholar, JSTOR, CAIRN, Érudit, ACM Digital Library, sites officiels des institutions citées.
Suggestion de mise à jour : Annuelle. Le vocabulaire de l'IA responsable évolue rapidement avec les avancées technologiques et réglementaires.
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Toutes les références marquées [À VÉRIFIER] doivent être confirmées avant usage académique ou institutionnel. Les informations réglementaires et statistiques sont susceptibles d'avoir évolué. Consultez les sources primaires avant toute citation ou diffusion officielle.
Public : Étudiants BAC et maîtrise, professionnels★ IntroductifFormat : Fiche synthèse (2-3 pages)
Résumé exécutif
Cette fiche présente les cinq piliers fondamentaux de l'IA éthique tels qu'ils émergent de la convergence des principaux cadres normatifs internationaux. Pour chacun : définition, enjeux concrets, tensions et arbitrages. Les piliers ne sont pas indépendants — ils interagissent et entrent parfois en conflit, obligeant les praticiens à des choix normatifs explicites.
Les cinq piliers
Bien que la terminologie varie selon les cadres (Déclaration de Montréal, Principes de l'OCDE, lignes directrices de l'UE, Recommandation de l'UNESCO), cinq exigences fondamentales reviennent de manière transversale. Elles sont présentées ici comme des « piliers » structurants pour tout projet d'IA responsable.
Un système d'IA équitable ne produit pas de traitements injustement différenciés fondés sur des attributs protégés (genre, origine ethnique, âge, handicap, etc.). L'équité englobe l'accès aux bénéfices de l'IA (inclusion numérique) et la répartition juste de ses risques.
Enjeux concrets : biais dans les systèmes de recrutement, scoring de crédit discriminatoire, reconnaissance faciale moins performante pour certains groupes démographiques, sous-représentation linguistique dans les modèles de langage.
Tension · Plus de vingt définitions formelles de l'équité algorithmique existent. Certaines sont mathématiquement incompatibles (ex. : parité démographique vs. calibration). Choisir une métrique d'équité est un acte normatif, pas seulement technique.
2. Transparence (Transparency)
Explicabilité · Ouverture · Traçabilité
La transparence exige que le fonctionnement, les données d'entraînement, les objectifs et les limites d'un système d'IA soient rendus visibles et compréhensibles pour les parties prenantes concernées. Elle inclut l'explicabilité (capacité à expliquer les décisions) et la traçabilité (capacité à retracer les étapes ayant conduit à un résultat).
Enjeux concrets : opacité des modèles d'apprentissage profond (« boîtes noires »), secret commercial invoqué pour refuser la divulgation, difficulté de vulgariser des processus techniques complexes.
Tension · Transparence et confidentialité peuvent entrer en conflit (protection du secret commercial, vie privée des données d'entraînement). De plus, une transparence totale n'est pas toujours synonyme de compréhension : un modèle à des milliards de paramètres peut être « ouvert » sans être intelligible.
3. Imputabilité (Accountability)
Responsabilité · Recours · Surveillance humaine
L'imputabilité impose que des personnes ou organisations identifiables soient responsables des impacts d'un système d'IA et puissent en rendre compte. Elle suppose des mécanismes de recours pour les personnes affectées, une supervision humaine effective et la possibilité de sanctions en cas de manquement.
Enjeux concrets : difficulté d'attribuer la responsabilité dans des chaînes de valeur complexes (développeur, intégrateur, déployeur, utilisateur), absence de cadres juridiques adaptés, « diffusion de la responsabilité » lorsque de multiples acteurs contribuent à une décision automatisée.
Tension · L'automatisation peut créer un « vide de responsabilité » (accountability gap) où personne ne se considère comme responsable. L'imputabilité exige une supervision humaine significative, pas simplement formelle (human-in-the-loop vs. human-on-the-loop).
La durabilité englobe l'empreinte environnementale des systèmes d'IA (énergie, eau, carbone, matériaux) et leurs impacts sociaux à long terme (emploi, inégalités, bien-être). Elle invite à évaluer si les bénéfices d'un système justifient ses coûts environnementaux et sociaux.
Enjeux concrets : coûts énergétiques considérables de l'entraînement de grands modèles de langage, consommation d'eau des centres de données, obsolescence accélérée du matériel, impacts sur l'emploi et les inégalités Nord-Sud.
Tension · Course à la performance (modèles toujours plus grands) vs. sobriété computationnelle. La durabilité est le pilier le plus récemment intégré aux cadres normatifs et encore faiblement opérationnalisé.
La souveraineté des données affirme le droit des individus, des communautés et des États à gouverner les données qui les concernent. Elle inclut le consentement éclairé, le droit à la portabilité, le droit à l'effacement, et la souveraineté collective (notamment les principes PCAP® pour les Premières Nations au Canada).
Enjeux concrets : extraction massive de données par les grandes plateformes, utilisation de données personnelles pour l'entraînement de modèles sans consentement explicite, dépendance des institutions publiques et académiques à des infrastructures cloud étrangères.
Tension · Souveraineté individuelle vs. collective vs. étatique. Le consentement individuel est jugé insuffisant par certains chercheurs, qui proposent des mécanismes de gouvernance collective (fiducies de données, coopératives de données).
Interactions entre piliers
Les cinq piliers ne sont pas indépendants. Des arbitrages sont souvent nécessaires :
Transparence vs. vie privée : publier les données d'entraînement (transparence) peut compromettre la vie privée des individus dont les données ont été collectées.
Équité vs. performance : corriger un biais algorithmique peut réduire la performance globale du modèle, imposant un arbitrage explicite.
Imputabilité vs. innovation : des exigences de conformité trop lourdes peuvent freiner l'innovation, tandis qu'une absence de régulation favorise les pratiques irresponsables.
Durabilité vs. accessibilité : limiter la taille des modèles (sobriété) peut réduire leur capacité à traiter des langues minoritaires ou des contextes sous-représentés.
Ces tensions ne sont pas des problèmes à « résoudre » mais des arbitrages à rendre explicites et justifiés dans chaque contexte d'application.
🔬 Zoom sur l'écosystème montréalais
La Déclaration de Montréal pour un développement responsable de l'IA (2018) articule dix principes qui recoupent largement ces cinq piliers : bien-être, autonomie, protection de la vie privée, solidarité, participation démocratique, équité, inclusion de la diversité, prudence, responsabilité et développement soutenable. Ce cadre issu d'un processus délibératif citoyen constitue une référence internationale et illustre la contribution de l'écosystème montréalais à la structuration du champ.
Points clés à retenir
Les cinq piliers (équité, transparence, imputabilité, durabilité, souveraineté des données) forment le socle commun des principaux cadres normatifs internationaux.
Ces piliers interagissent et peuvent entrer en tension — les arbitrages doivent être explicites.
Chaque pilier a une dimension technique et une dimension normative : les solutions purement techniques ne suffisent pas.
La durabilité environnementale est le pilier le plus récent et encore le moins opérationnalisé.
Questions de réflexion
Dans un projet de recherche impliquant l'IA, comment hiérarchiseriez-vous ces cinq piliers ? Cette hiérarchie est-elle universelle ou dépendante du contexte ?
La transparence est-elle toujours souhaitable ? Identifiez des cas où une transparence totale pourrait avoir des effets négatifs.
Comment les principes de la Déclaration de Montréal s'articulent-ils avec ces cinq piliers ? Y a-t-il des dimensions manquantes ?
Références bibliographiques
Déclaration de Montréal pour un développement responsable de l'intelligence artificielle (2018). Université de Montréal. Disponible sur le site de la Déclaration de Montréal.
Groupe d'experts de haut niveau sur l'IA (2019). Lignes directrices en matière d'éthique pour une IA digne de confiance. Commission européenne.
OCDE (2019). Recommandation du Conseil sur l'intelligence artificielle. OECD/LEGAL/0449.
UNESCO (2021). Recommandation sur l'éthique de l'intelligence artificielle. Adoptée par la Conférence générale en novembre 2021.
Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389–399.
Vérification : Google Scholar, sites officiels de l'OCDE, de l'UNESCO, de la Commission européenne, site de la Déclaration de Montréal.
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Toutes les références marquées [À VÉRIFIER] doivent être confirmées avant usage académique ou institutionnel. Les informations réglementaires et statistiques sont susceptibles d'avoir évolué. Consultez les sources primaires avant toute citation ou diffusion officielle.
Bibliothèque IA Responsable — Document 1.3
Pourquoi l'IA Responsable est une priorité stratégique pour les universités québécoises et canadiennes
Note de positionnement
Public : Administrateurs, professeurs, partenaires★★ IntermédiaireFormat : Note de positionnement (4-5 pages)
Résumé exécutif
Les universités québécoises et canadiennes disposent d'atouts considérables pour jouer un rôle de premier plan dans le développement d'une IA responsable : un écosystème de recherche de calibre mondial, une tradition de réflexion éthique pionnière, et un cadre réglementaire en construction. Cette note argumente que l'IA responsable n'est pas un frein à l'innovation mais un avantage compétitif stratégique, et que l'inaction comporte des risques réputationnels, réglementaires et sociétaux significatifs.
1. Un positionnement historique à consolider
Montréal et le Québec occupent une position singulière dans l'écosystème mondial de l'IA. La concentration, dans un périmètre géographique restreint, de chercheurs de calibre mondial en apprentissage profond (Mila, fondé par Yoshua Bengio), d'instituts de valorisation des données (IVADO), d'initiatives en éthique de l'IA (Déclaration de Montréal, 2018) et d'universités de recherche de premier plan (Université de Montréal, HEC Montréal, McGill, Polytechnique Montréal) constitue un avantage distinctif rare.
Ce positionnement a été reconnu internationalement : la Déclaration de Montréal pour un développement responsable de l'IA, issue d'un processus délibératif citoyen lancé par l'Université de Montréal en 2017-2018, a influencé des cadres normatifs dans plusieurs juridictions. Le Canada a été parmi les premiers pays à se doter d'une stratégie nationale en IA (Stratégie pancanadienne en matière d'intelligence artificielle, CIFAR, 2017).
Cependant, un positionnement historique ne garantit pas un leadership durable. L'accélération du déploiement de l'IA générative, l'émergence de cadres réglementaires contraignants (AI Act européen, 2024) et la compétition internationale exigent un renouvellement de cette ambition.
2. Quatre arguments stratégiques
A. Avantage compétitif en recherche et formation
Les organismes de financement accordent une importance croissante aux dimensions éthiques et sociétales des projets de recherche. Le CRSH, le CRSNG et les FRQ intègrent désormais des critères d'évaluation liés aux impacts sociaux et éthiques. Les universités qui développent une expertise en IA responsable sont mieux positionnées pour obtenir des financements compétitifs et attirer des chercheurs et étudiants sensibles à ces enjeux.
B. Anticipation réglementaire
Le paysage réglementaire se densifie rapidement. Au Québec, la Loi 25 impose de nouvelles obligations en matière de protection des renseignements personnels. Au fédéral, le projet de loi C-27 (incluant la Loi sur l'intelligence artificielle et les données — LIAD) prévoit des obligations pour les systèmes IA à incidence élevée. En Europe, l'AI Act impose des exigences de conformité qui affectent les collaborations internationales de recherche. Les universités qui anticipent ces cadres évitent les coûts de mise en conformité tardive et les risques juridiques.
C. Confiance publique et responsabilité sociale
Les institutions universitaires tirent leur légitimité de la confiance publique. Des incidents impliquant des systèmes d'IA déployés sans garde-fous éthiques adéquats peuvent éroder cette confiance. Inversement, un engagement crédible envers l'IA responsable renforce le rôle de l'université comme institution au service du bien commun. Cet argument est d'autant plus pertinent que les universités forment les futurs professionnels qui concevront et déploieront ces systèmes.
D. Différenciation dans les partenariats université-industrie
Les partenariats de recherche avec l'industrie comportent des risques d'instrumentalisation et de conflits d'intérêts. Un cadre explicite d'IA responsable protège l'intégrité académique et offre une valeur ajoutée aux partenaires industriels soumis eux-mêmes à des obligations réglementaires croissantes. Il constitue un facteur de différenciation dans un marché des partenariats de plus en plus compétitif.
3. Les risques de l'inaction
Risque réputationnel : des pratiques non encadrées en matière d'IA (utilisation de données sans consentement, déploiement de systèmes biaisés, usage non encadré de l'IA générative) peuvent exposer les institutions à des crises de réputation.
Risque réglementaire : le non-respect des cadres en construction (Loi 25, C-27, AI Act pour les collaborations européennes) expose à des sanctions financières et juridiques.
Risque de dépendance : l'utilisation non réfléchie d'outils IA propriétaires crée des dépendances technologiques et compromet la souveraineté académique (données hébergées à l'étranger, perte de maîtrise des processus pédagogiques et de recherche).
Risque d'intégrité : l'absence d'encadrement de l'IA générative menace l'intégrité académique — tant dans la recherche que dans l'enseignement.
4. Recommandations pour l'action
Gouvernance : se doter d'une politique institutionnelle d'utilisation responsable de l'IA, avec des rôles et responsabilités clairement définis (voir Doc 7.1 et 7.2 de cette bibliothèque).
Formation : intégrer l'éthique de l'IA dans les programmes existants (pas seulement en informatique) et développer des formations continues pour le personnel (voir Doc 6.1).
Recherche : soutenir la recherche interdisciplinaire en IA responsable et adapter les procédures des comités d'éthique aux enjeux spécifiques de l'IA (voir Doc 2.5 et 4.1).
Partenariats : intégrer des clauses éthiques dans les ententes de collaboration avec l'industrie et les organismes publics (voir Doc 7.3).
Veille : mettre en place une veille réglementaire et technologique permanente pour anticiper les évolutions du domaine.
🔬 Zoom sur l'écosystème montréalais
Les atouts de l'écosystème montréalais pour mener cette transition sont considérables. Mila est l'un des plus grands centres de recherche en apprentissage profond au monde. IVADO fédère quatre universités montréalaises autour de la science des données. La Déclaration de Montréal a établi un précédent international en matière de co-construction citoyenne des principes d'IA éthique. Des chaires de recherche à HEC Montréal et à l'Université de Montréal travaillent sur les dimensions éthiques et sociétales de l'IA. [Vérifier les chaires actuellement actives — le paysage évolue rapidement]
Ces atouts ne seront durables que s'ils sont soutenus par un engagement institutionnel explicite et des investissements conséquents.
Points clés à retenir
L'IA responsable est un avantage compétitif, pas un frein à l'innovation.
Le paysage réglementaire (Loi 25, C-27, AI Act) rend l'inaction risquée.
Montréal et le Québec disposent d'atouts historiques à consolider.
L'action doit être structurée autour de la gouvernance, la formation, la recherche et les partenariats.
La confiance publique envers les universités dépend de leur capacité à montrer l'exemple.
Questions de réflexion
Votre institution a-t-elle une politique formelle d'utilisation responsable de l'IA ? Si non, quels seraient les obstacles à son adoption ?
Comment concilier l'urgence de l'adoption de l'IA (compétitivité) avec la prudence exigée par une démarche responsable ?
La souveraineté académique en matière d'IA est-elle réaliste face à la domination des grandes entreprises technologiques ?
Références bibliographiques
CIFAR (2017). Stratégie pancanadienne en matière d'intelligence artificielle. Disponible sur le site du CIFAR.
Déclaration de Montréal pour un développement responsable de l'intelligence artificielle (2018). Université de Montréal.
Gouvernement du Québec. Loi modernisant des dispositions législatives en matière de protection des renseignements personnels (Loi 25), 2021. Publications officielles du Québec.
Parlement du Canada. Projet de loi C-27 — Loi de 2022 sur la mise en œuvre de la charte du numérique. [Vérifier le statut législatif actuel]
Règlement (UE) 2024/1689 du Parlement européen et du Conseil (AI Act). Journal officiel de l'Union européenne. [Vérifier la référence exacte]
Vérification : Sites officiels du Parlement du Canada, de l'Assemblée nationale du Québec, du CIFAR, de la Commission européenne.
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Toutes les références marquées [À VÉRIFIER] doivent être confirmées avant usage académique ou institutionnel. Les informations réglementaires et statistiques sont susceptibles d'avoir évolué. Consultez les sources primaires avant toute citation ou diffusion officielle.
Bibliothèque IA Responsable — Document 1.4
Panorama des grandes déclarations internationales sur l'IA éthique
Déclaration de Montréal · UNESCO · OCDE · Union Européenne
Depuis 2017, une prolifération de déclarations, principes et lignes directrices en matière d'IA éthique a émergé à travers le monde. Ce document présente les quatre cadres normatifs les plus influents, analyse leurs convergences et divergences, et met en valeur le rôle pionnier de Montréal dans la structuration de ce champ. Une étude recensait dès 2019 plus de 80 ensembles de principes éthiques pour l'IA à l'échelle mondiale.
Contexte : une effervescence normative mondiale
L'émergence rapide de l'IA comme technologie transformatrice a suscité un mouvement mondial de réflexion éthique. À partir de 2016-2017, des organisations internationales, des gouvernements, des entreprises et des communautés académiques ont multiplié les déclarations de principes. Jobin, Ienca et Vayena (2019) ont recensé 84 documents de ce type, identifiant cinq principes récurrents : transparence, justice/équité, non-malfaisance, responsabilité et vie privée.
Ce panorama se concentre sur quatre cadres particulièrement influents et pertinents pour le contexte académique québécois et canadien.
Les quatre cadres majeurs
🍁 Déclaration de Montréal pour un développement responsable de l'IA (2018)
Origine : Université de Montréal · Type : Déclaration citoyenne · Juridiction : Non contraignante, portée internationale
Issue d'un processus délibératif citoyen inédit lancé en novembre 2017, la Déclaration de Montréal est le fruit de consultations publiques ayant impliqué des citoyens, chercheurs, entreprises et organismes publics. Elle a été officiellement présentée en décembre 2018.
10 principes : Bien-être · Autonomie · Protection de la vie privée et de l'intimité · Solidarité · Participation démocratique · Équité · Inclusion de la diversité · Prudence · Responsabilité · Développement soutenable
Particularité : sa méthodologie participative et citoyenne, unique au moment de sa publication. Contrairement aux déclarations émanant d'experts ou d'organisations, elle intègre les préoccupations de non-spécialistes.
Influence : a servi de référence pour plusieurs initiatives ultérieures et a contribué au rayonnement international de Montréal comme pôle d'IA éthique. Citée dans de nombreux travaux académiques et institutionnels.
🌐 Principes de l'OCDE sur l'intelligence artificielle (2019)
Origine : OCDE · Type : Recommandation du Conseil · Juridiction : 38 pays membres + adhérents · Réf. : OECD/LEGAL/0449
Adoptée en mai 2019, la Recommandation du Conseil de l'OCDE sur l'IA constitue le premier standard intergouvernemental en la matière. Le Canada a joué un rôle actif dans son élaboration. Ces principes ont également été endossés par les pays du G20 en juin 2019.
5 principes : Croissance inclusive, développement durable et bien-être · Valeurs de respect des droits de l'homme et d'équité · Transparence et explicabilité · Robustesse, sécurité et sûreté · Responsabilité
Particularité : cadre intergouvernemental le plus largement adopté. Accompagné de recommandations politiques concrètes pour les gouvernements (investissement, environnement numérique, coopération internationale).
Influence : cadre de référence pour de nombreuses politiques nationales. L'Observatoire des politiques de l'IA de l'OCDE (OECD.AI) assure le suivi de la mise en œuvre.
🏛 Lignes directrices de l'UE pour une IA digne de confiance (2019) et AI Act (2024)
Origine : Commission européenne · Type : Lignes directrices (2019) + Règlement contraignant (2024) · Juridiction : UE
Le Groupe d'experts de haut niveau sur l'IA (AI HLEG) a publié en avril 2019 des lignes directrices identifiant sept exigences clés pour une IA de confiance. Ces principes ont ensuite alimenté le processus législatif ayant conduit à l'AI Act, adopté en 2024, qui constitue le premier cadre réglementaire contraignant dédié à l'IA au monde.
7 exigences (lignes directrices 2019) : Action humaine et contrôle humain · Robustesse technique et sécurité · Respect de la vie privée et gouvernance des données · Transparence · Diversité, non-discrimination et équité · Bien-être sociétal et environnemental · Responsabilité
Particularité de l'AI Act : approche par niveaux de risque (inacceptable, haut risque, risque limité, risque minimal). Premier passage d'une approche volontaire (principes) à une approche contraignante (régulation) avec sanctions financières.
Influence : l'AI Act est en train de devenir un standard de facto mondial (« effet Bruxelles »), influençant les cadres réglementaires en développement dans d'autres juridictions.
📜 Recommandation de l'UNESCO sur l'éthique de l'intelligence artificielle (2021)
Origine : UNESCO · Type : Recommandation normative · Juridiction : 193 États membres · Adoptée : novembre 2021
Premier instrument normatif mondial sur l'éthique de l'IA, adopté par les 193 États membres de l'UNESCO en novembre 2021. Il s'agit du cadre le plus inclusif géographiquement, intégrant les préoccupations des pays en développement et des communautés marginalisées.
10 principes : Proportionnalité et innocuité · Sécurité et sûreté · Équité et non-discrimination · Durabilité · Droit à la vie privée et protection des données · Supervision et décision humaines · Transparence et explicabilité · Responsabilité et obligation de rendre des comptes · Sensibilisation et éducation · Gouvernance et collaboration multipartites
Particularité : attention particulière aux pays en développement, aux inégalités Nord-Sud et aux enjeux environnementaux. Inclut des domaines d'action politique concrets (éducation, culture, santé, économie, environnement).
Influence : cadre de référence pour les politiques nationales des pays n'ayant pas encore développé leur propre cadre. Outil de plaidoyer pour les pays du Sud global.
Analyse comparative
Dimension
Montréal (2018)
OCDE (2019)
UE (2019/2024)
UNESCO (2021)
Nature
Citoyenne
Intergouvernementale
Réglementaire
Normative mondiale
Contraignant
Non
Non (soft law)
Oui (AI Act)
Non (soft law)
Méthodologie
Délibération citoyenne
Comité d'experts
Experts + processus législatif
Négociation multilatérale
Équité
✓
✓
✓
✓
Transparence
✓
✓
✓
✓
Imputabilité
✓
✓
✓
✓
Durabilité env.
✓ (développement soutenable)
✓ (croissance inclusive)
✓ (bien-être env.)
✓ (durabilité)
Participation
✓ (principe central)
Limitée
Limitée
✓ (gouvernance multipartite)
Enjeux Nord-Sud
Faible
Limités
Non prioritaire
✓ (priorité)
Convergences
Les quatre cadres convergent sur un noyau commun de principes : transparence, équité/non-discrimination, imputabilité/responsabilité, et respect de la vie privée. Cette convergence a été documentée par Jobin et al. (2019) et suggère l'émergence d'un consensus normatif mondial de base.
Divergences
Les cadres divergent sur plusieurs dimensions significatives. La force juridique varie du volontaire (Montréal, OCDE) au contraignant (AI Act). La méthodologie de production diffère : délibération citoyenne (Montréal) vs. expertise technique (OCDE, UE) vs. négociation diplomatique (UNESCO). L'attention aux inégalités mondiales est inégale : centrale chez l'UNESCO, marginale dans les autres cadres. Enfin, la participation démocratique comme principe à part entière est spécifique à la Déclaration de Montréal.
🔬 Zoom sur le leadership montréalais
La Déclaration de Montréal (2018) se distingue par sa méthodologie délibérative citoyenne, pionnière à l'époque. Plusieurs de ses principes — notamment la participation démocratique et le développement soutenable — ont anticipé des préoccupations qui ne seront formalisées dans les cadres internationaux que plus tardivement. Montréal a ainsi contribué à structurer le débat mondial avant que les grandes organisations intergouvernementales ne s'en emparent.
Ce leadership se manifeste aussi dans l'infrastructure de recherche : Mila, IVADO, et les universités montréalaises ont produit des travaux influents sur l'équité algorithmique, l'explicabilité et la gouvernance de l'IA qui alimentent directement ces cadres normatifs.
Limites et critiques transversales
Prolifération sans mise en œuvre : la multiplication des déclarations de principes (plus de 160 recensées en 2023 selon certaines estimations [chiffre à vérifier]) n'a pas nécessairement conduit à des changements de pratiques. Le risque d'ethics washing est réel.
Déficit d'opérationnalisation : les principes abstraits (« équité », « transparence ») sont difficiles à traduire en exigences techniques et organisationnelles concrètes. L'écart entre principes et pratiques (principles-to-practice gap) est un enjeu de recherche actif.
Représentativité : malgré l'ambition inclusive de l'UNESCO, la majorité des cadres ont été élaborés par des acteurs du Nord global, avec une sous-représentation des perspectives du Sud, des communautés autochtones et des populations les plus affectées par les systèmes d'IA.
Passage au contraignant : l'AI Act européen marque une transition vers la régulation contraignante. Ce passage soulève des débats sur l'équilibre entre protection et innovation, et sur la capacité des cadres réglementaires à suivre le rythme de l'évolution technologique.
Points clés à retenir
Un consensus normatif mondial émerge autour de cinq principes fondamentaux (transparence, équité, responsabilité, vie privée, bien-être).
La Déclaration de Montréal a été pionnière par sa méthodologie citoyenne et ses principes de participation démocratique et de développement soutenable.
L'AI Act européen marque le passage de l'éthique volontaire à la régulation contraignante.
Le défi majeur reste l'opérationnalisation : traduire les principes en pratiques concrètes.
La représentativité des voix du Sud global et des communautés marginalisées demeure insuffisante.
Questions de réflexion
La prolifération des déclarations de principes est-elle un signe de progrès ou de procrastination ? Manque-t-il des mécanismes de mise en œuvre ?
Le modèle délibératif citoyen de la Déclaration de Montréal est-il reproductible à l'échelle internationale ? Quels en seraient les défis ?
L'approche réglementaire de l'UE (AI Act) est-elle un modèle pour le Canada, ou le contexte nord-américain appelle-t-il une approche différente ?
Comment assurer que les perspectives du Sud global et des communautés autochtones soient mieux intégrées dans les cadres normatifs futurs ?
Références bibliographiques
Déclaration de Montréal pour un développement responsable de l'intelligence artificielle (2018). Université de Montréal. Site officiel de la Déclaration.
Groupe d'experts de haut niveau sur l'IA (2019). Lignes directrices en matière d'éthique pour une IA digne de confiance. Commission européenne.
Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389–399.
OCDE (2019). Recommandation du Conseil sur l'intelligence artificielle. OECD/LEGAL/0449. Site de l'OCDE.
Règlement (UE) 2024/1689 du Parlement européen et du Conseil établissant des règles harmonisées en matière d'intelligence artificielle (AI Act). [Vérifier la référence exacte au Journal officiel]
UNESCO (2021). Recommandation sur l'éthique de l'intelligence artificielle. Adoptée par la Conférence générale, novembre 2021. Site de l'UNESCO.
Vérification : Sites officiels de l'OCDE (OECD.AI), de l'UNESCO, de la Commission européenne, de la Déclaration de Montréal. Google Scholar pour Jobin et al.
Suggestion de mise à jour : Annuelle. Le paysage normatif évolue rapidement, en particulier avec la mise en œuvre progressive de l'AI Act et l'émergence de nouveaux cadres nationaux.
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Toutes les références marquées [À VÉRIFIER] doivent être confirmées avant usage académique ou institutionnel. Les informations réglementaires et statistiques sont susceptibles d'avoir évolué. Consultez les sources primaires avant toute citation ou diffusion officielle.
Bibliothèque IA Responsable — Document 2.1
Synthèse de l'AI Act européen
Implications pour la recherche et l'enseignement
Public : Chercheurs, professeurs, administrateurs★★ IntermédiaireMise à jour : Annuelle
Résumé exécutif
Le Règlement européen sur l'intelligence artificielle (AI Act), adopté en 2024, constitue le premier cadre réglementaire contraignant dédié à l'IA au monde.1 Fondé sur une approche par niveaux de risque, il impose des obligations différenciées aux fournisseurs et déployeurs de systèmes d'IA. Ce document synthétise ses dispositions principales et analyse leurs implications pour les universités, les projets de recherche et la coopération académique internationale.
1. Genèse et structure du règlement
La Commission européenne a publié sa proposition de règlement en avril 2021, après plusieurs années de travaux préparatoires incluant les Lignes directrices pour une IA de confiance du Groupe d'experts de haut niveau (2019).2 Le texte a fait l'objet de négociations intenses entre le Parlement européen et le Conseil de l'UE (trilogue), aboutissant à un accord politique en décembre 2023. Le règlement a été formellement adopté en 2024, avec une mise en œuvre progressive étalée sur plusieurs années.3
L'AI Act s'applique à tout système d'IA mis sur le marché ou utilisé dans l'Union européenne, indépendamment du lieu d'établissement du fournisseur. Cette portée extraterritoriale a des implications directes pour les institutions de recherche canadiennes collaborant avec des partenaires européens ou déployant des systèmes destinés à des utilisateurs dans l'UE.
2. L'approche par niveaux de risque
L'architecture du règlement repose sur une classification des systèmes d'IA selon leur niveau de risque. Cette approche vise à proportionner les obligations réglementaires aux dangers potentiels.4
Risque inacceptable — INTERDIT
Systèmes portant atteinte aux droits fondamentaux : notation sociale par les gouvernements (social scoring), manipulation subliminale, exploitation des vulnérabilités, identification biométrique à distance en temps réel dans l'espace public (sauf exceptions).5
Haut risque — OBLIGATIONS STRICTES
Systèmes utilisés dans des domaines sensibles : infrastructure critique, éducation et formation professionnelle, emploi et gestion des travailleurs, services essentiels (crédit, assurance), maintien de l'ordre, migration et asile, administration de la justice. Ces systèmes doivent respecter des exigences de gestion des risques, de qualité des données, de documentation technique, de transparence, de supervision humaine et de robustesse.6
Risque limité — OBLIGATIONS DE TRANSPARENCE
Systèmes interagissant avec des personnes (chatbots, systèmes de génération de contenu) : obligation d'informer l'utilisateur qu'il interagit avec une IA ou que le contenu est généré par IA.
Risque minimal — PAS D'OBLIGATIONS SPÉCIFIQUES
La grande majorité des systèmes d'IA (filtres anti-spam, jeux vidéo, etc.). L'utilisation de codes de conduite volontaires est encouragée.
3. Dispositions relatives à la recherche
L'AI Act prévoit des dispositions spécifiques pour la recherche et l'innovation :
Exemption pour la recherche : les systèmes d'IA développés et utilisés exclusivement à des fins de recherche scientifique ne sont pas soumis aux obligations du règlement, à condition qu'ils ne soient pas mis sur le marché ou en service.7 Cette exemption est toutefois délimitée : dès qu'un prototype de recherche est déployé dans un contexte réel affectant des personnes, les obligations s'appliquent.
Bacs à sable réglementaires (regulatory sandboxes) : le règlement encourage les États membres à créer des environnements contrôlés permettant de tester des systèmes d'IA innovants sous supervision réglementaire, avec un cadre allégé. Ces dispositifs visent à favoriser l'innovation tout en assurant la protection des droits fondamentaux.8
Modèles d'IA à usage général (general-purpose AI models) : des dispositions spécifiques encadrent les modèles de fondation et les grands modèles de langage, avec des obligations renforcées pour ceux présentant un « risque systémique ».9
4. Implications pour les universités
Projets de recherche collaboratifs : toute collaboration impliquant un déploiement de système IA dans l'UE doit évaluer sa classification de risque et, le cas échéant, respecter les obligations afférentes. Cela affecte les projets Horizon Europe et les partenariats bilatéraux avec des institutions européennes.
Enseignement et évaluation : les systèmes d'IA utilisés pour l'évaluation ou l'orientation des étudiants (notation automatisée, systèmes d'admission) sont classés à haut risque.10 Les universités européennes — et leurs partenaires — devront se conformer aux exigences de documentation, de supervision humaine et de gestion des biais.
IA générative en contexte académique : les outils d'IA générative utilisés en enseignement ou en recherche sont soumis aux obligations de transparence (obligation d'informer que le contenu est généré par IA). Les implications pour l'intégrité académique sont considérables.
Publication et diffusion : les chercheurs publiant des modèles en accès libre devront être attentifs aux obligations applicables aux modèles d'IA à usage général, en particulier ceux présentant un risque systémique.
🔬 Zoom sur l'écosystème montréalais
L'AI Act a des implications directes pour les institutions montréalaises engagées dans des collaborations européennes. Mila, IVADO et les universités montréalaises participent à des projets de recherche internationaux et publient des modèles utilisés mondialement. La compréhension de ce cadre est essentielle pour maintenir ces collaborations. Par ailleurs, l'expérience canadienne en matière de gouvernance de l'IA (Directive sur la prise de décisions automatisée du gouvernement fédéral, Outil d'évaluation d'impact algorithmique) constitue une base utile pour répondre aux exigences européennes.11
5. Calendrier de mise en œuvre
L'AI Act prévoit une mise en œuvre échelonnée après son entrée en vigueur :12
6 mois : interdictions des pratiques à risque inacceptable.
12 mois : obligations pour les modèles d'IA à usage général.
24 mois : pleine application des obligations pour les systèmes à haut risque.
36 mois : application aux systèmes à haut risque relevant de certaines législations sectorielles.
[Ce calendrier est indicatif et doit être vérifié sur le site officiel de la Commission européenne, car des ajustements sont possibles lors de la transposition.]
Points clés à retenir
L'AI Act est le premier cadre réglementaire contraignant dédié à l'IA, avec une portée extraterritoriale.
L'approche par niveaux de risque module les obligations : de l'interdiction à l'absence de contrainte spécifique.
La recherche bénéficie d'exemptions, mais celles-ci ont des limites : tout déploiement réel déclenche des obligations.
Les systèmes IA en éducation (notation, admission) sont classés à haut risque.
Les universités canadiennes collaborant avec l'UE doivent anticiper ces exigences.
Questions de réflexion
L'exemption de recherche est-elle suffisamment claire ? Où se situe la frontière entre un prototype de recherche et un système déployé ?
Le classement des systèmes éducatifs comme « haut risque » est-il justifié ? Quelles conséquences pour les innovations pédagogiques impliquant l'IA ?
Le Canada devrait-il adopter une approche similaire par niveaux de risque, ou une approche différente est-elle préférable ?
Notes
Règlement (UE) 2024/1689 du Parlement européen et du Conseil établissant des règles harmonisées en matière d'intelligence artificielle. Journal officiel de l'Union européenne. [Référence complète à vérifier au JOUE]
Groupe d'experts de haut niveau sur l'IA (2019). Lignes directrices en matière d'éthique pour une IA digne de confiance. Commission européenne. Disponible sur le site de la Commission.
La mise en œuvre est progressive : les dates exactes dépendent de la date de publication au Journal officiel. [Vérifier le calendrier officiel sur le site de la Commission européenne]
Cette approche s'inspire du cadre réglementaire européen pour les produits (marquage CE) et de la législation sectorielle existante (dispositifs médicaux, sécurité des machines).
AI Act, Titre II, articles 5 et suivants. Des exceptions existent pour l'identification biométrique dans des cas très encadrés (menace terroriste, recherche de victimes). [Vérifier les articles exacts dans la version consolidée]
AI Act, Titre III, Chapitre 2. La liste des systèmes à haut risque figure à l'Annexe III du règlement et peut être mise à jour par la Commission via des actes délégués.
AI Act, considérants et article 2. L'exemption couvre la R&D en amont de la mise sur le marché. Voir aussi : Edwards, L. (2022). The EU AI Act: a summary of its significance and scope. Ada Lovelace Institute. [Vérifier la source exacte]
AI Act, Titre V. Les bacs à sable réglementaires doivent être établis par les autorités nationales compétentes.
AI Act, Titre VIII bis (dans certaines versions du texte) / dispositions sur les GPAI. Le seuil de « risque systémique » est défini notamment par la puissance de calcul utilisée pour l'entraînement. [Vérifier la numérotation dans la version finale consolidée]
AI Act, Annexe III, point 3. Les systèmes d'IA utilisés pour déterminer l'accès à l'éducation ou pour évaluer les apprenants sont explicitement mentionnés.
Gouvernement du Canada. Directive sur la prise de décisions automatisée (2019, mise à jour). Secrétariat du Conseil du Trésor. Disponible sur le site du gouvernement du Canada.
Calendrier indicatif basé sur les dispositions transitoires de l'AI Act. [Vérifier les dates précises sur le site de la Commission européenne — les délais courent à partir de l'entrée en vigueur officielle]
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Toutes les références marquées [À VÉRIFIER] doivent être confirmées avant usage académique ou institutionnel. Le texte de l'AI Act est en cours de mise en œuvre ; consultez la version consolidée sur EUR-Lex pour les dispositions officielles en vigueur.
Bibliothèque IA Responsable — Document 2.2
Loi 25 (Québec) et Loi C-27 (Canada)
Ce que les chercheurs et institutions doivent savoir
Public : Chercheurs, administrateurs, conformité★★★ AvancéMise à jour : Bisannuelle
Résumé exécutif
Le cadre juridique canadien en matière de protection des données et d'intelligence artificielle repose sur deux paliers législatifs. Au Québec, la Loi 25 modernise la protection des renseignements personnels avec une entrée en vigueur progressive (2022-2024).1 Au fédéral, le projet de loi C-27 propose une refonte incluant la Loi sur l'intelligence artificielle et les données (LIAD).2 Ce document décrypte les deux textes et leurs implications pour le milieu de la recherche.
1. La Loi 25 du Québec
Loi modernisant des dispositions législatives en matière de protection des renseignements personnels
Loi 25 · Québec · Sanctionnée le 22 septembre 2021 · Entrée en vigueur progressive : 2022-2024
La Loi 25 modifie principalement la Loi sur la protection des renseignements personnels dans le secteur privé et la Loi sur l'accès aux documents des organismes publics.3 Elle renforce considérablement les droits des individus et les obligations des organisations, incluant les institutions d'enseignement.
Dispositions clés pour la recherche
Responsable de la protection des renseignements personnels : chaque organisme doit désigner une personne responsable. Dans une université, cette fonction doit être assumée au plus haut niveau de direction.4
Évaluation des facteurs relatifs à la vie privée (ÉFVP) : obligatoire avant tout projet impliquant la collecte, l'utilisation ou la communication de renseignements personnels, incluant les projets de recherche utilisant des données personnelles.5
Consentement : le consentement doit être manifeste, libre, éclairé et donné à des fins spécifiques. Pour les renseignements sensibles, le consentement doit être explicite. Les règles sont plus strictes que dans le régime précédent.6
Décisions automatisées : toute personne faisant l'objet d'une décision fondée exclusivement sur un traitement automatisé doit en être informée et peut demander que la décision soit révisée par une personne physique.7
Droit à la portabilité : les individus peuvent demander la communication de leurs renseignements dans un format technologique structuré et couramment utilisé.8
Incidents de confidentialité : obligation de déclarer à la Commission d'accès à l'information (CAI) tout incident présentant un risque de préjudice sérieux, et d'en aviser les personnes concernées.9
Sanctions : amendes pouvant atteindre 25 millions de dollars ou 4 % du chiffre d'affaires mondial pour les entreprises. Les organismes publics sont soumis à des pénalités distinctes.10
2. Le projet de loi C-27 (fédéral)
Loi de 2022 sur la mise en œuvre de la charte du numérique
Projet de loi C-27 · Canada (fédéral) · Déposé en juin 2022 · Comprend trois parties
Le projet de loi C-27 comporte trois volets législatifs distincts :11
Partie 1 — Loi sur la protection de la vie privée des consommateurs (LPVPC) : remplacerait la partie 1 de la LPRPDE. Modernise le cadre de protection des données personnelles dans le secteur privé fédéral.
Partie 2 — Tribunal de la protection des renseignements personnels et des données : crée un nouveau tribunal administratif pour entendre les appels des décisions du Commissaire à la vie privée.
Partie 3 — Loi sur l'intelligence artificielle et les données (LIAD) : premier texte législatif fédéral canadien spécifiquement dédié à l'IA. Vise à réglementer les systèmes d'IA à incidence élevée et à interdire certaines pratiques.12
La LIAD : dispositions principales
Systèmes à incidence élevée : les personnes responsables de systèmes IA à incidence élevée doivent évaluer les risques de préjudice, prendre des mesures d'atténuation, et assurer une surveillance humaine.13
Transparence : obligation de publier une description des systèmes IA à incidence élevée, incluant leur fonctionnement général et les mesures d'atténuation des risques.
Interdictions : utilisation de systèmes IA causant un préjudice sérieux, publication de contenu généré par IA pouvant causer un préjudice économique ou physique sérieux.
Sanctions : amendes pouvant atteindre 10 millions de dollars ou 3 % du revenu brut mondial (le plus élevé des deux) pour les infractions les plus graves.14
⚠️ Important : Au moment de la rédaction, le projet de loi C-27 n'avait pas encore été adopté par le Parlement. Son statut législatif doit être vérifié.15 Les dispositions décrites reflètent le texte déposé et peuvent avoir été modifiées en cours de processus parlementaire.
Collecte de données : tout projet de recherche collectant des renseignements personnels au Québec doit respecter les exigences renforcées de la Loi 25 en matière de consentement et d'ÉFVP, en plus des exigences éthiques existantes (EPTC 2).16
Utilisation de systèmes IA : les chercheurs déployant des systèmes de décision automatisée touchant des individus (même dans le cadre d'études) doivent informer les participants et prévoir un mécanisme de révision humaine.
Incidents : toute brèche de données dans un projet de recherche doit être déclarée à la CAI si elle présente un risque de préjudice sérieux — une obligation nouvelle qui affecte les pratiques de gestion des données de recherche.
Double juridiction : les chercheurs québécois dans des universités à charte fédérale, ou dont les projets traversent les frontières provinciales, peuvent être soumis simultanément aux deux cadres. Une analyse au cas par cas est recommandée.
🔬 Zoom sur l'écosystème montréalais
Les universités montréalaises sont directement concernées par la Loi 25. HEC Montréal, l'Université de Montréal et Polytechnique Montréal, en tant qu'organismes d'enseignement, doivent désigner des responsables de la protection des renseignements personnels, conduire des ÉFVP pour leurs projets impliquant des données personnelles, et mettre à jour leurs politiques de gestion des données. Les comités d'éthique de la recherche (CÉR) doivent intégrer ces nouvelles exigences dans leurs protocoles d'évaluation.
Points clés à retenir
La Loi 25 est en vigueur au Québec et impose des obligations concrètes aux institutions de recherche (ÉFVP, consentement renforcé, déclaration d'incidents).
Le projet de loi C-27 introduirait la première loi fédérale spécifique à l'IA (LIAD), mais son adoption reste à confirmer.
Les chercheurs doivent intégrer ces exigences dans la planification de leurs projets, en complément de l'EPTC 2.
La double juridiction (provinciale/fédérale) complique la conformité et nécessite une analyse au cas par cas.
Questions de réflexion
Les exceptions de recherche dans la Loi 25 sont-elles suffisantes pour permettre l'innovation en IA ? Quels ajustements seraient souhaitables ?
La LIAD, si adoptée, suffirait-elle à encadrer les risques de l'IA, ou le Canada a-t-il besoin d'un cadre plus complet comparable à l'AI Act européen ?
Comment les CÉR des universités québécoises devraient-ils adapter leurs procédures pour intégrer les exigences de la Loi 25 ?
Notes
Loi modernisant des dispositions législatives en matière de protection des renseignements personnels, LQ 2021, c 25 (« Loi 25 »). Sanctionnée le 22 septembre 2021. Texte officiel disponible sur le site de l'Assemblée nationale du Québec.
Projet de loi C-27, Loi de 2022 sur la mise en œuvre de la charte du numérique, 1ʳᵉ session, 44ᵉ législature. Déposé à la Chambre des communes le 16 juin 2022. [Vérifier le statut législatif actuel]
La Loi 25 modifie notamment la Loi sur la protection des renseignements personnels dans le secteur privé (RLRQ, c P-39.1) et la Loi sur l'accès aux documents des organismes publics et sur la protection des renseignements personnels (RLRQ, c A-2.1).
Loi 25, art. 3.1 (modifiant la Loi sur le secteur privé). Pour les organismes publics, le responsable est la personne ayant la plus haute autorité. [Vérifier la numérotation exacte des articles]
L'ÉFVP est obligatoire pour tout projet d'acquisition, de développement ou de refonte de système d'information impliquant des renseignements personnels. Voir le site de la Commission d'accès à l'information du Québec pour les guides pratiques.
La notion de renseignement « sensible » inclut notamment les renseignements de santé, les données biométriques et les renseignements financiers. La liste n'est pas exhaustive et doit être évaluée selon le contexte.
Cette disposition s'applique aux décisions produisant des effets juridiques ou ayant des incidences significatives sur la personne. Elle est comparable (mais non identique) aux dispositions du RGPD européen (art. 22).
Le droit à la portabilité est entré en vigueur en septembre 2024. Les modalités techniques de mise en œuvre peuvent varier.
Commission d'accès à l'information du Québec (CAI). Le seuil de « risque de préjudice sérieux » fait l'objet de lignes directrices de la CAI. [Vérifier les lignes directrices les plus récentes]
Loi 25, dispositions pénales. Les montants s'appliquent aux entreprises du secteur privé. Le régime de sanctions pour les organismes publics est distinct et généralement moins élevé.
Projet de loi C-27, sommaire. Disponible sur le site du Parlement du Canada (LEGISinfo).
La LIAD serait administrée par un nouveau Commissaire à l'intelligence artificielle et aux données, rattaché au ministère de l'Innovation, des Sciences et du Développement économique. [Vérifier si cette structure a été modifiée lors de l'étude en comité]
La définition de « système à incidence élevée » serait précisée par règlement. Cette approche par voie réglementaire a été critiquée pour son manque de prévisibilité.
LIAD, dispositions pénales. Des infractions criminelles sont également prévues pour les cas les plus graves (utilisation intentionnelle causant un préjudice sérieux). [Vérifier les montants dans la version la plus récente du texte]
Au moment de la rédaction (mars 2026), le statut du projet de loi C-27 était incertain. La dissolution du Parlement ou un changement de gouvernement pourrait affecter son adoption. [VÉRIFIER IMPÉRATIVEMENT le statut actuel sur LEGISinfo]
Conseil de recherches en sciences humaines, Conseil de recherches en sciences naturelles et en génie, Instituts de recherche en santé du Canada (2022). Énoncé de politique des trois conseils : Éthique de la recherche avec des êtres humains (EPTC 2). Disponible sur le site du Secrétariat sur la conduite responsable de la recherche.
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Le cadre législatif décrit est susceptible d'avoir évolué. Le statut du projet de loi C-27 doit être vérifié impérativement avant toute utilisation de ce document. Consultez les textes officiels sur les sites de l'Assemblée nationale du Québec, du Parlement du Canada et de la CAI.
Bibliothèque IA Responsable — Document 2.3
Comparatif international des cadres réglementaires IA
UE · Canada · USA · Chine · Afrique francophone
Public : Chercheurs, professeurs, doctorants★★★ AvancéMise à jour : Annuelle
Résumé exécutif
Les approches réglementaires de l'IA varient considérablement selon les juridictions, reflétant des philosophies politiques, des priorités économiques et des traditions juridiques distinctes. Ce document compare cinq zones : l'Union européenne (approche par les risques), le Canada (approche hybride en construction), les États-Unis (approche sectorielle), la Chine (approche par le contrôle étatique) et l'Afrique francophone (cadre émergent). L'analyse est pertinente pour les chercheurs impliqués dans des collaborations internationales.
1. Cinq approches, cinq philosophies
🇪🇺 Union européenne
Approche par les risques — régulation horizontale contraignante
L'UE a adopté l'AI Act (2024), premier cadre réglementaire contraignant dédié à l'IA.1 L'approche repose sur une classification par niveaux de risque (inacceptable, haut, limité, minimal) avec des obligations proportionnées. Le règlement complète le RGPD (2018) pour la protection des données.2
Philosophie : protection des droits fondamentaux comme priorité. La technologie doit s'adapter au cadre juridique, pas l'inverse. L'UE assume un possible coût en matière d'innovation au profit de la protection.
Force : clarté juridique, effet extraterritorial (« effet Bruxelles »), cadre complet. Limite : complexité de mise en œuvre, risque de frein à l'innovation, délais d'application.
🇨🇦 Canada
Approche hybride — cadre en construction
Le Canada combine une directive fédérale existante sur les décisions automatisées (2019)3, le projet de loi C-27 incluant la LIAD4, et des législations provinciales avancées comme la Loi 25 au Québec. La Stratégie pancanadienne en IA (CIFAR, 2017, renouvelée) a priorisé l'investissement dans la recherche.5
Philosophie : équilibre entre innovation et protection, avec une tradition de consultation et de prudence. La double juridiction (fédérale/provinciale) crée de la complexité mais aussi de la flexibilité.
Force : écosystème de recherche de pointe, tradition éthique (Déclaration de Montréal), Loi 25 avancée. Limite : fragmentation fédérale/provinciale, C-27 encore en processus, mise en œuvre inégale.
🇺🇸 États-Unis
Approche sectorielle — régulation légère et volontaire
Les États-Unis n'ont pas adopté de cadre réglementaire fédéral horizontal comparable à l'AI Act. L'approche repose sur des régulations sectorielles existantes (FDA pour la santé, FTC pour la protection des consommateurs), des décrets présidentiels6, des engagements volontaires de l'industrie, et des initiatives étatiques (notamment la loi californienne sur la transparence des IA).7
Philosophie : primat de l'innovation et de la compétitivité. La régulation doit être minimale et adaptée au secteur, pour ne pas entraver le leadership technologique américain. L'auto-régulation de l'industrie est privilégiée.
Force : flexibilité, rapidité d'adaptation, attractivité pour l'investissement. Limite : protection insuffisante des droits, fragmentation étatique, poids excessif de l'industrie dans la gouvernance.
🇨🇳 Chine
Approche par le contrôle étatique — régulation ciblée et rapide
La Chine a adopté plusieurs régulations spécifiques à des catégories d'IA : régulation des algorithmes de recommandation (2022), régulation de la synthèse profonde (deepfakes, 2023), et régulation de l'IA générative (2023).8 Ces textes sont administrés par la Cyberspace Administration of China (CAC) et complétés par la Loi sur la protection des informations personnelles (PIPL, 2021).9
Philosophie : double objectif de promotion de l'industrie nationale et de contrôle de l'information. La régulation sert à la fois la protection des consommateurs et la stabilité politique.
Force : rapidité législative, capacité d'adaptation technologie par technologie. Limite : opacité du processus décisionnel, instrumentalisation à des fins de contrôle social, absence de contre-pouvoirs indépendants.
🌍 Afrique francophone
Cadre émergent — entre initiatives continentales et lacunes normatives
L'Union africaine a adopté en 2024 une Stratégie continentale d'intelligence artificielle.10 Au niveau régional, plusieurs pays francophones développent des stratégies nationales (Sénégal, Rwanda, Maurice) mais les cadres réglementaires spécifiques à l'IA restent rares. La Convention de l'Union africaine sur la cybersécurité et la protection des données personnelles (Convention de Malabo, 2014) n'est entrée en vigueur qu'en 2023, avec des ratifications limitées.11
Philosophie : préoccupation pour la souveraineté numérique, la réduction des inégalités Nord-Sud et l'adaptation des technologies aux contextes locaux. L'absence de cadre réglementaire est à la fois un risque et une opportunité de « leapfrogging » réglementaire.
Force : jeunesse démographique, potentiel d'innovation frugale, sensibilité aux enjeux de souveraineté. Limite : capacités institutionnelles limitées, dépendance technologique, faible représentation dans les forums normatifs internationaux.
2. Tableau comparatif synthétique
Dimension
🇪🇺 UE
🇨🇦 Canada
🇺🇸 USA
🇨🇳 Chine
🌍 Afrique fr.
Approche
Horizontale, par risque
Hybride, en construction
Sectorielle, volontaire
Ciblée par technologie
Émergente
Texte principal IA
AI Act (2024)
C-27/LIAD (projet)
Décrets + sectoriel
Régulations multiples
Stratégie UA
Contraignant
Oui
Partiellement
Peu
Oui
Non
Protection données
RGPD
Loi 25/LPRPDE
Sectoriel
PIPL
Malabo (limité)
Priorité affichée
Droits fondamentaux
Équilibre
Innovation
Contrôle + industrie
Souveraineté
Portée extraterr.
Forte
Limitée
Variable
Limitée
Aucune
Recherche
Exemptions + sandboxes
Exceptions limitées
Peu encadrée
Encouragée mais encadrée
Peu de cadre
3. Implications pour la recherche internationale
Collaborations UE-Canada : les chercheurs canadiens participant à des projets européens (Horizon Europe) devront respecter les exigences de l'AI Act et du RGPD. La conformité à la Loi 25 facilite partiellement cette mise en conformité, les deux cadres partageant une philosophie de protection.12
Collaborations avec les USA : l'absence de cadre fédéral américain crée une asymétrie réglementaire. Les chercheurs canadiens doivent appliquer leurs propres standards éthiques et réglementaires, même dans des collaborations avec des institutions américaines moins contraintes.
Mobilité des chercheurs : un chercheur formé au Canada qui travaille sur un projet déployé en Chine, financé par l'UE et impliquant des données de citoyens africains fait face à un enchevêtrement de cadres juridiques difficile à naviguer.
Publication de modèles : la mise en accès libre de modèles d'IA entraînés soulève des questions réglementaires dans toutes les juridictions. L'AI Act impose des obligations spécifiques pour les modèles d'IA à usage général, même publiés en accès libre.
🔬 Zoom sur l'écosystème montréalais
Montréal est un carrefour international de la recherche en IA, avec des collaborations actives avec l'Europe, les États-Unis, l'Asie et l'Afrique. La compréhension des différents cadres réglementaires est une compétence stratégique pour l'écosystème. Le positionnement éthique de Montréal (Déclaration de Montréal, Mila, IVADO) constitue un atout diplomatique dans les collaborations internationales, offrant un interlocuteur crédible tant pour les partenaires européens soucieux de conformité que pour les partenaires du Sud global préoccupés par la souveraineté.
L'AI Act européen a l'effet extraterritorial le plus marqué et influence les cadres en développement.
La recherche internationale implique de naviguer entre des cadres potentiellement contradictoires.
L'Afrique francophone représente un espace où les normes sont en construction — une opportunité de co-construction avec le milieu académique.
Questions de réflexion
L'harmonisation internationale des cadres IA est-elle souhaitable ? Une diversité d'approches peut-elle être un avantage ?
Le Canada est-il mieux positionné pour jouer un rôle de pont entre l'approche européenne et l'approche américaine ? Quels en seraient les risques ?
Comment les universités africaines francophones pourraient-elles contribuer à la construction de cadres réglementaires adaptés à leurs contextes ?
Notes
Règlement (UE) 2024/1689 (AI Act). Voir Doc 2.1 de cette bibliothèque pour une synthèse détaillée.
Règlement (UE) 2016/679 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel (RGPD). Applicable depuis le 25 mai 2018.
Gouvernement du Canada, Secrétariat du Conseil du Trésor (2019). Directive sur la prise de décisions automatisée. Applicable aux institutions fédérales. [Vérifier les mises à jour]
Voir Doc 2.2 de cette bibliothèque pour une analyse détaillée de la Loi 25 et du projet de loi C-27. [Vérifier le statut de C-27]
CIFAR (2017). Stratégie pancanadienne en matière d'intelligence artificielle. Renouvelée avec un investissement additionnel annoncé dans le budget fédéral 2024. [Vérifier les détails du renouvellement]
Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence (octobre 2023). [Vérifier si ce décret est toujours en vigueur — les décrets présidentiels peuvent être révoqués par une nouvelle administration]
Plusieurs États américains ont adopté ou proposé des législations spécifiques. Le Colorado AI Act (2024) et les initiatives californiennes sont parmi les plus avancées. [Vérifier le statut de ces législations étatiques]
Cyberspace Administration of China. Règlements sur les algorithmes de recommandation (2022), la synthèse profonde (2023) et l'IA générative (Interim Measures for the Management of Generative AI Services, 2023). [Vérifier les titres officiels et dates exactes]
Personal Information Protection Law (PIPL), entrée en vigueur le 1er novembre 2021. Souvent comparée au RGPD mais avec des différences significatives, notamment le rôle de l'État dans l'accès aux données.
Union africaine (2024). Continental Artificial Intelligence Strategy. [Vérifier la date d'adoption exacte et le statut]
Convention de l'Union africaine sur la cybersécurité et la protection des données à caractère personnel (Convention de Malabo, 2014). Entrée en vigueur en juin 2023 après la 15ᵉ ratification. [Vérifier le nombre actuel de ratifications]
L'UE a reconnu le Canada comme offrant un niveau de protection des données « adéquat » au sens du RGPD pour le secteur commercial (décision d'adéquation). Cette reconnaissance facilite les transferts de données. [Vérifier si cette décision a été mise à jour]
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Les cadres réglementaires décrits évoluent rapidement. Plusieurs textes mentionnés sont des projets ou des textes récents dont le statut doit être vérifié. Consultez les sources officielles (EUR-Lex, LEGISinfo, sites gouvernementaux) avant toute citation.
Bibliothèque IA Responsable — Document 2.4
Guide de conformité pour les projets de recherche impliquant des systèmes IA
Données · Consentement · Éthique de la recherche
Public : Chercheurs, étudiants gradués, soutien à la recherche★★ IntermédiaireFormat : Guide opérationnel (5-7 pages)
Résumé exécutif
Les projets de recherche impliquant l'intelligence artificielle doivent naviguer entre les exigences éthiques traditionnelles (EPTC 2)1, les obligations réglementaires récentes (Loi 25 au Québec, RGPD pour les collaborations européennes) et les enjeux spécifiques à l'IA (biais, transparence, impacts). Ce guide propose un parcours de conformité en six étapes, de la conception du projet à la diffusion des résultats.
Parcours de conformité en six étapes
01
Caractérisation du projet et de ses risques
Avant toute démarche de conformité, il faut caractériser le projet : le système IA est-il un outil de collecte, d'analyse ou de décision ? Implique-t-il des données personnelles ? Affecte-t-il des personnes humaines directement ou indirectement ? Quels sont les groupes potentiellement vulnérables concernés ?
Checklist : Nature du système IA · Type de données (personnelles, sensibles, anonymisées, publiques) · Populations concernées · Domaine d'application · Juridictions impliquées · Collaborateurs et partenaires · Sources de financement et leurs exigences
02
Approbation éthique (CÉR)
Tout projet impliquant des êtres humains — y compris par le biais de leurs données — doit être soumis au Comité d'éthique de la recherche (CÉR) de l'institution.2 L'EPTC 2 s'applique à toute recherche financée par les trois conseils (CRSH, CRSNG, IRSC) et est adoptée par la plupart des universités canadiennes comme standard institutionnel.
Le protocole soumis au CÉR devrait explicitement aborder les dimensions spécifiques à l'IA : risque de biais dans les données ou le modèle, explicabilité des résultats, impacts potentiels sur les groupes vulnérables, plan de gestion des incidents.3
Checklist : Formulaire CÉR complété · Dimensions IA explicitement couvertes · Formulaire de consentement adapté (si applicable) · Plan de gestion des risques algorithmiques
03
Conformité en matière de données
Au Québec (Loi 25) : une Évaluation des facteurs relatifs à la vie privée (ÉFVP) est obligatoire pour tout projet impliquant la collecte ou l'utilisation de renseignements personnels.4 Le consentement doit être manifeste, libre et éclairé, donné à des fins spécifiques. Pour les données sensibles, un consentement explicite est requis.
Pour les collaborations européennes (RGPD) : le transfert de données personnelles hors de l'UE est encadré. Le Canada bénéficie d'une décision d'adéquation pour le secteur commercial.5 Les transferts vers les universités doivent être vérifiés au cas par cas.
Données autochtones : les projets impliquant des données de communautés autochtones doivent respecter les principes PCAP® (Propriété, Contrôle, Accès, Possession) et engager un processus de consentement communautaire, en plus du consentement individuel.6
Checklist : ÉFVP réalisée (Loi 25) · Consentement adapté au type de données · Transferts internationaux vérifiés · PCAP® respecté si données autochtones · Plan de conservation et de destruction · Mesures de sécurité documentées
04
Conception responsable du système IA
La conformité ne se limite pas aux données : la conception même du système IA doit intégrer les principes d'IA responsable.7 Cela inclut l'évaluation des biais potentiels dans les données d'entraînement, le choix de métriques d'équité appropriées au contexte, la documentation du modèle et de ses limites, et la mise en place de mécanismes de supervision humaine.
Checklist : Audit des données d'entraînement (représentativité, biais) · Métriques d'équité sélectionnées et justifiées · Documentation du modèle (fiche modèle / model card) · Limites connues documentées · Supervision humaine prévue
Voir Doc 4.1 (IA Responsable by Design) et Doc 4.3 (Protocole d'audit éthique) pour des méthodologies détaillées.
05
Documentation et traçabilité
La documentation est une exigence transversale à tous les cadres réglementaires et éthiques. Elle est indispensable pour l'imputabilité, la reproductibilité scientifique et la conformité réglementaire. Une documentation rigoureuse doit couvrir l'ensemble du cycle de vie du projet.8
Checklist : Provenance et caractéristiques des données · Architecture et paramètres du modèle · Processus d'entraînement et de validation · Résultats des tests d'équité et de robustesse · Décisions de conception et leurs justifications · Incidents et mesures correctives · Registre des versions
06
Diffusion responsable des résultats
La publication de recherches impliquant l'IA soulève des enjeux spécifiques : partage responsable de modèles et de données, divulgation des limites et des biais identifiés, respect de la vie privée des participants, et anticipation des usages détournés (dual use).9
Checklist : Limites et biais documentés dans la publication · Données anonymisées ou synthétiques partagées (si applicable) · Licence de diffusion appropriée pour les modèles · Évaluation des risques de double usage · Formulaire de consentement couvrant la diffusion · Conformité AI Act si modèle à usage général
🔬 Zoom sur l'écosystème montréalais
Les universités montréalaises disposent de structures de soutien à la conformité éthique et réglementaire : les CÉR d'HEC Montréal, de l'Université de Montréal et de Polytechnique Montréal évaluent les protocoles de recherche impliquant des êtres humains. L'émergence de l'IA dans les projets de recherche pousse ces comités à développer de nouvelles expertises. Les bureaux de la recherche offrent un accompagnement pour les ÉFVP et les questions de conformité. IVADO et Mila disposent également de ressources en matière d'éthique de la recherche en IA. [Vérifier les ressources actuellement disponibles auprès de chaque institution]
Points clés à retenir
La conformité en IA est multicouche : éthique (EPTC 2), réglementaire (Loi 25, RGPD) et technique (IA responsable by design).
L'ÉFVP est obligatoire au Québec pour tout projet impliquant des données personnelles.
Les données autochtones nécessitent un processus de consentement communautaire (PCAP®) en plus du consentement individuel.
La documentation et la traçabilité sont des exigences transversales à tous les cadres.
La diffusion des résultats doit anticiper les risques de double usage et respecter les obligations réglementaires.
Questions de réflexion
Les procédures actuelles des CÉR sont-elles adaptées pour évaluer les risques spécifiques à l'IA, ou des réformes sont-elles nécessaires ?
Comment concilier l'ouverture scientifique (partage de données et de modèles) avec les exigences croissantes de protection des données ?
Les chercheurs disposent-ils d'un soutien institutionnel suffisant pour naviguer la complexité réglementaire ? Que manque-t-il ?
Notes
CRSH, CRSNG, IRSC (2022). Énoncé de politique des trois conseils : Éthique de la recherche avec des êtres humains (EPTC 2). Secrétariat sur la conduite responsable de la recherche. Disponible sur le site du Secrétariat.
EPTC 2, chapitre 6 (Gouvernance de l'éthique de la recherche). L'examen par un CÉR est obligatoire pour toute recherche avec des êtres humains financée par les trois conseils.
L'EPTC 2 ne contient pas de section spécifique à l'IA, mais ses principes généraux (respect des personnes, préoccupation pour le bien-être, justice) s'appliquent. Certains CÉR ont développé des grilles complémentaires. [Vérifier si l'EPTC 2 a été mis à jour pour intégrer l'IA]
Loi 25, dispositions relatives à l'ÉFVP. La Commission d'accès à l'information du Québec (CAI) publie des guides pratiques pour la réalisation d'ÉFVP. Disponibles sur le site de la CAI.
Commission européenne, décision d'adéquation relative au Canada (2002). Cette décision couvre les transferts vers les organisations commerciales assujetties à la LPRPDE. [Vérifier si la décision a été réexaminée ou mise à jour]
Centre de gouvernance de l'information des Premières Nations (CGIPN). Les principes PCAP® (Propriété, Contrôle, Accès, Possession) sont un standard reconnu pour la recherche impliquant les Premières Nations au Canada. Voir le site du CGIPN.
Voir Doc 4.1 de cette bibliothèque : Guide « IA Responsable by Design ». Voir aussi : Mitchell, M. et al. (2019). Model Cards for Model Reporting. Proceedings of the ACM Conference on Fairness, Accountability, and Transparency (FAT*). [Vérifier l'année et la conférence exacte]
L'AI Act européen (Annexe IV) impose une documentation technique détaillée pour les systèmes à haut risque. Même en dehors du cadre européen, cette documentation est une bonne pratique de reproductibilité scientifique.
La question du « dual use » (double usage — usage pacifique et usage potentiellement nocif) est un enjeu de longue date dans les sciences et fait l'objet de discussions spécifiques dans le contexte de l'IA. Voir les politiques de publication de conférences comme NeurIPS. [Vérifier les politiques actuelles]
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Ce guide ne constitue pas un avis juridique. Les exigences réglementaires sont susceptibles d'évoluer. Consultez le bureau de la recherche et les services juridiques de votre institution pour un accompagnement adapté à votre projet spécifique.
Bibliothèque IA Responsable — Document 2.5
Rôle des comités d'éthique de la recherche (CÉR) face à l'IA
Défis, lacunes et pistes d'adaptation
Public : Membres de CÉR, chercheurs, administrateurs★★ IntermédiaireFormat : Fiche (2-3 pages)
Résumé exécutif
Les comités d'éthique de la recherche (CÉR) sont confrontés à des défis inédits avec l'émergence de l'IA dans les protocoles de recherche. L'EPTC 21, cadre de référence au Canada, n'a pas été conçu pour les enjeux spécifiques de l'IA. Cette fiche examine les lacunes des grilles d'évaluation actuelles, identifie les défis spécifiques et propose des pistes d'adaptation pour renforcer l'expertise IA au sein des CÉR.
1. Mandat et cadre actuel des CÉR
Au Canada, les CÉR ont pour mandat d'évaluer l'acceptabilité éthique des projets de recherche impliquant des êtres humains, conformément à l'EPTC 2.2 Leur évaluation repose sur trois principes fondamentaux : le respect des personnes, la préoccupation pour le bien-être, et la justice. Les CÉR examinent le consentement, les risques et bénéfices, la confidentialité et l'inclusion.
Ce cadre a été développé principalement pour les recherches biomédicales et comportementales. Il s'applique à la recherche en IA lorsque celle-ci implique des êtres humains — directement (participants) ou indirectement (données personnelles, impacts sur des populations).3 Cependant, plusieurs caractéristiques de l'IA mettent en difficulté les grilles d'évaluation traditionnelles.
2. Défis spécifiques posés par l'IA
Opacité des systèmes
Les modèles d'apprentissage profond sont souvent des « boîtes noires » dont le fonctionnement est difficile à expliquer, même pour leurs créateurs. Un CÉR peut difficilement évaluer les risques d'un système qu'il ne peut pas comprendre. Cette opacité complique l'évaluation du rapport risques-bénéfices, pierre angulaire de l'examen éthique.4
Consentement à géométrie variable
L'IA exploite souvent des données collectées à d'autres fins (utilisation secondaire), des données publiquement disponibles (web scraping), ou des données agrégées dont les individus ignorent l'existence. Le modèle classique du consentement individuel, libre, éclairé et spécifique est mis au défi.5
Risques collectifs et diffus
L'IA peut produire des préjudices collectifs (biais affectant un groupe démographique) plutôt qu'individuels, et des risques diffus qui ne se manifestent qu'à l'échelle du déploiement. Les CÉR sont habitués à évaluer des risques individuels pour des participants identifiés, pas des risques systémiques pour des populations.6
Évolution continue des systèmes
Un modèle IA peut évoluer après son déploiement (apprentissage continu, mises à jour). Le protocole de recherche évalué par le CÉR peut ne plus correspondre au système réellement utilisé. Les cadres d'évaluation statiques (approbation ponctuelle) sont inadaptés à des systèmes dynamiques.
Frontière floue recherche / déploiement
Avec l'IA, la frontière entre recherche et déploiement est souvent poreuse. Un prototype de recherche peut être rapidement intégré à un produit ou un service. Cette fluidité complique la détermination du moment où l'examen éthique s'applique et de sa durée.7
Déficit d'expertise technique
Les membres des CÉR ont rarement une expertise en apprentissage automatique, en science des données ou en ingénierie logicielle. Cette asymétrie d'expertise rend difficile l'évaluation critique des protocoles techniques et l'identification des risques spécifiques.
3. Pistes d'adaptation
Renforcer l'expertise IA au sein des CÉR : intégrer des membres ayant une formation en science des données ou en IA, ou recourir à des experts externes pour l'évaluation des projets impliquant l'IA. Des formations ciblées pour les membres existants sont également souhaitables.8
Développer des grilles complémentaires spécifiques à l'IA : sans remplacer l'EPTC 2, des critères complémentaires pourraient couvrir les dimensions propres à l'IA : évaluation des biais, explicabilité, impact sur les groupes vulnérables, traçabilité des données d'entraînement, plan de surveillance post-déploiement.
Passer d'une évaluation ponctuelle à un suivi continu : pour les projets IA à risque élevé, un examen éthique continu (avec des points de contrôle périodiques) serait plus approprié qu'une approbation unique en début de projet.
Intégrer l'évaluation d'impact algorithmique : exiger une Évaluation d'Impact Algorithmique (EIA) comme composante du dossier soumis au CÉR, en complément de l'évaluation éthique traditionnelle.9 Voir Doc 4.2 de cette bibliothèque.
Coordonner avec les exigences réglementaires : aligner les procédures du CÉR avec les obligations de la Loi 25 (ÉFVP) pour éviter les doublons et assurer une couverture complète. Un dossier unique répondant aux deux cadres gagnerait en efficacité.
Favoriser la collaboration inter-CÉR : les enjeux de l'IA sont transversaux. Des collaborations entre CÉR (partage de bonnes pratiques, évaluations conjointes pour les projets multi-institutionnels) permettraient de mutualiser l'expertise et d'harmoniser les standards.
🔬 Zoom sur l'écosystème montréalais
Les CÉR des universités montréalaises font face à un volume croissant de projets impliquant l'IA, alimenté par la vitalité de l'écosystème de recherche local (Mila, IVADO, HEC Montréal, UdeM). La proximité de ces institutions offre une opportunité de développer des approches coordonnées. Le Comité d'éthique de la recherche d'HEC Montréal et celui de l'Université de Montréal évaluent déjà des projets impliquant l'IA et pourraient servir de laboratoires pour l'élaboration de nouvelles grilles d'évaluation. [Vérifier les pratiques actuelles de ces CÉR]
Points clés à retenir
L'EPTC 2 s'applique à la recherche en IA impliquant des êtres humains, mais n'a pas été conçu pour ses enjeux spécifiques.
Les CÉR doivent renforcer leur expertise technique et développer des grilles complémentaires adaptées à l'IA.
Le passage à un suivi continu (plutôt qu'une approbation ponctuelle) est souhaitable pour les projets IA à risque élevé.
La coordination avec les exigences réglementaires (Loi 25) éviterait les doublons et renforcerait la protection.
Questions de réflexion
L'EPTC 2 devrait-il être mis à jour pour intégrer explicitement les enjeux de l'IA, ou des lignes directrices complémentaires suffisent-elles ?
Comment recruter et former des experts en IA pour les CÉR tout en préservant l'indépendance et la diversité de perspectives ?
Les CÉR sont-ils l'instance appropriée pour évaluer les risques sociétaux de l'IA, ou faut-il créer de nouvelles structures de gouvernance ?
Notes
CRSH, CRSNG, IRSC (2022). Énoncé de politique des trois conseils : Éthique de la recherche avec des êtres humains (EPTC 2), 2ᵉ édition. Secrétariat sur la conduite responsable de la recherche. [Vérifier si une mise à jour intégrant l'IA a été publiée]
L'examen par un CÉR est obligatoire pour toute recherche avec des êtres humains dans les institutions recevant des fonds des trois conseils (CRSH, CRSNG, IRSC). La plupart des universités canadiennes appliquent ce cadre à l'ensemble de leurs activités de recherche.
L'EPTC 2 définit la « recherche avec des êtres humains » de manière large, incluant l'utilisation de données personnelles identifiables et les interventions indirectes. Chapitre 2, articles 2.1 et suivants.
Sur l'opacité algorithmique et ses implications éthiques, voir : Burrell, J. (2016). How the machine 'thinks': Understanding opacity in machine learning algorithms. Big Data & Society, 3(1). [Vérifier le DOI]
L'EPTC 2, chapitre 3, prévoit des dispositions pour l'utilisation secondaire de données et pour les situations où le consentement individuel est impraticable. Cependant, ces dispositions n'ont pas été conçues pour l'échelle et la complexité des traitements IA.
Sur les risques collectifs de l'IA, voir : Selbst, A.D. et al. (2019). Fairness and Abstraction in Sociotechnical Systems. Proceedings of ACM FAT*. [Vérifier la référence]
Ce flou est reconnu par l'AI Act européen, qui prévoit que l'exemption de recherche cesse dès qu'un système est « mis sur le marché ou en service ». Voir Doc 2.1 de cette bibliothèque.
Certaines institutions ont créé des sous-comités spécialisés ou des comités consultatifs en IA pour appuyer le travail des CÉR. [Vérifier les exemples canadiens existants]
Gouvernement du Canada. Outil d'évaluation de l'incidence algorithmique. Conçu pour les institutions fédérales mais adaptable au contexte universitaire. Disponible sur le site du gouvernement du Canada.
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Les pratiques des CÉR varient selon les institutions et évoluent. Consultez le CÉR de votre institution et le Secrétariat sur la conduite responsable de la recherche pour les procédures en vigueur.
Bibliothèque IA Responsable — Document 3.1
Guide d'identification et de mitigation des biais algorithmiques
Cadre méthodologique · Taxonomie · Stratégies de mitigation
Public : Chercheurs, étudiants gradués, data scientists★★★ AvancéMise à jour : Annuelle
Résumé exécutif
Les biais algorithmiques constituent l'un des enjeux les plus étudiés de l'IA responsable. Ce guide propose un cadre méthodologique structuré pour identifier, mesurer et atténuer les biais à chaque étape du cycle de vie d'un modèle d'IA. Il présente les principales taxonomies de biais, les métriques d'équité formelles et leurs incompatibilités mathématiques, ainsi que les stratégies de mitigation documentées dans la littérature scientifique.
1. Taxonomie des biais algorithmiques
Les biais algorithmiques ne sont pas un phénomène unique : ils émergent de sources diverses à différentes étapes du processus. La taxonomie suivante est synthétisée à partir de plusieurs travaux de référence.1
Biais liés aux données
Biais de représentation Representation Bias
Les données d'entraînement ne reflètent pas la diversité de la population cible. Certains groupes sont sur- ou sous-représentés, produisant un modèle qui performe inégalement selon les sous-populations. L'étude Gender Shades a documenté des disparités considérables dans les systèmes de reconnaissance faciale commerciaux.2
Biais historique Historical Bias
Les données reflètent fidèlement une réalité elle-même marquée par des inégalités ou des discriminations passées. Le modèle apprend et reproduit ces inégalités structurelles, même si les données sont « correctes ». Par exemple, les systèmes de prédiction de la récidive entraînés sur des données historiques d'arrestation reproduisent les biais de sur-policing de certaines communautés.3
Biais de mesure Measurement Bias
Les variables utilisées pour représenter un phénomène ne le mesurent pas de manière équivalente pour tous les groupes. Par exemple, utiliser le score de crédit comme proxy de fiabilité financière défavorise les populations historiquement exclues du système bancaire. L'étude d'Obermeyer et al. (2019) a montré comment l'utilisation du coût des soins comme proxy de la gravité de maladie produisait un biais racial majeur.4
Biais d'étiquetage Label Bias
Les annotations humaines (étiquettes) utilisées pour l'apprentissage supervisé contiennent elles-mêmes des biais, reflétant les préjugés ou le contexte culturel des annotateurs. Ce biais est particulièrement insidieux car il est intégré directement dans la « vérité terrain » du modèle.
Biais liés au modèle
Biais d'agrégation Aggregation Bias
Un modèle unique est appliqué à des populations hétérogènes ayant des dynamiques différentes. L'agrégation masque les disparités entre sous-groupes. Ce problème est particulièrement documenté en santé, où des modèles entraînés sur des populations majoritairement blanches performent moins bien pour d'autres groupes ethniques.5
Biais d'apprentissage Learning Bias
Le choix de la fonction objectif, de l'architecture du modèle ou des hyperparamètres favorise implicitement certains résultats ou groupes. La définition même de ce que le modèle « optimise » est un choix normatif qui a des conséquences distributives.
Biais liés au déploiement
Biais d'évaluation Evaluation Bias
Le modèle est évalué sur des jeux de test qui ne sont pas représentatifs de son contexte réel d'utilisation, masquant des performances dégradées pour certains sous-groupes.
Biais de déploiement Deployment Bias
Le système est utilisé dans un contexte différent de celui pour lequel il a été conçu, ou ses résultats sont interprétés de manière biaisée par les utilisateurs humains. Le biais d'automatisation — confiance excessive dans la machine — est bien documenté dans la littérature sur les facteurs humains.6
2. Métriques d'équité et leurs incompatibilités
La recherche en équité algorithmique a produit plus de vingt définitions formelles de l'équité.7 Trois familles de métriques sont particulièrement utilisées :
Parité démographique (Demographic Parity) : le taux de résultats positifs doit être égal entre les groupes. Ex. : même pourcentage de candidats acceptés dans chaque groupe démographique.
Égalité des chances (Equalized Odds) : les taux de vrais positifs et de faux positifs doivent être égaux entre les groupes. Proposé par Hardt, Price et Srebro (2016).8
Calibration : parmi les individus ayant reçu un même score de risque, la proportion de résultats positifs réels doit être la même dans tous les groupes.
Résultat fondamental d'impossibilité : Chouldechova (2017) et Kleinberg, Mullainathan et Raghavan (2016) ont démontré indépendamment que la parité démographique, l'égalité des chances et la calibration ne peuvent être satisfaites simultanément, sauf lorsque les taux de base sont identiques entre les groupes.9 Ce résultat implique que chaque choix de métrique d'équité est un choix normatif qui doit être justifié en fonction du contexte d'application et des valeurs des parties prenantes.
3. Stratégies de mitigation par phase
Phase 1 — Pré-traitement (données)
Interventions sur les données avant entraînement
Rééchantillonnage : ajuster la distribution des données pour corriger les déséquilibres de représentation (sur-échantillonnage des groupes minoritaires, sous-échantillonnage du groupe majoritaire).
Repondération : attribuer des poids différents aux exemples d'entraînement pour compenser les déséquilibres sans modifier le jeu de données.
Transformation des données : modifier les variables pour supprimer la corrélation avec les attributs protégés, tout en préservant autant d'information utile que possible.10
Audit des étiquettes : vérifier la cohérence et l'absence de biais dans les annotations humaines, idéalement avec des annotateurs diversifiés et des protocoles de réconciliation des désaccords.
Phase 2 — En cours d'entraînement (modèle)
Contraintes d'équité dans l'optimisation
Régularisation par l'équité : ajouter un terme de pénalité dans la fonction objectif qui pénalise les disparités entre groupes, forçant le modèle à trouver un compromis entre performance et équité.
Apprentissage adverse : utiliser un réseau adversaire qui tente de prédire l'attribut protégé à partir des représentations internes du modèle, forçant le modèle à apprendre des représentations indépendantes du groupe.11
Optimisation multi-objectifs : optimiser simultanément la performance et une ou plusieurs métriques d'équité, en explorant le front de Pareto des compromis possibles.
Phase 3 — Post-traitement (résultats)
Ajustements après prédiction
Calibration différenciée : ajuster les seuils de décision différemment pour chaque groupe afin d'égaliser une métrique d'équité choisie.
Rejet avec option : dans les cas proches du seuil de décision, référer à un décideur humain plutôt que de s'appuyer sur la prédiction automatique.
Avantage : ces méthodes peuvent être appliquées sans réentraîner le modèle. Limite : elles traitent les symptômes plutôt que les causes structurelles du biais.12
4. Outils disponibles
Outil
Organisation
Fonction principale
Licence
AI Fairness 360
IBM
Métriques d'équité + algorithmes de mitigation pré/en/post
Apache 2.0
Fairlearn
Microsoft
Métriques + algorithmes de réduction et post-traitement
MIT
What-If Tool
Google
Exploration visuelle des performances par sous-groupe
Apache 2.0
Aequitas
U. Chicago
Audit d'équité pour systèmes de décision
MIT
Voir Doc 4.4 de cette bibliothèque pour une recension commentée détaillée de ces outils.
🔬 Zoom sur l'écosystème montréalais
L'écosystème montréalais contribue activement à la recherche sur les biais algorithmiques. Mila héberge des travaux sur l'équité en apprentissage automatique. IVADO soutient des projets de recherche interdisciplinaires combinant expertise technique et analyse sociale des biais. La proximité entre informaticiens, sociologues, juristes et philosophes dans le milieu universitaire montréalais favorise les approches interdisciplinaires, reconnues comme essentielles pour un enjeu qui n'est pas réductible à sa dimension technique.13
Points clés à retenir
Les biais algorithmiques émergent à chaque étape : collecte, modélisation, déploiement. Chaque étape nécessite des stratégies spécifiques.
Il est mathématiquement impossible de satisfaire toutes les définitions de l'équité simultanément — chaque choix de métrique est un choix normatif.
Les stratégies de mitigation se déploient en trois phases : pré-traitement, en cours d'entraînement, post-traitement.
Des outils open-source existent (AI Fairness 360, Fairlearn, etc.) mais leur utilisation nécessite une compréhension des choix normatifs sous-jacents.
La correction des biais est un processus continu, pas une intervention ponctuelle.
Questions de réflexion
Qui devrait décider quelle métrique d'équité est appropriée pour un contexte donné ? Les développeurs ? Les personnes affectées ? Les régulateurs ?
Les biais historiques dans les données doivent-ils être corrigés par des interventions techniques, ou est-ce le rôle de politiques sociales plus larges ?
Un modèle parfaitement « équitable » selon une métrique donnée peut-il néanmoins produire des résultats injustes ? Pourquoi ?
Notes
Mehrabi, N. et al. (2021). A survey on bias and fairness in machine learning. ACM Computing Surveys, 54(6). Suresh, H. & Guttag, J. (2021). A framework for understanding sources of harm throughout the machine learning life cycle. Proceedings of EAAMO '21. [Vérifier la référence Suresh & Guttag]
Buolamwini, J. & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research, 81, 1–15.
Le système COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) a été analysé par ProPublica en 2016. Angwin, J. et al. (2016). Machine Bias. ProPublica.
Obermeyer, Z. et al. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464), 447–453.
Le biais d'agrégation est documenté en santé, où des modèles entraînés sur des populations à diversité limitée performent moins bien pour les groupes sous-représentés. Voir les travaux sur la médecine de précision et l'équité.
Parasuraman, R. & Manzey, D. (2010). Complacency and bias in human use of automation. Human Factors, 52(3), 381–410. [pages à vérifier]
Verma, S. & Rubin, J. (2018). Fairness definitions explained. Proceedings of IEEE/ACM International Workshop on Software Fairness (FairWare). [Vérifier la conférence exacte]
Hardt, M., Price, E., & Srebro, N. (2016). Equality of opportunity in supervised learning. Advances in Neural Information Processing Systems (NeurIPS).
Chouldechova, A. (2017). Fair prediction with disparate impact: A study of bias in recidivism prediction instruments. Big Data, 5(2), 153–163. Kleinberg, J., Mullainathan, S., & Raghavan, M. (2016). Inherent trade-offs in the fair determination of risk scores. arXiv preprint arXiv:1609.05807. [Vérifier si publié dans une revue]
Feldman, M. et al. (2015). Certifying and removing disparate impact. Proceedings of the 21st ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. [pages à vérifier]
Zhang, B.H., Lemoine, B., & Mitchell, M. (2018). Mitigating unwanted biases with adversarial learning. Proceedings of AIES '18. [Vérifier la référence complète]
Corbett-Davies, S. & Goel, S. (2018). The measure and mismeasure of fairness: A critical review of fair machine learning. arXiv preprint arXiv:1808.00023. [Vérifier si publié dans une revue]
Selbst, A.D. et al. (2019). Fairness and Abstraction in Sociotechnical Systems. Proceedings of ACM FAT*. Cet article argumente que les solutions purement techniques à l'équité échouent lorsqu'elles ignorent le contexte social.
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Les outils et méthodes décrits évoluent rapidement. Consultez la documentation officielle de chaque outil et les publications récentes sur Google Scholar, ACM Digital Library et arXiv pour les mises à jour.
Les risques associés à l'IA se manifestent différemment selon les domaines d'application. Ce catalogue recense les risques spécifiques dans six domaines académiques clés, en identifiant pour chacun les cas documentés, les enjeux éthiques saillants et les mesures de précaution recommandées. Il vise à aider les chercheurs à anticiper les risques propres à leur champ disciplinaire.
Six domaines, six profils de risque
📊 Gestion et administration des affaires
Marketing · RH · Opérations · Stratégie
L'IA transforme la gestion à travers l'analytique prédictive, l'automatisation des processus et les systèmes de recommandation. Les risques touchent tant les organisations que leurs parties prenantes.1
Recrutement algorithmique : les systèmes de tri automatisé des CV peuvent reproduire des discriminations historiques (genre, origine ethnique, âge). Amazon a abandonné un outil de recrutement IA en 2018 après avoir découvert qu'il pénalisait systématiquement les candidatures féminines.2
Marketing ciblé et profilage : le micro-ciblage algorithmique soulève des enjeux de vie privée, de manipulation des consommateurs et de discrimination par les prix (dynamic pricing discriminatoire).
Surveillance des employés : les outils de suivi de la productivité par IA (surveillance des frappes, analyse des communications, reconnaissance faciale) posent des problèmes de dignité au travail et de vie privée.
Opacité décisionnelle : les systèmes d'aide à la décision en gestion peuvent devenir des « boîtes noires » où les gestionnaires perdent la compréhension et le contrôle des décisions stratégiques et opérationnelles.
💰 Finance
Crédit · Trading · Assurance · Détection de fraude
Le secteur financier est l'un des plus avancés dans l'adoption de l'IA, mais aussi l'un des plus exposés aux risques de discrimination et d'instabilité systémique.3
Scoring de crédit discriminatoire : les modèles de crédit peuvent discriminer indirectement sur la base de variables corrélées à l'origine ethnique ou au genre (code postal, historique de navigation), même sans utiliser explicitement ces attributs protégés.
Trading algorithmique et risque systémique : la vitesse et l'interconnexion des algorithmes de trading peuvent amplifier les crises financières. Le Flash Crash du 6 mai 2010 — où le Dow Jones a perdu puis regagné environ 1 000 points en quelques minutes — illustre ce risque systémique.4
Exclusion financière : les modèles entraînés sur des données historiques tendent à perpétuer l'exclusion des populations déjà marginalisées du système financier, créant un cercle vicieux de discrimination.
Assurance et discrimination : la tarification individualisée par IA peut conduire à des pratiques discriminatoires, réduisant la mutualisation des risques qui est le fondement même de l'assurance.
L'IA en santé promet des avancées considérables (détection précoce, médecine personnalisée) mais les erreurs ont des conséquences directes sur la vie des patients.5
Biais raciaux dans les algorithmes cliniques : Obermeyer et al. (2019) ont documenté un biais racial majeur dans un algorithme utilisé pour des millions de patients aux États-Unis : à gravité de maladie égale, les patients noirs recevaient des scores de risque inférieurs aux patients blancs, en raison de l'utilisation du coût des soins comme proxy.6
Fiabilité des diagnostics automatisés : les modèles de diagnostic par imagerie peuvent être trompés par des artefacts techniques ou des distributions de données différentes entre sites cliniques, conduisant à des faux positifs ou faux négatifs aux conséquences potentiellement graves.
Vie privée des données de santé : les données de santé sont parmi les plus sensibles. Leur utilisation pour entraîner des modèles IA nécessite des précautions extrêmes en matière de consentement, d'anonymisation et de sécurité.
Automatisation du jugement clinique : le risque de remplacement du jugement clinique par la recommandation algorithmique (automation bias) peut réduire la qualité des soins et la relation soignant-patient.
L'IA en droit soulève des questions fondamentales sur l'accès à la justice, l'équité des procédures et l'indépendance judiciaire.7
Justice prédictive et biais : les systèmes de prédiction de la récidive (comme COMPAS aux États-Unis) ont été critiqués pour des biais raciaux. L'analyse de ProPublica (2016) a suscité un débat majeur sur l'équité des outils de justice prédictive et l'incompatibilité des métriques d'équité.8
Accès inégal aux outils : les outils d'IA juridique (recherche, rédaction, analyse contractuelle) sont coûteux et peuvent accentuer les inégalités d'accès à la justice entre justiciables disposant de ressources et ceux qui n'en ont pas.
Hallucinations juridiques : les modèles de langage utilisés pour la recherche juridique peuvent fabriquer des références de jurisprudence inexistantes, avec des conséquences graves. Des cas documentés ont impliqué des avocats soumettant des mémoires contenant des citations fictives.9
📖 Sciences sociales
Sociologie · Science politique · Psychologie · Communication
L'IA transforme les méthodes de recherche en sciences sociales tout en soulevant des enjeux méthodologiques et éthiques spécifiques.10
Biais de représentation dans les corpus : les modèles de langage entraînés sur des corpus anglophones dominants encodent et reproduisent des stéréotypes culturels, de genre et raciaux qui peuvent contaminer les analyses en sciences sociales.
Surveillance de masse et libertés : les outils d'analyse de données massives (réseaux sociaux, communications) peuvent être détournés à des fins de surveillance et porter atteinte aux libertés civiles et à la vie privée.
Désinformation : l'IA générative facilite la production de désinformation à grande échelle, un enjeu central pour la science politique, les études en communication et la sociologie des médias.
Reproductibilité : l'utilisation d'outils IA propriétaires (dont le comportement peut changer entre versions) sans compréhension de leurs limites peut aggraver les problèmes existants de reproductibilité en sciences sociales.
L'IA en éducation promet la personnalisation de l'apprentissage mais soulève des préoccupations majeures en matière d'équité, de vie privée et d'autonomie pédagogique. L'AI Act européen classe les systèmes IA en éducation comme « haut risque ».11
Évaluation algorithmique et équité : les systèmes de notation automatisée peuvent défavoriser certains groupes. En août 2020, l'organisme Ofqual au Royaume-Uni a utilisé un algorithme pour ajuster les notes du A-Level en l'absence d'examens (pandémie COVID-19). L'algorithme a été jugé discriminatoire envers les élèves de milieux défavorisés et a été abandonné après une crise publique.12
Surveillance des apprenants : les outils de surveillance d'examens par IA (proctoring) soulèvent des préoccupations de vie privée et de discrimination (biais de reconnaissance faciale pour les personnes à peau foncée).
IA générative et intégrité académique : l'accès généralisé aux outils d'IA générative transforme les pratiques d'apprentissage et d'évaluation. Voir Doc 3.4 de cette bibliothèque pour une analyse détaillée.
Réduction de l'autonomie pédagogique : les plateformes d'apprentissage adaptatif pilotées par IA peuvent imposer des parcours standardisés, réduisant le rôle professionnel et l'autonomie de l'enseignant.
🔬 Zoom sur l'écosystème montréalais
Les six domaines couverts sont représentés dans les programmes de recherche et d'enseignement des universités montréalaises. HEC Montréal couvre particulièrement les risques en gestion et en finance. L'Université de Montréal, avec ses facultés de médecine, de droit et de sciences sociales, offre un terrain fertile pour l'étude interdisciplinaire des risques de l'IA. La diversité disciplinaire de l'écosystème est un atout pour développer des approches de mitigation adaptées à chaque domaine.
Points clés à retenir
Les risques de l'IA sont spécifiques à chaque domaine — une approche sectorielle de l'évaluation des risques est nécessaire.
Certains risques sont transversaux (biais, opacité, vie privée) mais se manifestent différemment selon les contextes d'application.
Les domaines à enjeux élevés (santé, droit, finance) nécessitent des garde-fous renforcés et une supervision humaine effective.
L'éducation est à la fois un domaine d'application et le lieu de formation des futurs praticiens — un double enjeu stratégique.
L'interdisciplinarité est indispensable pour traiter des risques qui ont des dimensions techniques, sociales et juridiques.
Questions de réflexion
Dans votre domaine de recherche ou d'enseignement, quels sont les trois risques IA que vous jugez les plus préoccupants ? Pourquoi ?
La classification de l'AI Act (systèmes IA en éducation = haut risque) est-elle justifiée ? Y a-t-il des domaines non classés à haut risque qui devraient l'être ?
Comment assurer que la mitigation des risques dans un domaine ne crée pas de nouveaux risques dans un autre ?
Notes
Pour une vue d'ensemble des risques de l'IA en gestion, voir : Tambe, P. et al. (2019). Artificial Intelligence in Human Resources Management. California Management Review, 61(4), 15–42. [Volume et pages à vérifier]
Le cas Amazon a été rapporté par Reuters en octobre 2018. L'entreprise a confirmé avoir abandonné l'outil après avoir constaté qu'il pénalisait les candidatures contenant des mots associés au genre féminin. [Source primaire : article Reuters]
Pour les risques IA en finance, voir les rapports du Financial Stability Board (FSB) sur l'IA et la stabilité financière. [Vérifier les rapports FSB les plus récents]
Le Flash Crash du 6 mai 2010 a été documenté dans un rapport conjoint de la SEC et de la CFTC. Le rôle du trading algorithmique dans l'amplification de la chute a été largement analysé. [Vérifier la référence du rapport SEC/CFTC]
Topol, E. (2019). Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again. Basic Books. Ouvrage de référence sur les promesses et risques de l'IA en santé.
Obermeyer, Z. et al. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464), 447–453. L'un des articles les plus influents sur les biais IA en santé.
Sur l'IA et le droit, voir : Pasquale, F. (2015). The Black Box Society. Harvard University Press. Voir aussi les travaux du Laboratoire de cyberjustice de l'Université de Montréal. [Vérifier si le laboratoire existe sous ce nom]
Angwin, J. et al. (2016). Machine Bias. ProPublica. Cette enquête a lancé un débat majeur sur l'équité des outils de justice prédictive et a mis en lumière le résultat d'impossibilité de Chouldechova (2017).
Des cas de juristes soumettant des mémoires contenant des références fictives générées par ChatGPT ont été documentés aux États-Unis en 2023. [Vérifier dans la presse juridique]
Salganik, M. (2018). Bit by Bit: Social Research in the Digital Age. Princeton University Press. Ouvrage de référence sur les méthodes computationnelles en sciences sociales et leurs enjeux éthiques.
AI Act, Annexe III, point 3. Les systèmes d'IA utilisés pour déterminer l'accès à l'éducation ou pour évaluer les apprenants sont explicitement classés à haut risque. Voir Doc 2.1.
En août 2020, Ofqual (Royaume-Uni) a utilisé un algorithme pour standardiser les notes A-Level. L'algorithme favorisait les écoles ayant historiquement de bons résultats, pénalisant les élèves de milieux défavorisés. Après une mobilisation massive, le gouvernement a abandonné les notes algorithmiques au profit des évaluations enseignantes.
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Les cas cités sont documentés dans la littérature mais les détails doivent être vérifiés aux sources primaires. Le paysage des risques évolue rapidement avec le déploiement de nouvelles applications d'IA.
Bibliothèque IA Responsable — Document 3.3
Enjeux spécifiques au contexte québécois et canadien
Public : Tous niveaux, chercheurs, partenaires communautaires★★ IntermédiaireFormat : Analyse (5-7 pages)
Résumé exécutif
Le Québec et le Canada présentent un contexte socioculturel singulier qui pose des défis spécifiques en matière d'IA responsable : bilinguisme officiel et pluralité linguistique, droits et souveraineté des données des peuples autochtones, diversité culturelle constitutionnellement protégée et engagement envers la réconciliation. Ce document examine ces enjeux et propose des pistes d'action pour une IA respectueuse de ce contexte.
1. Droits linguistiques et IA
Le français dans les systèmes d'IA
Le Québec est la seule juridiction en Amérique du Nord où le français est langue officielle unique. La Charte de la langue française (Loi 101), renforcée par la Loi 96 (2022), impose des obligations en matière d'offre de services en français.1 Or, les systèmes d'IA dominants sont développés principalement en anglais et pour des utilisateurs anglophones.
Les grands modèles de langage, bien qu'ils traitent le français, présentent des performances inégales selon les langues. La qualité des résultats en français — et plus encore en français québécois avec ses particularités lexicales et syntaxiques — est souvent inférieure à celle en anglais, en raison de la sous-représentation du français dans les données d'entraînement.2 Ce déséquilibre a des implications pour l'accès équitable aux services IA, la qualité des outils pédagogiques et la préservation des particularités linguistiques québécoises.
Au-delà du français, le Canada compte plus de 70 langues autochtones, dont la plupart sont considérées comme menacées selon Statistique Canada et l'UNESCO.3 Ces langues sont quasiment absentes des systèmes d'IA, ce qui contribue à leur marginalisation numérique et compromet les efforts de revitalisation linguistique.
2. Peuples autochtones et souveraineté des données
Les principes PCAP® et la gouvernance des données autochtones
Les Premières Nations du Canada ont développé les principes PCAP® — Propriété, Contrôle, Accès, Possession — comme cadre d'affirmation de leur souveraineté sur les données les concernant.4 Ces principes, élaborés par le Centre de gouvernance de l'information des Premières Nations (CGIPN), affirment que les communautés autochtones doivent avoir le contrôle de la collecte, de l'utilisation et de la conservation des données qui les concernent.
L'utilisation de données autochtones pour l'entraînement de modèles d'IA sans consentement communautaire pose des problèmes fondamentaux de souveraineté. Cela inclut les données linguistiques (enregistrements de langues autochtones), les données de santé, les données génétiques, les savoirs traditionnels et les expressions culturelles.5
Ce mouvement s'inscrit dans le contexte plus large de la réconciliation, tel qu'articulé dans les Appels à l'action de la Commission de vérité et réconciliation (CVR, 2015) et la Déclaration des Nations Unies sur les droits des peuples autochtones (DNUDPA), mise en œuvre au Canada par une loi fédérale adoptée en 2021.6
Risques spécifiques de l'IA pour les communautés autochtones
Surveillance et profilage : les systèmes de surveillance (reconnaissance faciale, analyse prédictive policière) peuvent perpétuer la surreprésentation historique des Autochtones dans le système de justice pénale canadien.
Biais dans les services publics : les systèmes IA utilisés pour l'allocation de ressources (santé, éducation, aide sociale) peuvent défavoriser les communautés autochtones si les données d'entraînement reflètent les inégalités historiques structurelles.
Extractivisme de données : la collecte de données linguistiques et culturelles autochtones par des entreprises technologiques, sans consentement communautaire ni partage des bénéfices, est une forme contemporaine d'extractivisme que plusieurs chercheurs ont dénoncée.7
3. Diversité, inclusion et équité
Biais et diversité culturelle canadienne
Le Canada se caractérise par un multiculturalisme officiellement reconnu (Loi sur le multiculturalisme canadien, 1988) et une diversité ethnoculturelle significative. Selon le recensement de 2021, plus de 25 % de la population canadienne appartenait à un groupe de minorités visibles.8 Cette diversité pose des défis spécifiques pour les systèmes d'IA :
Reconnaissance faciale et diversité : les systèmes de reconnaissance faciale présentent des taux d'erreur plus élevés pour les personnes racisées, comme l'ont documenté les travaux de Buolamwini et Gebru (2018).9 Dans un contexte aussi diversifié que le Canada, ces biais peuvent affecter un pourcentage significatif de la population.
Intersectionnalité : les discriminations algorithmiques ne se limitent pas à un seul axe. L'approche intersectionnelle, développée par Kimberlé Crenshaw (1989), examine comment les multiples dimensions de l'identité (genre, race, classe, handicap, langue) interagissent pour produire des formes spécifiques de discrimination.10 Cette approche est essentielle pour comprendre les impacts différenciés de l'IA dans un contexte aussi pluriel que le Canada.
Immigration et IA : le Canada utilise des systèmes automatisés dans le traitement des demandes d'immigration. Des préoccupations ont été soulevées quant au risque de discrimination algorithmique dans ces processus, affectant des populations particulièrement vulnérables.11
Accessibilité et handicap
La Loi canadienne sur l'accessibilité (2019) vise un Canada sans obstacles d'ici 2040.12 L'IA peut à la fois améliorer l'accessibilité (reconnaissance vocale, descriptions automatiques d'images, sous-titrage) et créer de nouvelles barrières (interfaces non accessibles, biais dans les systèmes de recrutement contre les personnes en situation de handicap, captchas visuels).
4. Pistes d'action
Recherche : développer des jeux de données et des modèles de langage représentatifs de la diversité linguistique et culturelle canadienne, incluant le français québécois et les langues autochtones. Impliquer les communautés concernées dans la conception et la gouvernance des projets.
Gouvernance : intégrer les principes PCAP® dans les politiques de gestion des données des institutions de recherche. Consulter les communautés autochtones avant tout projet impliquant leurs données ou leurs communautés.
Évaluation : évaluer systématiquement les systèmes d'IA pour les biais liés aux attributs protégés pertinents dans le contexte canadien, avec une attention particulière aux effets intersectionnels.
Formation : intégrer les enjeux de diversité, d'inclusion et de réconciliation dans la formation en IA, à tous les niveaux (BAC, maîtrise, doctorat, formation continue).
🔬 Zoom sur l'écosystème montréalais
Montréal, ville parmi les plus diversifiées au Canada, est un terrain naturel pour la recherche sur l'IA inclusive. L'Université de Montréal et ses partenaires ont contribué à la Déclaration de Montréal, dont le principe d'« inclusion de la diversité » (principe 7) vise explicitement ces enjeux. Des travaux de recherche sur le traitement du langage naturel en français québécois sont menés dans l'écosystème. Le défi reste de traduire ces engagements de principe en pratiques concrètes et mesurables dans les projets de recherche et les programmes de formation.
Points clés à retenir
Le contexte québécois et canadien pose des enjeux IA spécifiques : bilinguisme, pluralité autochtone, multiculturalisme, immigration.
Les principes PCAP® sont un cadre incontournable pour tout projet impliquant des données autochtones.
La sous-représentation du français et des langues autochtones dans les systèmes IA est un enjeu d'équité linguistique.
L'approche intersectionnelle est essentielle pour comprendre les impacts différenciés de l'IA.
La réconciliation avec les peuples autochtones a des implications directes pour l'éthique de la recherche en IA.
Questions de réflexion
Comment les principes PCAP® pourraient-ils être opérationnalisés concrètement dans un projet de recherche en IA impliquant des données autochtones ?
Les universités québécoises ont-elles une responsabilité particulière en matière de développement d'outils IA en français ? Comment l'assumer concrètement ?
L'IA peut-elle contribuer positivement à la revitalisation des langues autochtones, ou est-elle principalement un risque de marginalisation supplémentaire ?
Notes
Charte de la langue française (Loi 101), RLRQ, c C-11. La Loi 96 (Loi sur la langue officielle et commune du Québec, le français), sanctionnée en 2022, renforce les obligations en matière de français. [Vérifier les dispositions spécifiques applicables aux services numériques et à l'IA]
Plusieurs études et benchmarks multilingues documentent les disparités de performance entre l'anglais et d'autres langues dans les modèles de langage. Le français, bien que mieux représenté que la plupart des langues, reste significativement sous-représenté par rapport à l'anglais. [Vérifier les benchmarks récents comme FLORES, XTREME]
Statistique Canada, Recensement 2021. UNESCO, Atlas des langues en danger dans le monde. Environ 70 langues autochtones sont parlées au Canada, mais la majorité ont un nombre de locuteurs en déclin. [Vérifier les données du recensement 2021]
Centre de gouvernance de l'information des Premières Nations (CGIPN). Les principes PCAP® (Propriété, Contrôle, Accès, Possession) sont une marque déposée du CGIPN. Documentation officielle disponible sur le site du CGIPN.
Sur la souveraineté des données autochtones, voir : Kukutai, T. & Taylor, J. (Eds.) (2016). Indigenous Data Sovereignty: Toward an Agenda. ANU Press. [Vérifier l'éditeur exact]
Commission de vérité et réconciliation du Canada (2015). Appels à l'action. Disponible sur le site de la CVR. Loi sur la Déclaration des Nations Unies sur les droits des peuples autochtones (L.C. 2021, c 14), adoptée par le Parlement du Canada en juin 2021.
Couldry, N. & Mejias, U. (2019). The Costs of Connection: How Data Is Colonizing Human Life and Appropriating It for Capitalism. Stanford University Press. Le concept d'« extractivisme de données » est de plus en plus utilisé dans les études critiques du numérique.
Loi sur le multiculturalisme canadien, L.R.C. 1985, c 24 (4e suppl.). Statistique Canada, Recensement 2021 : données sur la diversité ethnoculturelle. [Vérifier le pourcentage exact de minorités visibles]
Buolamwini, J. & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research, 81, 1–15.
Crenshaw, K. (1989). Demarginalizing the intersection of race and sex: A Black feminist critique of antidiscrimination doctrine, feminist theory and antiracist politics. University of Chicago Legal Forum, 1989(1), 139–167. Article fondateur du concept d'intersectionnalité.
Molnar, P. & Gill, L. (2018). Bots at the Gate: A Human Rights Analysis of Automated Decision-Making in Canada's Immigration and Refugee System. Citizen Lab / International Human Rights Program, University of Toronto. [Vérifier l'année et les auteurs exacts]
Loi canadienne sur l'accessibilité, L.C. 2019, c 10. Vise à identifier, éliminer et prévenir les obstacles dans les domaines de compétence fédérale.
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Les enjeux autochtones sont particulièrement sensibles ; ce document ne saurait se substituer à la consultation directe des communautés et de leurs institutions représentatives. Les statistiques et le cadre juridique sont susceptibles d'avoir évolué. Consultez les sources primaires.
Public : Professeurs, étudiants, administrateurs★ IntroductifMise à jour : Bisannuelle (évolution très rapide)
Résumé exécutif
Depuis fin 2022, l'IA générative (ChatGPT, Claude, Gemini, Copilot, etc.) a bouleversé le paysage académique. Cette fiche fait le point sur les risques pour l'intégrité académique, les capacités et limites des outils de détection, et les approches pédagogiques émergentes qui privilégient l'encadrement plutôt que l'interdiction. Elle s'adresse à tous les acteurs de l'enseignement supérieur confrontés à la nécessité d'adapter rapidement leurs pratiques.
1. Les risques pour l'intégrité académique
Plagiat et fabrication de contenu
Les modèles de langage peuvent produire des textes originaux, structurés et fluides en réponse à des consignes académiques. Contrairement au plagiat traditionnel (copie d'une source existante), le contenu généré par IA est « nouveau » — il ne figure dans aucune base de données de plagiat, rendant la détection par les outils classiques (Turnitin, Compilatio) inefficace dans sa forme traditionnelle.1
Fabrication de références
Les modèles de langage peuvent générer des citations et des références bibliographiques plausibles mais entièrement fictives (phénomène d'hallucination). Un étudiant — ou un chercheur — utilisant l'IA sans vérification peut soumettre un travail contenant des sources inexistantes. Des incidents documentés dans le milieu juridique américain ont mis en lumière la gravité de ce problème.2
Dépendance cognitive et appauvrissement de l'apprentissage
L'utilisation systématique de l'IA pour les travaux académiques peut court-circuiter les processus cognitifs essentiels à l'apprentissage : recherche bibliographique, lecture critique, synthèse, structuration de la pensée, rédaction argumentée. Le risque n'est pas seulement l'intégrité du diplôme, mais la qualité de la formation elle-même et le développement des compétences de pensée critique.3
Inégalités d'accès
Les versions premium des outils d'IA générative (ChatGPT Plus, Claude Pro, etc.) offrent des performances significativement supérieures aux versions gratuites. Le risque d'une fracture entre étudiants disposant de moyens financiers pour accéder aux meilleurs outils et ceux limités aux versions gratuites ou de base est un enjeu d'équité non négligeable.4
Analysent les caractéristiques statistiques du texte (perplexité, burstiness) pour distinguer texte humain et texte IA.
Variable. Taux de faux positifs significatifs, surtout pour les locuteurs non natifs de l'anglais. Fiabilité généralement réduite en français.5
Watermarking (filigranes statistiques)
Les fournisseurs de modèles intègrent des motifs statistiques imperceptibles dans le texte généré, détectables par un outil dédié.
Prometteur mais nécessite la coopération des fournisseurs. Peut être contourné par la reformulation ou le mélange de sources.6
Détection intégrée (Turnitin AI)
Turnitin a intégré un module de détection IA distinct de sa détection de plagiat classique.
Résultats améliorés par rapport aux outils indépendants mais faux positifs persistants. Fiabilité en français inférieure à l'anglais.7
Consensus émergent : la communauté académique reconnaît de plus en plus que la détection technique seule ne peut pas être la solution. Les faux positifs peuvent stigmatiser injustement des étudiants (en particulier les locuteurs non natifs), et les stratégies de contournement progressent aussi vite que les outils de détection. La détection est un complément, pas une solution.8
Face aux limites de l'interdiction et de la détection, de nombreuses institutions privilégient une approche d'encadrement. Cinq stratégies complémentaires se dégagent :
1. Transparence et divulgation : exiger que les étudiants déclarent explicitement leur utilisation de l'IA, en précisant les outils utilisés, les prompts fournis et les modifications apportées au contenu généré. Des modèles de mentions de divulgation peuvent être intégrés aux consignes de travaux. Voir Doc 4.5 et Doc 6.3 de cette bibliothèque.
2. Redesign des évaluations : concevoir des évaluations qui résistent mieux à l'utilisation non déclarée de l'IA. Parmi les pistes : évaluations orales, travaux réflexifs intégrant l'expérience personnelle, évaluations en classe sans accès numérique, travaux en plusieurs étapes avec rétroaction formative, et portfolios montrant l'évolution de la pensée au fil du temps.9
3. Développement de la littératie IA : former les étudiants à utiliser l'IA de manière critique et responsable, en comprenant ses limites (hallucinations, biais, manque de fiabilité factuelle), plutôt que de prétendre qu'ils ne l'utiliseront pas. L'IA devient un objet d'apprentissage autant qu'un outil.
4. Politiques institutionnelles claires : adopter des politiques claires et cohérentes au niveau institutionnel, distinguant les usages acceptables (brainstorming, correction linguistique) des usages non acceptables (substitution de la réflexion, fabrication de contenu soumis comme travail original). Voir Doc 7.1 pour un modèle de politique institutionnelle.
5. Évaluation par processus : évaluer le processus de travail (méthodologie, démarche réflexive, progression, capacité d'auto-critique) autant que le produit final, rendant l'utilisation non déclarée de l'IA plus difficile à dissimuler et moins profitable pour l'apprentissage.
🔬 Zoom sur l'écosystème montréalais
Les universités montréalaises ont dû réagir rapidement à l'émergence de l'IA générative. Plusieurs ont publié des directives institutionnelles encadrant l'utilisation de l'IA dans les travaux académiques. Le défi est de trouver un équilibre entre la préparation des étudiants au monde professionnel (où ces outils sont utilisés quotidiennement) et la préservation de la rigueur académique et des compétences fondamentales. La proximité de Mila et de l'écosystème IA montréalais est un atout pour développer des approches informées et nuancées, fondées sur une compréhension technique des outils.10
Points clés à retenir
L'IA générative pose un défi sans précédent pour l'intégrité académique — le problème ne disparaîtra pas et s'intensifiera.
La détection technique a des limites fondamentales (faux positifs, contournement, biais linguistiques contre les non-natifs).
L'approche pédagogique — encadrer, former, adapter les évaluations — est plus durable et éducative que l'interdiction pure.
La transparence (obligation de divulgation de l'usage de l'IA) est un pilier essentiel de tout cadre d'encadrement.
Les politiques doivent être claires, cohérentes et régulièrement mises à jour face à l'évolution très rapide des outils.
Questions de réflexion
Si un étudiant utilise l'IA pour brainstormer, structurer ses idées et corriger son texte, mais que la pensée est la sienne — est-ce du plagiat ? Où tracer la ligne entre assistance légitime et substitution ?
L'interdiction de l'IA dans les travaux académiques est-elle réaliste à moyen terme ? Quelles en seraient les conséquences sur la préparation professionnelle des diplômés ?
Les outils de détection d'IA devraient-ils être utilisés comme preuve d'inconduite académique, compte tenu de leurs taux de faux positifs documentés ?
Notes
Les outils de détection de plagiat traditionnels comparent les textes soumis à une base de données de textes existants. Le contenu généré par IA étant original (non copié d'une source identifiable), il échappe à cette détection. Turnitin a ajouté un module de détection IA en 2023, distinct de sa détection de plagiat classique.
En 2023, un avocat new-yorkais a soumis un mémoire juridique contenant des citations de jurisprudence entièrement fictives, générées par ChatGPT. L'affaire a été largement couverte par la presse juridique et générale. [Vérifier les détails de l'affaire dans la presse juridique — plusieurs incidents similaires ont été rapportés]
Sur les risques cognitifs de la dépendance aux outils numériques, le concept de « décharge cognitive » (cognitive offloading) est documenté dans la littérature en psychologie cognitive. L'IA générative amplifie ce phénomène en automatisant des tâches intellectuelles complexes. [Vérifier les publications récentes sur la décharge cognitive dans le contexte spécifique de l'IA]
Les versions premium (ChatGPT Plus/Team, Claude Pro, Gemini Advanced, etc.) offrent l'accès à des modèles plus performants, des temps de réponse plus rapides et des fonctionnalités avancées. Cette asymétrie de capacités crée un risque d'inégalité dans les performances académiques.
Liang, W. et al. (2023). GPT detectors are biased against non-native English writers. arXiv preprint. Cette étude a montré que les détecteurs d'IA produisent des faux positifs significativement plus fréquents pour les textes écrits par des locuteurs non natifs de l'anglais. [Vérifier si publié dans une revue à comité de lecture]
Kirchenbauer, J. et al. (2023). A watermark for large language models. Proceedings of ICML 2023. Le watermarking est techniquement prometteur mais nécessite la coopération des fournisseurs de modèles et peut être contourné par des techniques de paraphrase. [Vérifier la conférence exacte]
Turnitin a déployé son module de détection IA en 2023. La fiabilité varie selon les langues, les modèles de langage utilisés et le degré de modification post-génération. [Consulter le site de Turnitin pour les données de performance les plus récentes]
Ce consensus est reflété dans les prises de position de nombreuses associations universitaires et dans la littérature sur l'intégrité académique. Voir les recommandations de l'International Center for Academic Integrity (ICAI) et les orientations de l'UNESCO sur l'IA générative en éducation. [Vérifier les recommandations ICAI et UNESCO les plus récentes]
Pour des exemples concrets d'évaluations résistantes à l'utilisation non déclarée de l'IA, voir les ressources des centres de pédagogie universitaire et les publications de l'UNESCO. Voir aussi Doc 6.2 (études de cas pédagogiques) et Doc 6.4 (grille d'évaluation éthique) de cette bibliothèque.
[Vérifier les directives et politiques actuelles d'HEC Montréal, de l'Université de Montréal et de Polytechnique Montréal en matière d'IA générative dans l'enseignement — ces politiques évoluent rapidement]
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Le domaine de l'IA générative en contexte académique évolue extrêmement rapidement. Les outils de détection, les politiques institutionnelles et les pratiques pédagogiques sont susceptibles d'avoir considérablement changé depuis la rédaction. Consultez les ressources les plus récentes de votre institution.
Bibliothèque IA Responsable — Document 3.5
Concentration du pouvoir IA et dépendance technologique
Enjeux pour la souveraineté académique
Public : Chercheurs, administrateurs, analystes de politique★★★ AvancéFormat : Note critique (4-5 pages)
Résumé exécutif
Le développement de l'IA est marqué par une concentration sans précédent du pouvoir entre un nombre restreint de grandes entreprises technologiques. Cette concentration affecte l'infrastructure, les données, les talents et les normes. Pour les universités, elle soulève des questions fondamentales de souveraineté académique, de liberté de recherche et d'autonomie institutionnelle. Cette note critique analyse ces dynamiques et propose des pistes d'action.
1. La concentration du pouvoir IA
L'écosystème de l'IA est structuré par des asymétries de pouvoir considérables. Quelques entreprises — principalement les « Big Tech » américaines (Google/Alphabet, Microsoft, Meta, Amazon, Apple) et chinoises (Baidu, Alibaba, Tencent, ByteDance) — dominent les ressources critiques nécessaires au développement de l'IA avancée.1
Concentration de l'infrastructure de calcul
L'entraînement de grands modèles de fondation nécessite des ressources computationnelles considérables (clusters de GPU/TPU spécialisés), largement contrôlées par les hyperscalers du cloud (AWS, Azure, Google Cloud). Le coût d'entraînement d'un modèle de pointe se chiffre en dizaines, voire centaines de millions de dollars — une barrière à l'entrée quasi infranchissable pour les universités et les petits pays.2
Concentration des données
Les grandes plateformes accumulent des volumes de données massifs à travers leurs services (recherche, réseaux sociaux, commerce, messagerie). Ces données, essentielles à l'entraînement de modèles performants, ne sont pas accessibles aux chercheurs académiques. L'asymétrie d'accès aux données est un facteur structurel de la domination industrielle sur la recherche universitaire.3
Concentration des talents
Les entreprises technologiques attirent les chercheurs académiques avec des salaires considérablement supérieurs et des ressources de calcul incomparables. Ce « brain drain » appauvrit les capacités de recherche publique et universitaire. Les rapports de l'AI Index (Stanford HAI) documentent la part croissante des publications de recherche produites par l'industrie par rapport aux universités.4
Concentration du pouvoir normatif
Les entreprises qui développent les modèles de fondation font des choix normatifs conséquents (filtrage de contenu, alignement des valeurs, politiques d'utilisation) qui affectent des centaines de millions d'utilisateurs sans processus démocratique de légitimation. Les universités deviennent utilisatrices de systèmes dont elles ne contrôlent ni la conception, ni l'évolution, ni les conditions d'accès.5
2. Implications pour la souveraineté académique
Dépendance infrastructurelle
Les universités dépendent de plus en plus d'infrastructures cloud propriétaires (Microsoft Azure, Google Workspace, AWS) pour leur recherche, leur enseignement et leur gestion administrative. Les données institutionnelles et de recherche sont hébergées sur des serveurs contrôlés par des entreprises étrangères, soumis à des législations extraterritoriales comme le CLOUD Act américain (2018), qui permet aux autorités américaines d'exiger l'accès aux données hébergées par des entreprises américaines même à l'étranger.6
Dépendance aux modèles et outils
L'utilisation croissante de modèles propriétaires (GPT, Gemini, Claude) dans l'enseignement et la recherche crée une dépendance à des outils dont les conditions d'utilisation, les performances et la disponibilité sont unilatéralement contrôlées par des entreprises privées. Un changement de politique tarifaire, une modification des conditions d'utilisation ou une interruption de service peut avoir des impacts directs et immédiats sur les activités académiques.7
Influence sur l'agenda de recherche
Les financements de l'industrie technologique pour la recherche universitaire en IA, bien qu'importants, peuvent orienter les agendas vers les intérêts commerciaux au détriment de la recherche fondamentale ou critique. Les partenariats université-industrie, s'ils ne sont pas rigoureusement encadrés, peuvent compromettre l'indépendance académique.8
Érosion de la reproductibilité scientifique
L'utilisation de modèles propriétaires dans la recherche pose des problèmes de reproductibilité : les modèles sont mis à jour sans préavis ni documentation des changements, les résultats peuvent varier dans le temps, et les chercheurs n'ont pas accès aux détails techniques nécessaires à la réplication. La science ouverte est compromise lorsque les outils centraux sont des boîtes noires commerciales.9
3. Pistes de résistance et d'autonomie
Investir dans l'infrastructure publique de calcul : des initiatives comme l'Alliance de recherche numérique du Canada fournissent des ressources de calcul haute performance aux chercheurs canadiens. Le renforcement de ces capacités publiques est un levier essentiel de souveraineté.10
Soutenir les modèles ouverts : les modèles en accès libre (LLaMA de Meta, Mistral, le projet BLOOM) offrent une alternative aux modèles propriétaires. Les universités peuvent contribuer au développement de modèles ouverts, en particulier pour le français et les langues sous-représentées.11
Développer des politiques de souveraineté numérique : chaque institution devrait évaluer sa dépendance technologique et élaborer une stratégie de diversification (plans de sortie, alternatives locales ou open source). Voir Doc 7.1 de cette bibliothèque.
Encadrer les partenariats avec l'industrie : les ententes de collaboration doivent protéger l'indépendance de recherche, la propriété intellectuelle et l'accès aux données. Voir Doc 7.3 de cette bibliothèque.
Former à la pensée critique sur les dépendances : intégrer dans les programmes une réflexion critique sur les structures de pouvoir de l'écosystème IA, au-delà des seules compétences techniques.
Coopération francophone : les universités francophones (Québec, France, Belgique, Suisse, Afrique) ont un intérêt commun à développer des ressources IA en français et à mutualiser leurs capacités face à la domination anglophone.
🔬 Zoom sur l'écosystème montréalais
Montréal se trouve dans une position paradoxale : c'est à la fois un pôle mondial de recherche en IA (Mila, IVADO, universités) et un écosystème dont la vitalité dépend en partie des investissements des grandes entreprises technologiques qui y ont établi des laboratoires (Google, Meta, Microsoft, Samsung, entre autres).12 Ce paradoxe illustre les tensions entre l'ambition de souveraineté et la réalité de l'intégration dans un écosystème mondial dominé par les Big Tech. La prise de conscience de ces enjeux et un débat institutionnel ouvert sont des conditions préalables à toute action structurante.
Points clés à retenir
La concentration du pouvoir IA entre quelques entreprises affecte l'infrastructure, les données, les talents et les normes.
Les universités sont de plus en plus dépendantes d'outils et d'infrastructures qu'elles ne contrôlent pas — un risque structurel pour la souveraineté académique.
L'utilisation de modèles propriétaires dans la recherche compromet la reproductibilité scientifique.
Des alternatives existent (modèles ouverts, infrastructure publique, coopération francophone) mais nécessitent des investissements et une volonté politique.
La souveraineté académique n'est pas un luxe — c'est une condition de la liberté de recherche et de l'intégrité institutionnelle.
Questions de réflexion
La souveraineté académique en matière d'IA est-elle un objectif réaliste, ou les universités doivent-elles accepter une forme de dépendance technologique et en gérer les risques ?
Comment les universités peuvent-elles bénéficier des partenariats avec l'industrie sans compromettre leur indépendance intellectuelle ?
Les modèles en accès libre constituent-ils une véritable alternative aux modèles propriétaires pour la recherche académique, ou créent-ils de nouvelles formes de dépendance ?
Notes
Pour une analyse de la concentration du pouvoir IA, voir : Whittaker, M. (2021). The steep cost of capture. Interactions, 28(6), 50–55. Voir aussi les rapports de l'AI Now Institute (New York University). [Vérifier la référence Whittaker]
Les coûts d'entraînement des modèles de pointe sont difficiles à vérifier car rarement divulgués officiellement. Des estimations publiées dans la presse spécialisée et certaines publications académiques situent le coût de GPT-4 à plus de 100 millions de dollars. [Les chiffres exacts doivent être vérifiés dans des sources récentes — ils évoluent rapidement]
Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs. Ouvrage de référence sur l'accumulation de données comportementales par les grandes plateformes.
Stanford HAI. AI Index Report (annuel). Le rapport documente la part croissante des publications industrielles par rapport aux publications académiques en IA. [Consulter le rapport AI Index le plus récent pour les données à jour]
Pasquale, F. (2015). The Black Box Society: The Secret Algorithms That Control Money and Information. Harvard University Press. Analyse du pouvoir normatif exercé par les systèmes algorithmiques opaques.
CLOUD Act (Clarifying Lawful Overseas Use of Data Act), 2018, États-Unis. Cette loi permet aux autorités américaines d'exiger l'accès aux données hébergées par des entreprises américaines, indépendamment du lieu de stockage physique des données.
Des changements de tarification significatifs des API d'IA ont déjà affecté des projets de recherche et des applications éducatives. Le risque de vendor lock-in (enfermement propriétaire) est un enjeu classique en gestion des technologies de l'information.
Abdalla, M. & Abdalla, M. (2021). The Grey Hoodie Project: Big Tobacco, Big Tech, and the threat on academic integrity. Proceedings of AIES '21. Cet article établit un parallèle entre l'influence de l'industrie du tabac et celle de l'industrie technologique sur la recherche académique. [Vérifier la référence complète]
Les problèmes de reproductibilité liés aux modèles propriétaires sont discutés dans la communauté scientifique, notamment dans les conférences NeurIPS et ICML. Le fait que les modèles propriétaires puissent être modifiés sans préavis rend la réplication exacte des résultats impossible.
L'Alliance de recherche numérique du Canada (anciennement Calcul Canada et partenaires régionaux) fournit des infrastructures de calcul haute performance aux chercheurs canadiens. [Vérifier le nom et la structure actuels de l'organisme]
Le projet BLOOM (BigScience Large Open-science Open-access Multilingual Language Model), coordonné par Hugging Face avec la participation de chercheurs de nombreux pays, est un exemple de collaboration internationale pour un modèle de langage ouvert et multilingue incluant le français.
Google, Meta (anciennement Facebook), Microsoft, Samsung et d'autres entreprises ont établi des laboratoires de recherche en IA à Montréal, attirés par le bassin de talents formés par Mila et les universités. [Vérifier la liste des laboratoires industriels actuellement actifs à Montréal — des ouvertures et fermetures se produisent régulièrement]
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Les dynamiques de concentration du pouvoir IA évoluent rapidement (fusions, acquisitions, nouvelles régulations, ouverture de modèles). Les analyses présentées reflètent les tendances documentées dans la littérature mais doivent être complétées par une veille continue.
Bibliothèque IA Responsable — Document 4.1
Guide « IA Responsable by Design »
Pour la conception de projets de recherche et d'enseignement
L'approche « IA Responsable by Design » vise à intégrer les principes éthiques dès la conception d'un projet, plutôt qu'en aval. Ce guide propose un parcours en cinq phases — de l'idéation à l'évaluation continue — avec des questions-guides et des points de contrôle éthiques à chaque étape. Il s'inspire du Value-Sensitive Design1 et des cadres de gouvernance de l'IA, adaptés au contexte universitaire québécois.
Principe directeur
L'éthique de l'IA ne se réduit pas à une vérification finale. Les choix de conception les plus déterminants — sélection des données, définition de l'objectif, choix de la population cible — se font en amont. Une fois le système construit, les possibilités de correction sont limitées et coûteuses. L'approche by design intègre la réflexion éthique comme composante structurelle du processus de conception, au même titre que les exigences techniques ou de performance.2
Les cinq phases
01
Idéation — Pourquoi ce projet et pour qui ?
Avant toute considération technique, clarifier la finalité du projet et identifier les parties prenantes. Qui bénéficiera du système ? Qui pourrait en subir les effets négatifs ? Le problème nécessite-t-il réellement une solution IA, ou des approches plus simples seraient-elles préférables ?3
Questions-guides : Quel problème résolvons-nous ? Pour qui ? Qui sont les parties prenantes (bénéficiaires, affectés, exclus) ? Avons-nous consulté les communautés concernées ? L'IA est-elle la solution appropriée ? Quels sont les risques d'échec et leurs conséquences ?
Points de contrôle : Cartographie des parties prenantes réalisée · Analyse de proportionnalité (l'IA est-elle nécessaire ?) · Risques initiaux identifiés · Consentement des communautés concernées planifié (PCAP® si données autochtones)
02
Conception — Données, modèle et choix normatifs
Les choix de conception déterminent le comportement du système. La sélection des données d'entraînement, la définition de la variable cible, le choix de la fonction objectif et des métriques d'évaluation sont autant de décisions normatives qui doivent être explicites et justifiées.4
Questions-guides : D'où viennent les données ? Sont-elles représentatives ? Quels biais historiques pourraient-elles contenir ? Quelle définition de l'« équité » est appropriée à ce contexte ? Quelle est notre fonction objectif et que maximise-t-elle réellement ? Quels compromis acceptons-nous entre performance et équité ?
Points de contrôle : Audit de représentativité des données · Métriques d'équité choisies et justifiées · ÉFVP réalisée (Loi 25) · Protocole soumis au CÉR · Documentation des choix de conception (model card)5
03
Développement — Construction avec garde-fous intégrés
Durant le développement, intégrer des mécanismes de vérification continue : tests d'équité systématiques, documentation au fil de l'eau, versionnage des données et du modèle. Prévoir des mécanismes de supervision humaine et d'interruption (kill switch).
Questions-guides : Testons-nous régulièrement les performances par sous-groupe ? Les résultats intermédiaires révèlent-ils des biais ? La documentation est-elle à jour ? Un mécanisme de supervision humaine est-il en place ?
Points de contrôle : Tests d'équité par sous-groupe à chaque itération · Documentation continue (données, modèle, décisions) · Mécanisme de supervision humaine opérationnel · Registre des versions
04
Déploiement — Mise en contexte et vigilance
Le passage du laboratoire au déploiement est un moment critique. Le contexte réel peut différer des conditions d'entraînement. Informer les utilisateurs de la nature IA du système et de ses limites. Mettre en place une surveillance continue et des mécanismes de rétroaction.6
Questions-guides : Les utilisateurs savent-ils qu'ils interagissent avec un système IA ? Connaissent-ils ses limites ? Le système fonctionne-t-il comme prévu dans le contexte réel ? Les populations affectées ont-elles un recours ?
Points de contrôle : Information des utilisateurs (transparence) · Plan de surveillance post-déploiement · Mécanisme de recours pour les personnes affectées · Plan d'intervention en cas d'incident · Conformité AI Act vérifiée si déploiement UE
05
Évaluation continue — Apprentissage et amélioration
L'évaluation éthique ne s'arrête pas au déploiement. Les systèmes IA évoluent (dérive des données, changement de contexte d'usage). Une évaluation périodique est nécessaire pour détecter les dérives, intégrer les retours des utilisateurs et des personnes affectées, et mettre à jour le système.7
Questions-guides : Les performances sont-elles stables dans le temps et entre sous-groupes ? Y a-t-il des usages non anticipés ? Les retours des utilisateurs et des personnes affectées sont-ils intégrés ? Le contexte réglementaire a-t-il évolué ?
Points de contrôle : Audit d'équité périodique (voir Doc 4.3) · Rapport d'évaluation publié · Retours des parties prenantes collectés et analysés · Mise à jour du système si nécessaire · Renouvellement de l'approbation CÉR si applicable
Intégration avec les cadres existants
Ce guide n'est pas un cadre isolé. Il s'articule avec les obligations existantes :
EPTC 2 : les phases 1 et 2 alimentent directement le protocole soumis au CÉR.8
Loi 25 : l'ÉFVP s'intègre à la phase 2 (conception). Voir Doc 2.2.
AI Act : pour les systèmes à haut risque déployés dans l'UE, les phases 3-5 correspondent aux exigences de gestion des risques, documentation et surveillance. Voir Doc 2.1.
EIA : l'Évaluation d'Impact Algorithmique (Doc 4.2) peut être réalisée à la transition entre les phases 2 et 3.
🔬 Zoom sur l'écosystème montréalais
L'approche by design s'inscrit dans la continuité du principe de « prudence » de la Déclaration de Montréal (2018), qui invite à anticiper les impacts plutôt qu'à réagir après coup. Les chercheurs de l'écosystème montréalais disposent de ressources (Mila, IVADO, bureaux de la recherche des universités) pour appuyer la mise en œuvre de ce type de démarche. L'enjeu est de passer de la sensibilisation à l'intégration systématique dans les pratiques de recherche.9
Points clés à retenir
L'éthique by design intègre la réflexion éthique dès l'idéation, pas en fin de parcours.
Cinq phases : idéation, conception, développement, déploiement, évaluation continue.
Chaque phase comporte des questions-guides et des points de contrôle concrets.
Le guide s'articule avec les cadres existants (EPTC 2, Loi 25, AI Act, EIA).
La documentation continue est essentielle pour l'imputabilité et la reproductibilité.
Questions de réflexion
Dans votre dernier projet impliquant l'IA, à quelle phase la réflexion éthique a-t-elle commencé ? Aurait-elle pu commencer plus tôt ?
La question « l'IA est-elle la solution appropriée ? » (phase 1) est-elle réaliste dans un contexte où les incitatifs favorisent l'adoption de l'IA ?
Comment assurer que l'évaluation continue (phase 5) ne devienne pas un exercice bureaucratique sans impact réel ?
Notes
Friedman, B., Hendry, D. G., & Borning, A. (2017). A survey of value sensitive design methods. Foundations and Trends in HCI, 11(2), 63–125. [Volume à vérifier]
L'approche by design est analogue au principe de Privacy by Design développé par Ann Cavoukian, qui a influencé le RGPD européen. L'extension aux dimensions éthiques de l'IA est une évolution naturelle.
La question de la proportionnalité (l'IA est-elle nécessaire ?) est un principe de la Recommandation de l'UNESCO sur l'éthique de l'IA (2021), principe 1 (proportionnalité et innocuité).
Sur les choix normatifs dans la conception des systèmes IA, voir : Winner, L. (1980). Do artifacts have politics? Daedalus, 109(1), 121–136. Article fondateur sur la dimension politique des choix techniques.
Mitchell, M. et al. (2019). Model Cards for Model Reporting. Proceedings of ACM FAT*. Les model cards sont un format de documentation standardisé pour les modèles IA. [Vérifier conférence exacte]
L'AI Act européen impose des obligations de transparence et de supervision humaine pour les systèmes à haut risque. Voir Doc 2.1.
La dérive des données (data drift) et la dérive conceptuelle (concept drift) sont des phénomènes bien documentés où les performances d'un modèle se dégradent au fil du temps.
CRSH, CRSNG, IRSC (2022). EPTC 2. Le chapitre 2 (portée et approche) et le chapitre 4 (consentement) sont directement pertinents pour les phases 1-2 du guide.
Déclaration de Montréal pour un développement responsable de l'IA (2018). Principe 8 : prudence. Disponible sur le site de la Déclaration.
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Ce guide est un cadre de référence à adapter au contexte spécifique de chaque projet. Consultez les bureaux de la recherche et les CÉR de votre institution pour un accompagnement personnalisé.
L'Évaluation d'Impact Algorithmique (EIA) est un processus structuré visant à identifier et évaluer les impacts potentiels d'un système de décision automatisée avant son déploiement. Cette fiche adapte au contexte universitaire québécois la méthodologie développée par le gouvernement du Canada1, en proposant un protocole en six étapes réalisable par une équipe de recherche.
1. Origines et cadre
Le gouvernement du Canada a développé un Outil d'évaluation de l'incidence algorithmique (OEIA) dans le cadre de sa Directive sur la prise de décisions automatisée (2019).2 Cet outil classe les systèmes en quatre niveaux d'incidence et détermine les obligations correspondantes. L'AI Act européen impose également des évaluations d'impact pour les systèmes à haut risque.3
Dans le contexte universitaire, l'EIA complète (mais ne remplace pas) l'évaluation par le CÉR et l'ÉFVP de la Loi 25. Elle se concentre spécifiquement sur les impacts algorithmiques : biais, équité, transparence et impacts sociétaux du système IA lui-même.
2. Protocole en six étapes
Étape 1 — Description du système
Décrire le système IA, sa finalité, les données utilisées, le type de modèle, les décisions qu'il prend ou influence, et les personnes affectées. Identifier le niveau d'autonomie du système (aide à la décision vs. décision automatique).4
Étape 2 — Classification du niveau d'incidence
Évaluer le niveau d'incidence du système selon quatre facteurs : réversibilité des décisions, portée (nombre de personnes affectées), impact sur les droits fondamentaux, et vulnérabilité des populations concernées.
Niveau 1 — Faible Décisions réversibles, faible portée, impact limité.
Niveau 2 — Modéré Décisions ayant un impact mesurable, portée moyenne.
Niveau 3 — Élevé Décisions difficiles à renverser, affectant des droits ou des populations vulnérables.
Niveau 4 — Très élevé Décisions irréversibles ou affectant gravement des droits fondamentaux.5
Étape 3 — Analyse des risques d'équité et de biais
Examiner les sources potentielles de biais à chaque étape (données, modèle, déploiement). Identifier les attributs protégés pertinents dans le contexte canadien (genre, origine ethnique, âge, handicap, langue, statut autochtone). Choisir et justifier les métriques d'équité appropriées.6 Voir Doc 3.1 pour la taxonomie des biais et les métriques.
Étape 4 — Analyse de transparence et d'explicabilité
Évaluer le degré d'explicabilité du système. Les personnes affectées peuvent-elles comprendre pourquoi une décision a été prise ? Un mécanisme d'explication est-il en place ? La documentation technique est-elle suffisante pour un audit ?7
Étape 5 — Plan de mitigation et de surveillance
Pour chaque risque identifié, définir des mesures de mitigation, des indicateurs de surveillance et des seuils d'alerte. Prévoir un plan d'intervention en cas de détection d'un impact négatif non anticipé. Désigner les responsables de la surveillance.8
Étape 6 — Rapport et révision
Rédiger un rapport d'EIA documentant l'analyse, les risques identifiés, les mesures de mitigation et le plan de surveillance. Prévoir une périodicité de révision (annuelle recommandée, ou lors de changements significatifs du système).
3. Articulation avec les autres obligations
L'EIA ne se substitue pas aux cadres existants mais les complète :
ÉFVP (Loi 25) : l'ÉFVP porte sur la vie privée ; l'EIA porte sur les impacts algorithmiques plus largement (équité, transparence, impacts sociétaux). Les deux peuvent être réalisées conjointement.9
CÉR (EPTC 2) : le rapport d'EIA enrichit le dossier soumis au CÉR avec une analyse spécifique aux risques algorithmiques.
AI Act : pour les systèmes déployés dans l'UE, l'EIA peut servir de base à l'évaluation de conformité requise par le règlement.
🔬 Zoom sur l'écosystème montréalais
L'OEIA du gouvernement fédéral est un outil en ligne conçu pour les institutions fédérales. Son adaptation au contexte universitaire nécessite des ajustements : les enjeux de recherche (reproductibilité, liberté académique), les populations spécifiques (étudiants, communautés de recherche) et le cadre québécois (Loi 25, CÉR) doivent être intégrés. Les universités montréalaises pourraient collaborer pour développer une version commune adaptée à leurs besoins.10
Points clés à retenir
L'EIA évalue les impacts algorithmiques spécifiques (biais, équité, transparence) — elle complète l'ÉFVP et l'évaluation du CÉR.
Six étapes : description, classification, analyse des biais, analyse de transparence, plan de mitigation, rapport.
Quatre niveaux d'incidence déterminent l'intensité des obligations.
L'EIA doit être révisée périodiquement et lors de changements significatifs.
Questions de réflexion
L'EIA devrait-elle être obligatoire pour tous les projets de recherche impliquant l'IA, ou seulement au-delà d'un certain niveau d'incidence ?
Qui devrait réaliser l'EIA ? L'équipe de recherche elle-même (risque de conflit d'intérêts) ou un tiers (coût et disponibilité) ?
Comment éviter que l'EIA ne devienne un exercice bureaucratique sans impact réel sur les pratiques ?
Notes
Gouvernement du Canada, Secrétariat du Conseil du Trésor. Outil d'évaluation de l'incidence algorithmique. Disponible en ligne. [Vérifier l'URL et la version actuelle]
Directive sur la prise de décisions automatisée (2019). Applicable aux institutions fédérales canadiennes. [Vérifier les mises à jour]
AI Act, Titre III, Chapitre 2 : les fournisseurs de systèmes IA à haut risque doivent établir un système de gestion des risques. Voir Doc 2.1.
La classification du niveau d'autonomie est importante : un système d'aide à la décision (avec humain dans la boucle) a un profil de risque différent d'un système entièrement automatisé.
Les quatre niveaux sont inspirés de l'OEIA fédéral. L'adaptation au contexte universitaire peut nécessiter des ajustements des critères et des seuils.
Voir Doc 3.1 de cette bibliothèque pour la taxonomie des biais et les métriques d'équité. Au Canada, la Loi canadienne sur les droits de la personne (L.R.C., 1985, c H-6) définit les motifs de discrimination interdits.
Sur l'explicabilité, voir Doc 1.1 (glossaire, entrée « Explicabilité ») et Doc 4.4 (outils LIME, SHAP).
Le plan de mitigation doit être proportionné au niveau d'incidence. Un système de niveau 1 nécessite des mesures minimales ; un système de niveau 4 exige un plan robuste avec supervision humaine renforcée.
La CAI du Québec publie des guides pour la réalisation d'ÉFVP. L'intégration avec l'EIA évite les doublons. [Consulter les guides CAI les plus récents]
[Vérifier si des universités canadiennes ont déjà développé des versions adaptées de l'OEIA pour le milieu académique]
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. L'OEIA fédéral est susceptible d'évoluer. Consultez le site du Secrétariat du Conseil du Trésor pour la version en vigueur.
Bibliothèque IA Responsable — Document 4.3
Protocole d'audit éthique d'un modèle IA
Grille multicritère · Procédures · Rapport d'audit
Public : Équipes de recherche, doctorants, ingénieurs IA★★★ AvancéFormat : Protocole (5-7 pages)
Résumé exécutif
Ce protocole permet à une équipe de recherche de mener un audit éthique interne de ses modèles d'IA. Il propose une grille d'évaluation couvrant cinq dimensions (équité, transparence, robustesse, vie privée, impact social), des procédures de documentation et un modèle de rapport d'audit. Il s'adresse aux équipes souhaitant aller au-delà de la conformité minimale vers une démarche proactive d'IA responsable.1
1. Les cinq dimensions de l'audit
Dimension 1 — Équité et non-discrimination
Évaluer si le modèle produit des résultats injustement différenciés pour des sous-groupes définis par des attributs protégés.2
Critères : Métriques d'équité calculées par sous-groupe (parité démographique, égalité des chances, calibration) · Analyse des taux d'erreur différenciés · Identification des groupes les plus affectés · Justification du choix de métrique
Évaluer le degré de compréhension du fonctionnement et des décisions du modèle.3
Critères : Documentation technique complète (model card) · Méthode d'explicabilité utilisée et ses limites · Intelligibilité pour les publics cibles (utilisateurs, personnes affectées, auditeurs) · Traçabilité des données d'entraînement
Évaluer la capacité du modèle à maintenir ses performances face à des perturbations, des données hors distribution ou des attaques adverses.4
Critères : Performance sur des données hors distribution · Sensibilité aux perturbations d'entrée · Résistance aux attaques adverses · Comportement sur les cas limites (edge cases) · Stabilité temporelle (dérive)
Dimension 4 — Vie privée et protection des données
Évaluer les risques d'atteinte à la vie privée dans les données d'entraînement, le modèle et les résultats.5
Critères : Risque de mémorisation de données personnelles · Protection contre les attaques par inférence d'appartenance (membership inference) · Conformité aux obligations légales (Loi 25, RGPD) · Mesures de protection (anonymisation, vie privée différentielle)
Dimension 5 — Impact social et environnemental
Évaluer les conséquences sociétales et environnementales du système au-delà de ses performances techniques.6
Critères : Impacts sur l'emploi et les conditions de travail · Effets sur les inégalités sociales · Empreinte carbone de l'entraînement et de l'inférence · Risques de double usage · Accessibilité et inclusion
2. Procédure d'audit
Étape 1 — Cadrage : définir le périmètre de l'audit, les dimensions prioritaires et les ressources disponibles. Un audit complet couvre les cinq dimensions ; un audit ciblé peut se concentrer sur les dimensions les plus critiques pour le contexte.
Étape 2 — Collecte des données d'audit : rassembler la documentation technique, les résultats de tests, les données d'entraînement et de validation, et tout retour d'utilisation disponible.
Étape 3 — Évaluation : appliquer la grille multicritère dimension par dimension. Pour chaque critère, attribuer une évaluation (satisfaisant / amélioration nécessaire / non satisfaisant / non applicable) avec justification.
Étape 4 — Rédaction du rapport : documenter les résultats dans un rapport structuré incluant : résumé exécutif, description du système, résultats par dimension, recommandations d'amélioration, et plan de suivi.7
Étape 5 — Suivi : mettre en œuvre les recommandations et planifier le prochain audit (périodicité recommandée : annuelle ou lors de changements significatifs).
3. Modèle de rapport d'audit
Section
Contenu
1. Identité du système
Nom, version, finalité, responsable, date d'audit
2. Périmètre
Dimensions auditées, données et méthodes utilisées
3. Résultats par dimension
Pour chaque dimension : évaluation, métriques, constats, preuves
4. Synthèse des risques
Risques identifiés classés par gravité et probabilité
5. Recommandations
Actions correctives, responsables, échéances
6. Plan de suivi
Indicateurs de surveillance, prochaine date d'audit
7. Annexes
Données détaillées, résultats de tests, code utilisé
🔬 Zoom sur l'écosystème montréalais
L'audit éthique de modèles IA est un domaine de pratique émergent. Les équipes de Mila et des universités montréalaises sont à la pointe de la recherche en équité et en explicabilité, ce qui facilite l'accès à l'expertise nécessaire. Le développement d'une culture d'audit interne dans les laboratoires de recherche serait un signal fort de l'engagement de l'écosystème envers l'IA responsable.8
Points clés à retenir
L'audit éthique couvre cinq dimensions : équité, transparence, robustesse, vie privée, impact social.
L'audit peut être complet ou ciblé selon les ressources et les risques du système.
Le rapport d'audit est un outil d'imputabilité et d'amélioration continue.
L'audit interne ne remplace pas un audit externe indépendant pour les systèmes à enjeux élevés.
Des outils open-source existent pour chaque dimension (voir Doc 4.4).
Questions de réflexion
Un audit éthique réalisé par l'équipe qui a développé le modèle est-il crédible ? Comment gérer le conflit d'intérêts ?
Devrait-on publier les rapports d'audit des modèles développés en milieu académique ? Quels en seraient les avantages et les risques ?
Comment adapter ce protocole aux contraintes de temps et de ressources d'un projet de recherche typique ?
Notes
Sur les audits algorithmiques en général, voir : Raji, I. D. et al. (2020). Closing the AI Accountability Gap. Proceedings of ACM FAT*. [Vérifier référence exacte]
Voir Doc 3.1 pour la taxonomie des biais et les métriques d'équité. Voir Doc 1.1, entrée « Équité algorithmique ».
Mitchell, M. et al. (2019). Model Cards for Model Reporting. ACM FAT*. Les model cards sont un standard de documentation de plus en plus adopté.
Goodfellow, I., Shlens, J., & Szegedy, C. (2015). Explaining and harnessing adversarial examples. ICLR. Travail fondateur sur les attaques adverses. [Vérifier conférence]
Shokri, R. et al. (2017). Membership inference attacks against machine learning models. IEEE Symposium on Security and Privacy. [Vérifier pages]
Strubell, E., Ganesh, A., & McCallum, A. (2019). Energy and policy considerations for deep learning in NLP. ACL. Sur l'empreinte environnementale.
Le format de rapport proposé s'inspire des pratiques d'audit en sécurité informatique et des exigences de documentation de l'AI Act (Annexe IV).
L'absence de standards d'audit algorithmique unifiés est reconnue comme un défi par la communauté. Des initiatives comme l'Algorithmic Auditing Taskforce tentent de combler cette lacune. [Vérifier le statut de cette initiative]
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Ce protocole est un cadre de référence, pas un standard certifié. Les méthodes d'audit algorithmique sont un domaine en développement rapide. Consultez la littérature récente et les experts de votre institution.
Bibliothèque IA Responsable — Document 4.4
Boîte à outils : Frameworks open-source pour l'IA éthique
Recension commentée · Cas d'usage · Forces et limites
Public : Étudiants gradués, data scientists, chercheurs★★ IntermédiaireMise à jour : Annuelle
Résumé exécutif
Plusieurs bibliothèques open-source permettent d'opérationnaliser l'IA éthique : mesure des biais, explicabilité des modèles, protection de la vie privée. Ce document recense les principaux outils disponibles, décrit leurs cas d'usage, évalue leurs forces et limites, et indique le niveau de compétence technique requis. Il vise à guider les choix des équipes de recherche.
Outils d'équité et de détection des biais
AI Fairness 360 (AIF360)
IBM · Python · Apache 2.0 · GitHub : Trusted-AI/AIF360
Bibliothèque complète offrant plus de 70 métriques d'équité et 10 algorithmes de mitigation des biais (pré-traitement, en cours d'entraînement, post-traitement). C'est l'un des outils les plus complets du domaine.1
équitémitigationmétriquesPython
Forces : couverture large (métriques + mitigation), documentation abondante, tutoriels. Limites : courbe d'apprentissage, certaines fonctions complexes, nécessite des connaissances statistiques solides. Niveau : intermédiaire à avancé.
Fairlearn
Microsoft · Python · MIT · GitHub : fairlearn/fairlearn
Bibliothèque centrée sur l'évaluation et l'amélioration de l'équité. Propose des métriques d'équité par groupe, des algorithmes de post-traitement (ThresholdOptimizer) et de réduction (ExponentiatedGradient).2
équitépost-traitementréductionPython
Forces : intégration avec scikit-learn, API intuitive, documentation claire, communauté active. Limites : moins de métriques qu'AIF360, algorithmes de mitigation limités. Niveau : intermédiaire.
Aequitas
U. Chicago (DSAPP) · Python · MIT · GitHub : dssg/aequitas
Outil d'audit d'équité centré sur les systèmes de décision. Calcule des métriques de biais par groupe et fournit des visualisations pour comparer les performances entre sous-populations.3
auditvisualisationmétriques
Forces : simplicité d'utilisation, interface web disponible, bon outil d'entrée. Limites : pas d'algorithmes de mitigation intégrés, fonctionnalités plus limitées. Niveau : débutant à intermédiaire.
Génère des explications locales pour les prédictions de n'importe quel modèle en approximant le comportement du modèle autour d'un point spécifique par un modèle interprétable (régression linéaire).4
explicabilitéagnostiquelocal
Forces : applicable à tout modèle, intuitif, bon pour les cas individuels. Limites : explications locales seulement, instabilité des explications (deux exécutions peuvent donner des résultats différents), ne révèle pas le fonctionnement global du modèle. Niveau : intermédiaire.
SHAP (SHapley Additive exPlanations)
Lundberg & Lee · Python · MIT · GitHub : slundberg/shap
Fournit des explications basées sur la théorie des jeux (valeurs de Shapley) pour quantifier la contribution de chaque variable à une prédiction. Permet des analyses locales et globales.5
explicabilitéShapleylocal+global
Forces : fondement théorique solide, explications locales et globales, visualisations riches, large adoption. Limites : coûteux en calcul pour certaines méthodes (KernelSHAP), interprétation des valeurs de Shapley non triviale. Niveau : intermédiaire à avancé.
What-If Tool
Google (PAIR) · JavaScript/Python · Apache 2.0
Outil visuel et interactif pour explorer les performances d'un modèle sans écrire de code. Permet d'examiner les prédictions par sous-groupe, de tester des scénarios contrefactuels et de comparer des métriques d'équité.6
visualisationexplorationno-code
Forces : interface visuelle accessible, pas de code nécessaire pour l'exploration de base, intégration avec TensorBoard et Jupyter. Limites : moins flexible pour les analyses personnalisées, limité aux modèles de classification et régression. Niveau : débutant à intermédiaire.
Outils de documentation et gouvernance
Model Cards Toolkit
Google · Python · Apache 2.0
Framework pour créer des model cards standardisées documentant les performances, limites, biais potentiels et usages prévus d'un modèle. S'inspire de l'article fondateur de Mitchell et al. (2019).7
documentationmodel cardtransparence
Forces : standardisation de la documentation, adoption croissante dans la communauté. Limites : qualité dépendante du soin apporté par l'équipe, pas de vérification automatique. Niveau : débutant.
Datasheets for Datasets
Gebru et al. · Cadre méthodologique (pas de logiciel)
Proposition de documentation standardisée pour les jeux de données, couvrant la motivation, la composition, la collecte, le nettoyage, les usages prévus et les limites. Conçu comme un complément aux model cards.8
documentationdonnéescadre
Tableau comparatif synthétique
Outil
Domaine
Niveau
Licence
Langage
AI Fairness 360
Équité + mitigation
★★★
Apache 2.0
Python
Fairlearn
Équité + mitigation
★★
MIT
Python
Aequitas
Audit d'équité
★
MIT
Python
LIME
Explicabilité locale
★★
BSD
Python
SHAP
Explicabilité loc.+glob.
★★★
MIT
Python
What-If Tool
Exploration visuelle
★
Apache 2.0
JS/Python
Model Cards
Documentation modèle
★
Apache 2.0
Python
🔬 Zoom sur l'écosystème montréalais
Les chercheurs de l'écosystème montréalais utilisent et contribuent à plusieurs de ces outils. Mila et IVADO organisent des ateliers de formation sur les outils d'IA éthique. L'intégration de ces outils dans les cursus de formation (maîtrise, doctorat) est un enjeu pédagogique important pour former la prochaine génération de praticiens responsables.9
Points clés à retenir
Des outils open-source existent pour chaque dimension de l'IA éthique : équité, explicabilité, documentation.
Aucun outil n'est une solution complète — ils doivent être combinés selon les besoins du projet.
Les outils mesurent et documentent ; les décisions normatives (quelle métrique d'équité ?) restent humaines.
Aequitas et What-If Tool sont les meilleurs points d'entrée pour les débutants.
La documentation (model cards, datasheets) est aussi importante que les tests techniques.
Questions de réflexion
L'utilisation d'outils d'équité devrait-elle être obligatoire dans les publications de recherche en IA ?
Les outils open-source développés par les Big Tech (Google, IBM, Microsoft) posent-ils un problème de dépendance ?
Comment assurer que l'utilisation de ces outils ne devienne pas un exercice de conformité superficielle (fairness washing) ?
Notes
Bellamy, R. K. E. et al. (2019). AI Fairness 360: An extensible toolkit for detecting and mitigating algorithmic bias. IBM Journal of Research and Development, 63(4/5). [Vérifier volume et pages]
Bird, S. et al. (2020). Fairlearn: A toolkit for assessing and improving fairness in AI. Microsoft Research. [Vérifier si publié en conférence]
Saleiro, P. et al. (2018). Aequitas: A bias and fairness audit toolkit. arXiv:1811.05577. [Vérifier publication]
Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). "Why should I trust you?": Explaining the predictions of any classifier. Proceedings of ACM KDD. Article fondateur de LIME.
Lundberg, S. M. & Lee, S.-I. (2017). A unified approach to interpreting model predictions. Advances in Neural Information Processing Systems (NeurIPS).
Wexler, J. et al. (2019). The What-If Tool: Interactive probing of machine learning models. IEEE Transactions on Visualization and Computer Graphics. [Vérifier volume]
Mitchell, M. et al. (2019). Model Cards for Model Reporting. Proceedings of ACM FAT*.
Gebru, T. et al. (2021). Datasheets for datasets. Communications of the ACM, 64(12), 86–92.
[Vérifier les formations actuellement offertes par Mila et IVADO sur ces outils]
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Les outils open-source évoluent rapidement (nouvelles versions, nouveaux outils). Consultez les dépôts GitHub respectifs et la documentation officielle pour les informations les plus récentes.
Bibliothèque IA Responsable — Document 4.5
Guide d'utilisation responsable des outils d'IA générative
Pour les étudiants, chargés de cours et professeurs
Public : Étudiants (tous cycles), professeurs, chargés de cours★ IntroductifFormat : Guide pratique (3-4 pages)
Résumé exécutif
Ce guide pratique offre un cadre d'utilisation responsable des outils d'IA générative (ChatGPT, Claude, Gemini, Copilot, etc.) en contexte universitaire. Il s'adresse à tous les acteurs de l'enseignement supérieur et propose des principes directeurs, une classification des scénarios d'usage, des modèles de mentions de divulgation et des conseils pour préserver la pensée critique.
1. Quatre principes directeurs
Transparence : toujours déclarer l'utilisation d'outils d'IA générative dans ses travaux. La transparence est la condition minimale de tout usage responsable.1
Pensée critique : ne jamais accepter les résultats de l'IA sans vérification. Vérifier les faits, les sources, les raisonnements. L'IA génère du texte plausible, pas nécessairement vrai.2
Apprentissage authentique : utiliser l'IA comme outil de soutien, pas comme substitut à la réflexion. L'objectif de la formation est le développement de compétences, pas la production de livrables.3
Conformité : respecter les politiques de votre institution et les consignes spécifiques de chaque cours. En cas de doute, demander à l'enseignant.4
2. Scénarios d'usage : du vert au rouge
La légitimité de l'utilisation de l'IA dépend du contexte, de la consigne et de la politique institutionnelle. Voici une classification indicative :
🟢 Généralement acceptable (avec divulgation)
✅
Brainstorming et exploration d'idées : utiliser l'IA pour générer des pistes de réflexion, explorer un sujet, structurer ses idées initiales — puis développer sa propre pensée.
✅
Correction linguistique : faire réviser son texte pour la grammaire, l'orthographe et le style, de la même manière qu'on utiliserait un correcteur orthographique avancé.
✅
Compréhension de concepts : demander des explications sur des notions difficiles, comme complément aux cours et aux lectures — en vérifiant toujours avec des sources fiables.
✅
Aide au code : utiliser l'IA pour déboguer, comprendre du code ou explorer des solutions techniques — en comprenant le code produit.
🟡 Zone grise (vérifier avec l'enseignant)
⚠️
Résumé de lectures : faire résumer des textes par l'IA peut court-circuiter le processus de lecture critique. Acceptable comme complément, pas comme substitut.
⚠️
Structuration d'un plan : faire générer un plan de travail, puis le développer soi-même. Acceptable si la réflexion est ensuite authentique, mais le plan lui-même est un exercice intellectuel.
⚠️
Traduction : utiliser l'IA pour traduire dans le cadre d'un cours de langue peut neutraliser l'objectif pédagogique.
🔴 Généralement non acceptable
🚫
Soumission de texte IA comme travail original : soumettre un texte généré par IA (même reformulé) comme s'il était le fruit de sa propre réflexion, sans divulgation adéquate.
🚫
Fabrication de données ou de références : utiliser l'IA pour générer des données de recherche fictives ou des références bibliographiques sans vérification.5
🚫
Contournement des consignes : utiliser l'IA en violation explicite des consignes d'un travail ou d'un examen.
3. Modèles de mentions de divulgation
La divulgation doit préciser : quels outils ont été utilisés, à quelles fins, et quelles modifications ont été apportées au contenu généré.
Mention d'utilisation de l'IA : J'ai utilisé [nom de l'outil, ex. : ChatGPT-4] pour [décrire l'usage : brainstormer des idées initiales / corriger la grammaire de mon texte]. Le contenu final reflète ma propre analyse et rédaction.
Modèle 2 — Utilisation substantielle (aide à la rédaction, structuration)
Mention d'utilisation de l'IA : Certaines sections de ce travail ont été développées avec l'assistance de [nom de l'outil]. J'ai utilisé l'outil pour [décrire précisément : générer un premier brouillon de la section X / structurer le plan / reformuler certains passages]. J'ai ensuite révisé, complété et vérifié l'ensemble du contenu. Les prompts utilisés sont disponibles en annexe [si demandé par l'enseignant].
Modèle 3 — Pour la recherche
Déclaration d'utilisation d'IA générative : Cette étude a utilisé [nom de l'outil, version, date d'accès] pour [objectif précis : analyse exploratoire de données textuelles / génération de code / revue de littérature préliminaire]. Les résultats ont été vérifiés par [décrire la méthode de vérification]. Les limites de cette utilisation incluent [décrire]. Les prompts sont documentés dans le matériel supplémentaire.
4. Conseils pour les enseignants
Clarifier les attentes : pour chaque travail, préciser explicitement quels usages de l'IA sont autorisés, tolérés ou interdits. L'ambiguïté est source de conflits.6
Adapter les évaluations : privilégier les évaluations qui résistent à l'utilisation non déclarée : évaluations orales, travaux réflexifs, processus en étapes, portfolios. Voir Doc 6.4 pour une grille d'évaluation intégrant la dimension éthique.
Former plutôt qu'interdire : enseigner l'utilisation critique de l'IA comme une compétence professionnelle. Les diplômés utiliseront ces outils dans leur carrière — mieux vaut les former à les utiliser de manière responsable.7
Montrer l'exemple : si vous utilisez l'IA pour préparer votre matériel pédagogique, le mentionner. La transparence est bidirectionnelle.
🔬 Zoom sur l'écosystème montréalais
Les universités montréalaises ont développé des directives institutionnelles sur l'IA générative. La proximité de Mila et de l'écosystème IA offre l'opportunité d'intégrer la littératie IA de manière approfondie dans les programmes, au-delà des simples règles d'utilisation. Former des diplômés qui comprennent les capacités et les limites de ces outils est un avantage compétitif pour l'écosystème.8
Points clés à retenir
Quatre principes : transparence, pensée critique, apprentissage authentique, conformité.
L'utilisation de l'IA n'est pas binaire (autorisé/interdit) — elle se situe sur un spectre dépendant du contexte.
La divulgation est obligatoire pour tout usage, même léger.
Toujours vérifier les faits, les sources et les références générées par l'IA.
Les enseignants doivent clarifier leurs attentes et adapter leurs évaluations.
Questions de réflexion
Si l'IA peut rédiger un texte acceptable, qu'est-ce que cela révèle sur la qualité de nos évaluations actuelles ?
La divulgation de l'utilisation de l'IA devrait-elle être obligatoire dans les publications scientifiques ? De nombreuses revues l'exigent désormais.
Comment développer une « littératie IA » chez les étudiants qui aille au-delà des règles d'utilisation vers une compréhension critique des outils ?
Notes
La transparence est un principe fondamental de l'intégrité académique. Plusieurs universités exigent désormais une déclaration d'utilisation de l'IA dans les travaux soumis. [Vérifier les politiques de votre institution]
Le phénomène d'hallucination (fabrication de contenus faux) est bien documenté dans les modèles de langage. Voir Doc 1.1, entrée « Hallucination (IA) ».
Sur les risques de dépendance cognitive, voir Doc 3.4 de cette bibliothèque.
Les politiques varient considérablement entre les institutions et les cours. Certains interdisent tout usage ; d'autres l'encouragent avec divulgation. L'étudiant est responsable de connaître et de respecter les règles applicables.
Des cas de soumission de références fictives générées par l'IA ont été documentés dans le milieu académique et juridique. Voir Doc 3.4, note 2.
Les conflits liés à l'IA surviennent souvent quand les consignes sont ambiguës. Une mention explicite dans le plan de cours ou les consignes de travail prévient les malentendus.
Cette approche est recommandée par de nombreuses organisations, dont l'UNESCO dans ses orientations sur l'IA générative en éducation. [Vérifier les orientations UNESCO les plus récentes]
[Vérifier les directives institutionnelles actuelles d'HEC Montréal, UdeM et Polytechnique Montréal]
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Les politiques institutionnelles évoluent rapidement. Consultez les directives officielles de votre institution et les consignes spécifiques de chaque cours pour les règles en vigueur.
Bibliothèque IA Responsable — Document 5.1
Cartographie des chaires et laboratoires IA éthique à Montréal
Public : Tous niveaux, chercheurs, partenaires★ IntroductifMise à jour : Annuelle (paysage évolutif)
Résumé exécutif
Montréal concentre un écosystème exceptionnel d'institutions travaillant sur l'IA et son éthique. Ce document cartographie les principaux acteurs — instituts, chaires, observatoires et consortiums — en présentant pour chacun le mandat, les axes de recherche et les réalisations marquantes. Il constitue un répertoire de référence pour les chercheurs, étudiants et partenaires souhaitant s'orienter dans cet écosystème.
⚠️ Avertissement : Le paysage institutionnel évolue rapidement (créations, fusions, renouvellements de mandats). Les informations ci-dessous reflètent l'état de connaissance au moment de la rédaction et doivent être vérifiées auprès des institutions concernées.
Instituts et consortiums majeurs
Mila — Institut québécois d'intelligence artificielle
Affilié à l'Université de Montréal · Fondé en 1993 (sous le nom LISA) · Directeur scientifique fondateur : Yoshua Bengio
Mila est l'un des plus importants centres de recherche en apprentissage profond au monde. Fondé par Yoshua Bengio (colauréat du prix Turing 2018 avec Geoffrey Hinton et Yann LeCun), il regroupe des centaines de chercheurs et étudiants.1
Axes pertinents pour l'IA responsable : recherche sur l'équité en apprentissage automatique, l'explicabilité, la robustesse, la sécurité de l'IA et les impacts sociétaux. Mila a été un acteur clé dans les discussions sur les risques existentiels de l'IA et la gouvernance internationale.
Réalisations marquantes : contributions fondatrices à l'apprentissage profond, participation à la Déclaration de Montréal, publications influentes en équité et robustesse. Yoshua Bengio a été un signataire de plusieurs appels internationaux pour la gouvernance de l'IA.2
IVADO — Institut de valorisation des données
Consortium : UdeM, HEC Montréal, Polytechnique Montréal, Université Laval · Fondé en 2016
IVADO est un consortium interuniversitaire dédié au développement et au transfert de l'expertise en science des données, intelligence artificielle et recherche opérationnelle. Il fédère quatre universités québécoises et soutient la formation, la recherche et les partenariats.3
Axes pertinents : formation en IA responsable, financement de projets de recherche interdisciplinaires sur les impacts sociétaux de l'IA, programmes de bourses et stages, ateliers sur l'éthique de l'IA.
Réalisations : financement de dizaines de projets de recherche, programmes de formation continue, soutien au développement de compétences en science des données dans les entreprises et organismes publics.
OBVIA — Observatoire international sur les impacts sociétaux de l'IA et du numérique
Basé à l'Université Laval · Réseau interprovincial et international · Créé en 2019
L'OBVIA est un observatoire dédié à l'étude des impacts sociétaux de l'IA et du numérique. Il regroupe des chercheurs de plusieurs universités québécoises et internationales dans une perspective interdisciplinaire (sciences sociales, droit, philosophie, informatique).4
Axes : impacts sur le travail et l'emploi, vie privée et surveillance, justice et équité algorithmique, gouvernance de l'IA, culture et médias numériques, santé. Approche résolument interdisciplinaire et critique.
Réalisations : publications, rapports de recherche, veille sur les politiques publiques, activités de transfert de connaissances. [Vérifier le statut actuel et le financement de l'OBVIA]
Universités et chaires
HEC Montréal
École affiliée à l'Université de Montréal · Gestion, analytique, technologies
HEC Montréal est une institution de premier plan en sciences de la gestion au Canada. Plusieurs initiatives y touchent à l'IA responsable dans le contexte de la gestion et des affaires.5
Axes pertinents : analytique des affaires et IA, éthique de la gestion technologique, gouvernance des données, transformation numérique responsable, pédagogie de l'éthique en gestion.
Programmes : HEC Montréal offre des programmes intégrant l'analytique et l'IA (maîtrise en analytique d'affaires, DESS en analytique d'affaires, spécialisations en intelligence d'affaires). [Vérifier les programmes et chaires actuellement actifs]
Université de Montréal
Université de recherche · Multidisciplinaire
L'UdeM est l'institution d'attache de Mila et a été l'instigatrice de la Déclaration de Montréal pour un développement responsable de l'IA (2018). Plusieurs facultés contribuent à la recherche sur l'IA éthique : informatique, droit, philosophie, sciences sociales, médecine.6
Axes pertinents : apprentissage automatique et ses fondements éthiques (Département d'informatique et de recherche opérationnelle — DIRO), droit des technologies (Faculté de droit), philosophie de l'IA, éthique appliquée, cyberjustice.
Réalisations : Déclaration de Montréal (2018), formation de chercheurs de pointe en IA, programmes interdisciplinaires. [Vérifier les chaires et centres de recherche actuellement actifs à l'UdeM en lien avec l'éthique IA]
Polytechnique Montréal
École d'ingénierie · Affiliée à l'UdeM
Polytechnique Montréal contribue à l'écosystème par ses travaux en génie informatique, science des données et recherche opérationnelle, avec une attention croissante aux dimensions éthiques et sociétales.7
Axes : optimisation et apprentissage automatique, sécurité informatique, vie privée, applications industrielles responsables de l'IA.
Université McGill
Université de recherche · Anglophone · Montréal
McGill contribue à l'écosystème montréalais de l'IA par ses départements d'informatique, de philosophie et de droit. La proximité avec Mila et les institutions francophones favorise les collaborations interdisciplinaires et bilingues.8
Axes : IA et santé, éthique de l'IA et philosophie, droit et technologies, apprentissage automatique.
Autres acteurs clés
CIFAR — Institut canadien de recherches avancées
Organisation pancanadienne · Siège à Toronto · Programme IA pan-canadien
Le CIFAR administre la Stratégie pancanadienne en matière d'intelligence artificielle depuis 2017, avec des investissements majeurs dans les trois pôles nationaux (Mila à Montréal, Vector Institute à Toronto, Amii à Edmonton). Le programme « IA et société » du CIFAR soutient la recherche sur les dimensions éthiques et sociétales.9
CIRANO — Centre interuniversitaire de recherche en analyse des organisations
Consortium interuniversitaire · Montréal
Le CIRANO contribue à l'analyse des politiques publiques en matière de numérique et d'IA, avec des travaux sur les impacts économiques et la gouvernance.10
Laboratoires industriels à Montréal
Google, Meta, Microsoft, Samsung, et autres
Plusieurs entreprises technologiques majeures ont établi des laboratoires de recherche en IA à Montréal, attirés par l'écosystème académique. Ces laboratoires emploient des chercheurs formés localement et collaborent avec les universités. Cette présence soulève aussi des questions de souveraineté académique et de « brain drain » (voir Doc 3.5).11
🔬 Forces et défis de l'écosystème
Forces : concentration exceptionnelle de talents, tradition interdisciplinaire, leadership normatif international (Déclaration de Montréal), bilinguisme, diversité des institutions.
Défis : coordination entre institutions, compétition avec l'industrie pour les talents, maintien de l'indépendance face aux financements privés, opérationnalisation des principes éthiques dans les pratiques de recherche quotidiennes, pérennité des financements publics.
Points clés à retenir
Montréal concentre un écosystème unique : Mila (apprentissage profond), IVADO (science des données), OBVIA (impacts sociétaux), et quatre universités de recherche.
L'écosystème couvre toute la chaîne : recherche fondamentale, recherche appliquée, éthique, politiques publiques, formation.
La Déclaration de Montréal (2018) a positionné la ville comme pôle mondial de l'IA éthique.
La présence de laboratoires industriels est à la fois un atout (collaboration) et un risque (dépendance, brain drain).
Le paysage évolue rapidement — cette cartographie doit être vérifiée et mise à jour régulièrement.
Questions de réflexion
L'écosystème montréalais est-il suffisamment coordonné, ou y a-t-il des duplications et des lacunes ?
Comment les institutions académiques peuvent-elles bénéficier de la présence des laboratoires industriels sans compromettre leur indépendance ?
Quels sont les domaines de recherche en IA responsable les plus urgents que l'écosystème devrait prioriser ?
Notes
Mila — Institut québécois d'intelligence artificielle. Originellement le laboratoire LISA (Laboratoire d'informatique des systèmes adaptatifs), fondé par Yoshua Bengio. Renommé Mila en 2017. [Vérifier le nombre actuel de chercheurs et étudiants sur le site de Mila]
Yoshua Bengio a été signataire de la lettre ouverte du Future of Life Institute (2023) appelant à un moratoire sur l'entraînement de systèmes IA plus puissants que GPT-4. [Vérifier les prises de position récentes]
IVADO. [Vérifier les institutions membres actuelles et les programmes en cours sur le site d'IVADO — l'Université Laval était partenaire mais vérifier le statut actuel]
OBVIA, Observatoire international sur les impacts sociétaux de l'IA et du numérique, Université Laval. Financé par les Fonds de recherche du Québec (FRQ). [VÉRIFIER : le statut, le financement actuel et l'activité de l'OBVIA — les financements des observatoires peuvent être limités dans le temps]
[Vérifier les chaires et groupes de recherche actuellement actifs à HEC Montréal en lien avec l'IA et l'éthique. Le paysage des chaires évolue avec les renouvellements de mandat et les créations/fermetures.]
La Déclaration de Montréal a été pilotée par l'Université de Montréal sous la direction de Yoshua Bengio et coordonnée par Marc-Antoine Dilhac. [Vérifier les rôles exacts et les affiliations actuelles]
[Vérifier les centres et chaires actifs à Polytechnique Montréal en IA responsable]
McGill héberge le McGill Centre for the Convergence of Health and Economics (MCCHE) et des initiatives en IA et santé. [Vérifier les centres actuellement actifs]
CIFAR (2017). Stratégie pancanadienne en matière d'IA. Budget 2024 : renouvellement annoncé avec investissement additionnel. [Vérifier les détails du renouvellement]
CIRANO, Centre interuniversitaire de recherche en analyse des organisations. [Vérifier les projets en cours liés à l'IA]
[Vérifier la liste des laboratoires industriels actuellement actifs à Montréal — des ouvertures et fermetures se produisent régulièrement]
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Le paysage institutionnel évolue rapidement. Chaque institution et initiative mentionnée doit être vérifiée sur les sites officiels respectifs pour confirmer leur statut actuel, leurs mandats et leurs activités.
Public : Chercheurs, étudiants gradués, professeurs★★ IntermédiaireMise à jour : Annuelle
Résumé exécutif
L'écosystème montréalais a produit des contributions scientifiques et institutionnelles majeures en IA responsable. Ce document recense les travaux phares : publications fondatrices, initiatives normatives, rapports d'impact et collaborations internationales. Il met en perspective l'apport de Montréal au débat mondial sur la gouvernance de l'IA.
1. Contributions scientifiques fondatrices
Publication scientifique
Deep Learning — LeCun, Bengio & Hinton (2015)
L'article fondateur publié dans Nature par Yann LeCun, Yoshua Bengio et Geoffrey Hinton a établi les bases conceptuelles de l'apprentissage profond et contribué à lancer la vague d'applications IA actuelles. Bengio, basé à l'Université de Montréal et à Mila, est l'un des trois « pères de l'apprentissage profond ».1
Impact : l'un des articles les plus cités en IA. A valu à ses auteurs le prix Turing 2018 (considéré comme le « prix Nobel de l'informatique »).
Publication scientifique
Generative Adversarial Networks (GANs) — Goodfellow et al. (2014)
Ian Goodfellow, alors étudiant doctoral au laboratoire de Yoshua Bengio à l'Université de Montréal, a proposé le cadre des réseaux antagonistes génératifs, une architecture fondatrice de l'IA générative actuelle.2
Impact : les GANs ont ouvert la voie à la génération d'images réalistes, avec des implications éthiques considérables (deepfakes, désinformation). Un exemple de contribution technique ayant des ramifications éthiques majeures.
Publication scientifique
Travaux sur l'attention et les Transformers
Plusieurs chercheurs de Mila ont contribué aux travaux sur les mécanismes d'attention en apprentissage profond, qui ont conduit à l'architecture Transformer — la base technique de tous les grands modèles de langage actuels (GPT, Claude, etc.).3
2. Initiatives normatives et éthiques
Initiative normative
Déclaration de Montréal pour un développement responsable de l'IA (2018)
Initiative phare de l'écosystème, la Déclaration de Montréal est issue d'un processus délibératif citoyen inédit piloté par l'Université de Montréal. Elle propose dix principes pour un développement responsable de l'IA et a eu un rayonnement international considérable.4 Voir Doc 5.3 pour une étude de cas détaillée.
Impact : a influencé plusieurs cadres normatifs internationaux, citée dans de nombreux documents institutionnels et académiques. Pionnière par sa méthodologie participative.
Contribution à la gouvernance
Engagement de Yoshua Bengio pour la gouvernance mondiale de l'IA
Yoshua Bengio s'est positionné comme une voix majeure dans les débats sur la gouvernance de l'IA, plaidant pour une régulation internationale et alertant sur les risques des systèmes IA avancés. Il a participé à des consultations auprès de gouvernements et d'organisations internationales.5
Stratégie nationale
Stratégie pancanadienne en IA (CIFAR, 2017)
Le Canada a été le premier pays à adopter une stratégie nationale en IA, administrée par le CIFAR. L'écosystème montréalais (Mila) est l'un des trois pôles nationaux soutenus par cette stratégie, avec le Vector Institute (Toronto) et Amii (Edmonton).6
3. Recherche interdisciplinaire sur les impacts
Recherche interdisciplinaire
Travaux de l'OBVIA sur les impacts sociétaux
L'OBVIA a produit des recherches sur les impacts de l'IA dans le travail, la santé, la justice et la culture, avec une approche interdisciplinaire mobilisant des chercheurs de sciences sociales, de droit et de philosophie.7
Recherche appliquée
Projets IVADO en IA responsable
IVADO a financé et soutenu des projets de recherche appliquée en IA responsable, couvrant l'équité algorithmique, l'explicabilité, la protection de la vie privée et les applications sectorielles (santé, finance, transport).8
Formation et transfert
Programmes de formation en IA responsable
L'écosystème a développé des programmes de formation à plusieurs niveaux : programmes académiques (BAC, maîtrise, doctorat), écoles d'été, ateliers de formation continue, et programmes spécialisés pour les professionnels. IVADO et Mila sont particulièrement actifs dans ce domaine.9
🔬 Mise en perspective internationale
L'écosystème montréalais occupe une position singulière dans le paysage mondial de l'IA responsable : il combine une excellence en recherche fondamentale (Mila est classé parmi les meilleurs centres mondiaux en apprentissage profond), un leadership normatif (Déclaration de Montréal) et un engagement interdisciplinaire (OBVIA, facultés de sciences sociales et de droit). Cette combinaison est rare à l'échelle internationale. Le défi est de maintenir cette position face à la compétition mondiale pour les talents et les financements, et de traduire les principes éthiques en pratiques concrètes de recherche et d'enseignement.
Points clés à retenir
Montréal a produit des contributions fondatrices en apprentissage profond (Bengio, LeCun, Goodfellow) qui ont façonné l'IA actuelle.
La Déclaration de Montréal (2018) est un jalon normatif international majeur.
L'écosystème combine recherche technique de pointe et réflexion éthique interdisciplinaire.
Le Canada a été le premier pays à se doter d'une stratégie nationale en IA (2017).
Le transfert des principes éthiques vers les pratiques concrètes reste un défi permanent.
Questions de réflexion
Les contributions techniques fondatrices (apprentissage profond, GANs) ont-elles été accompagnées d'une réflexion éthique suffisante dès le départ ?
La Déclaration de Montréal a-t-elle eu un impact concret sur les pratiques de recherche, ou est-elle restée un document symbolique ?
Comment l'écosystème montréalais peut-il maintenir son avantage compétitif tout en préservant son engagement éthique ?
Notes
LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444.
Goodfellow, I. et al. (2014). Generative Adversarial Nets. Advances in Neural Information Processing Systems (NeurIPS). Travail réalisé à l'Université de Montréal.
Bahdanau, D., Cho, K., & Bengio, Y. (2015). Neural machine translation by jointly learning to align and translate. ICLR. Ce travail sur l'attention a été l'un des précurseurs de l'architecture Transformer (Vaswani et al., 2017). [Vérifier la conférence exacte]
Déclaration de Montréal pour un développement responsable de l'IA (2018). Université de Montréal. Voir Doc 5.3 pour l'étude de cas.
[Vérifier les interventions récentes de Yoshua Bengio dans le débat sur la gouvernance de l'IA — ses positions ont évolué significativement depuis 2023]
CIFAR (2017). Stratégie pancanadienne en matière d'intelligence artificielle. [Vérifier le renouvellement et le budget actuel]
[Vérifier les publications et rapports récents de l'OBVIA sur le site de l'observatoire]
[Consulter le site d'IVADO pour les projets de recherche en cours et terminés]
[Vérifier les programmes de formation actuellement offerts par Mila, IVADO et les universités partenaires]
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Seules des contributions dont l'existence est vérifiable publiquement sont mentionnées. Les attributions de travaux scientifiques doivent être vérifiées dans les publications originales. Le paysage des contributions évolue rapidement.
Bibliothèque IA Responsable — Document 5.3
La Déclaration de Montréal pour un développement responsable de l'IA
Étude de cas · Genèse · Principes · Portée internationale
Public : Tous niveaux, chercheurs, partenaires★★ IntermédiaireFormat : Étude de cas (5-6 pages)
Résumé exécutif
La Déclaration de Montréal pour un développement responsable de l'IA (2018) est l'une des initiatives les plus significatives de l'écosystème montréalais. Issue d'un processus délibératif citoyen inédit, elle propose dix principes et a eu un rayonnement international considérable. Cette étude de cas retrace sa genèse, analyse sa méthodologie participative innovante, présente ses principes et évalue son influence sur les cadres normatifs mondiaux.
1. Genèse et contexte
En novembre 2017, dans un contexte d'accélération du développement de l'IA et de prise de conscience de ses enjeux sociétaux, l'Université de Montréal a lancé un processus de consultation publique visant à élaborer un cadre de principes éthiques pour l'IA. L'initiative a été portée par Yoshua Bengio et coordonnée par Marc-Antoine Dilhac, professeur de philosophie.1
Ce qui distingue la démarche montréalaise des autres initiatives contemporaines (principes d'Asilomar, lignes directrices de l'UE, principes de l'OCDE) est sa méthodologie : plutôt qu'un comité d'experts rédigeant un texte à huis clos, la Déclaration est issue d'un processus délibératif impliquant des citoyens, des organisations de la société civile, des entreprises, des chercheurs et des représentants gouvernementaux.2
Chronologie
Novembre 2017 : Forum sur le développement socialement responsable de l'IA, Université de Montréal. Lancement du processus de consultation.
2017-2018 : Série de consultations publiques, ateliers citoyens, contributions en ligne. Des milliers de personnes ont participé au processus.3
Décembre 2018 : Présentation officielle de la Déclaration de Montréal dans sa version finale, comprenant dix principes et des recommandations.
2019-présent : Diffusion internationale, citation dans des cadres normatifs, influence sur les politiques publiques.
2. Les dix principes
La Déclaration articule dix principes, chacun décliné en sous-principes opérationnels :4
1. Bien-être : le développement et l'utilisation de l'IA doivent viser à promouvoir le bien-être de tous les êtres sensibles.
2. Autonomie : l'IA doit être développée de manière à permettre aux individus de conserver leur capacité de décision et d'autodétermination.
3. Protection de la vie privée et de l'intimité : la vie privée et l'intimité doivent être protégées face à la collecte et l'utilisation des données par l'IA.
4. Solidarité : l'IA doit être compatible avec le maintien de liens de solidarité entre les personnes et les générations.
5. Participation démocratique : les citoyens doivent pouvoir participer de manière informée à la définition des normes encadrant l'IA.
6. Équité : l'IA doit contribuer à une société juste et équitable.
7. Inclusion de la diversité : l'IA doit être compatible avec la diversité sociale et culturelle et ne pas restreindre la portée des choix de vie.
8. Prudence : les acteurs du développement de l'IA doivent faire preuve de prudence en anticipant les conséquences néfastes.
9. Responsabilité : le développement et l'utilisation de l'IA ne doivent pas diminuer la responsabilité des êtres humains.
10. Développement soutenable : l'IA doit être compatible avec la viabilité écologique de la planète.
3. Méthodologie participative : une innovation
La méthodologie de la Déclaration constitue son apport le plus original. Contrairement aux déclarations émanant d'experts ou d'organisations internationales, elle a intégré directement la voix des citoyens dans l'élaboration des principes.5
Délibération citoyenne : des ateliers ont permis à des citoyens non spécialistes de s'informer, de débattre et de contribuer à la formulation des principes. Cette approche s'inscrit dans la tradition de la démocratie délibérative et des conférences de consensus.
Multi-parties prenantes : le processus a impliqué des acteurs variés — chercheurs, entrepreneurs, organisations de la société civile, artistes, juristes, représentants gouvernementaux — permettant de croiser des perspectives diverses.
Transparence du processus : les contributions et les délibérations ont été documentées et rendues accessibles, assurant la traçabilité du processus de construction des principes.
4. Réception et influence internationale
La Déclaration de Montréal a eu un rayonnement significatif :
Citations académiques : elle est fréquemment citée dans la littérature académique sur l'éthique de l'IA, notamment dans l'étude de référence de Jobin, Ienca et Vayena (2019) sur le paysage mondial des principes éthiques de l'IA.6
Influence sur les cadres normatifs : plusieurs de ses principes — notamment la participation démocratique et le développement soutenable — ont anticipé des éléments qui seront repris dans des cadres ultérieurs (Recommandation de l'UNESCO, 2021).7
Modèle méthodologique : la méthodologie délibérative citoyenne a inspiré d'autres initiatives de consultation sur l'IA dans d'autres juridictions.8
5. Limites et critiques
Opérationnalisation : comme pour de nombreuses déclarations de principes, le passage des principes abstraits aux pratiques concrètes reste le défi principal. Comment mesurer le respect du « bien-être de tous les êtres sensibles » dans un projet de recherche spécifique ?9
Force contraignante : la Déclaration est un cadre volontaire, sans mécanisme de mise en œuvre ni de sanction. Son influence dépend de l'adoption volontaire par les acteurs.
Représentativité : malgré l'effort de participation citoyenne, les participants aux consultations n'étaient pas nécessairement représentatifs de l'ensemble de la population québécoise. Les voix des communautés les plus marginalisées (populations autochtones, personnes en situation de handicap, etc.) ont pu être insuffisamment entendues.
Suivi et mise à jour : la Déclaration a été publiée en 2018, avant l'explosion de l'IA générative. La question de sa mise à jour face aux évolutions technologiques rapides se pose.10
Points clés à retenir
La Déclaration de Montréal (2018) est un jalon majeur de l'éthique de l'IA à l'échelle mondiale.
Sa méthodologie délibérative citoyenne est son apport le plus original — une innovation dans le domaine.
Dix principes couvrant le bien-être, l'autonomie, la vie privée, la solidarité, la participation, l'équité, la diversité, la prudence, la responsabilité et la soutenabilité.
Son influence internationale est documentée, mais son opérationnalisation reste un défi.
Les principes de participation démocratique et de développement soutenable étaient précurseurs.
Questions de réflexion
La méthodologie délibérative citoyenne produit-elle de meilleurs principes éthiques qu'un comité d'experts ? Pourquoi ?
La Déclaration devrait-elle être mise à jour pour intégrer les enjeux de l'IA générative ? Si oui, avec quel processus ?
Comment passer de principes abstraits (« bien-être ») à des critères opérationnels dans un projet de recherche concret ?
La Déclaration de Montréal a-t-elle été un exercice réussi de démocratie délibérative, ou les limites de représentativité l'invalident-elles ?
Notes
Déclaration de Montréal pour un développement responsable de l'IA (2018). Université de Montréal. La coordination scientifique a été assurée par Marc-Antoine Dilhac. [Vérifier les rôles et affiliations actuels]
Cette approche participative distingue la Déclaration de Montréal des principes d'Asilomar (2017, élaborés par des chercheurs en IA) et des lignes directrices de l'UE (2019, élaborées par un groupe d'experts nommés).
Le nombre exact de participants varie selon les sources. Le processus a inclus des ateliers en présentiel et des contributions en ligne. [Vérifier les chiffres de participation sur le site de la Déclaration]
Les dix principes et leurs sous-principes sont disponibles intégralement sur le site officiel de la Déclaration de Montréal.
Sur la démocratie délibérative et les conférences de consensus, voir les travaux de James Fishkin sur les « sondages délibératifs ». [Référence à vérifier]
Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389–399.
UNESCO (2021). Recommandation sur l'éthique de l'intelligence artificielle. Le principe de « durabilité » de l'UNESCO fait écho au principe de « développement soutenable » de la Déclaration de Montréal.
[Vérifier les initiatives ayant explicitement cité la méthodologie de la Déclaration de Montréal comme modèle]
Le défi de l'opérationnalisation des principes éthiques (principles-to-practice gap) est un thème récurrent dans la littérature. Voir : Mittelstadt, B. (2019). Principles alone cannot guarantee ethical AI. Nature Machine Intelligence, 1(11), 501–507.
[Vérifier si un processus de mise à jour de la Déclaration a été annoncé ou engagé]
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Les informations sur la Déclaration de Montréal sont basées sur des sources publiques vérifiables. Les détails du processus de consultation et les chiffres de participation doivent être confirmés sur le site officiel de la Déclaration.
Bibliothèque IA Responsable — Document 5.4
Fiches chercheurs
Figures clés de l'IA responsable au Québec
Public : Étudiants, chercheurs, partenaires★ IntroductifMise à jour : Annuelle
Résumé exécutif
Ce document présente des portraits synthétiques de chercheurs ayant contribué de manière significative au développement de l'IA et de l'IA responsable au Québec. Seuls des profils dont les contributions sont vérifiables publiquement sont inclus. Les attributions sont limitées à ce qui est documenté avec certitude.
⚠️ Avertissement d'intégrité : Conformément aux principes de cette bibliothèque, aucune position, citation ou travail n'est attribué à un chercheur sans certitude de l'exactitude de cette attribution. Les affiliations et les travaux mentionnés reflètent l'état de connaissance au moment de la rédaction. Les profils doivent être vérifiés sur les pages institutionnelles des chercheurs concernés.
Profils
Yoshua Bengio
Université de Montréal · Mila · Prix Turing 2018
Yoshua Bengio est l'un des trois « pères de l'apprentissage profond » (avec Geoffrey Hinton et Yann LeCun), distinction qui leur a valu le prix Turing 2018.1 Professeur au Département d'informatique et de recherche opérationnelle (DIRO) de l'Université de Montréal, il est le fondateur scientifique de Mila.
Contributions à l'IA responsable : au-delà de ses contributions techniques fondatrices, Bengio s'est engagé activement dans les débats sur la gouvernance de l'IA. Il a été un acteur clé de la Déclaration de Montréal (2018) et a plaidé publiquement pour une régulation internationale des systèmes IA avancés. Depuis 2023, il s'est particulièrement prononcé sur les risques des systèmes IA de grande puissance.2
Vérification : page institutionnelle UdeM/DIRO, site Mila, Google Scholar.
Marc-Antoine Dilhac
Université de Montréal · Département de philosophie [Vérifier affiliation actuelle]
Philosophe spécialisé en éthique de l'IA, Marc-Antoine Dilhac a été le coordonnateur scientifique de la Déclaration de Montréal pour un développement responsable de l'IA (2018). Il a joué un rôle central dans la conception et la mise en œuvre du processus de consultation citoyenne qui a produit la Déclaration.3
Contributions : coordination de la Déclaration de Montréal, recherche en éthique de l'IA, participation à des consultations gouvernementales sur la gouvernance de l'IA.
Vérification : page institutionnelle UdeM, site de la Déclaration de Montréal.
Aaron Courville
Université de Montréal · Mila [Vérifier affiliation actuelle]
Professeur en informatique à l'Université de Montréal et membre de Mila, Aaron Courville est un chercheur reconnu en apprentissage profond. Il est coauteur avec Ian Goodfellow et Yoshua Bengio du manuel de référence Deep Learning (MIT Press, 2016), l'un des ouvrages les plus utilisés pour l'enseignement de l'apprentissage profond dans le monde.4
Contributions : recherche en apprentissage profond, en modèles génératifs et en représentation des connaissances. Contribution à la formation de centaines de chercheurs à travers son enseignement et le manuel Deep Learning.
Note : Cette liste est volontairement restreinte aux profils dont les contributions peuvent être attribuées avec une certitude élevée. De nombreux autres chercheurs et chercheuses contribuent activement à l'IA responsable au Québec — dans les universités montréalaises, à l'Université Laval, à l'Université de Sherbrooke et ailleurs. L'absence d'un profil ne reflète pas un jugement sur l'importance de ses contributions, mais les limites de certitude de ce document. Les lecteurs sont invités à consulter les sites de Mila, IVADO, OBVIA et des universités pour une cartographie complète et à jour.
Points clés à retenir
L'écosystème québécois compte des chercheurs de calibre mondial en IA et en éthique de l'IA.
Les contributions couvrent un spectre large : recherche fondamentale, normes éthiques, gouvernance, formation.
L'interdisciplinarité (informatique, philosophie, droit, gestion) est une force de l'écosystème.
Ce document est intentionnellement prudent dans ses attributions — mieux vaut moins mais exact.
Questions de réflexion
Comment assurer la visibilité des chercheurs et chercheuses émergents en IA responsable, au-delà des figures les plus connues ?
L'interdisciplinarité est-elle suffisamment valorisée dans les parcours de carrière académique en IA ?
Le modèle de la « star scientist » (concentration de la visibilité sur quelques individus) est-il compatible avec une approche collective de l'IA responsable ?
Notes
Prix Turing 2018 attribué conjointement à Yoshua Bengio, Geoffrey Hinton et Yann LeCun par l'Association for Computing Machinery (ACM). Vérifiable sur le site de l'ACM.
[Vérifier les prises de position les plus récentes de Yoshua Bengio — ses positions sur les risques IA ont évolué significativement depuis 2023. Consulter ses publications et interventions publiques récentes.]
Le rôle de Marc-Antoine Dilhac dans la Déclaration de Montréal est documenté sur le site officiel de la Déclaration. [Vérifier son affiliation et ses activités actuelles]
Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. MIT Press. L'un des manuels les plus utilisés dans l'enseignement de l'apprentissage profond.
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Par souci d'intégrité, ce document est volontairement limité à un petit nombre de profils dont les contributions sont vérifiables avec un haut degré de certitude. Aucune position ou citation n'est attribuée sans fondement documenté. Consultez les pages institutionnelles pour des informations à jour et complètes.
Bibliothèque IA Responsable — Document 5.5
20 articles incontournables sur l'IA éthique
Revue de littérature annotée · Gestion & sciences sociales
Public : Étudiants gradués, chercheurs, professeurs★★★ AvancéMise à jour : Annuelle
Résumé exécutif
Cette revue de littérature annotée sélectionne 20 articles scientifiques fondamentaux sur l'IA éthique, avec un accent sur les sciences de la gestion et les sciences sociales. Chaque entrée présente la référence, un résumé de la contribution, ses limites et sa pertinence. Seules des publications dont l'existence est vérifiable sont incluses.
Critères de sélection : impact académique (citations), pertinence pour les sciences de la gestion et sociales, accessibilité, diversité thématique. Classement thématique, non hiérarchique. Vérification recommandée : Google Scholar, ACM DL, JSTOR, CAIRN.
A. Paysage et principes de l'IA éthique
1. The global landscape of AI ethics guidelines
Jobin, A., Ienca, M., & Vayena, E. (2019). Nature Machine Intelligence, 1(9), 389–399.
Recension systématique de 84 ensembles de principes éthiques pour l'IA à l'échelle mondiale. Identifie cinq principes récurrents (transparence, justice, non-malfaisance, responsabilité, vie privée) et des divergences significatives. Article de référence pour cartographier le champ.
principespanoramaconvergences
2. Principles alone cannot guarantee ethical AI
Mittelstadt, B. (2019). Nature Machine Intelligence, 1(11), 501–507.
Critique fondamentale de l'approche par les principes : sans mécanismes d'application, les déclarations éthiques risquent l'ethics washing. Argumente en faveur d'une gouvernance contraignante et de mécanismes de reddition de comptes.
critiquegouvernanceopérationnalisation
3. Closing the AI accountability gap
Raji, I. D. et al. (2020). Proceedings of ACM FAT*. [pages à vérifier]
Propose un cadre d'audit interne des systèmes IA inspiré des pratiques d'audit financier. Contribue à opérationnaliser l'imputabilité algorithmique en proposant des mécanismes concrets de vérification.
Buolamwini, J. & Gebru, T. (2018). Proceedings of Machine Learning Research, 81, 1–15.
Étude pionnière documentant les disparités de performance des systèmes de reconnaissance faciale commerciaux selon le genre et le teint de peau. A lancé un débat majeur sur les biais dans les systèmes déployés et influencé les politiques de plusieurs entreprises.
biaisintersectionnalitéreconnaissance faciale
5. A survey on bias and fairness in machine learning
Mehrabi, N. et al. (2021). ACM Computing Surveys, 54(6). [n° article à vérifier]
Revue exhaustive des sources de biais en apprentissage automatique, des métriques d'équité et des techniques de mitigation. Référence complète et actualisée pour tout chercheur travaillant sur les biais.
biaisrevuemétriques
6. Fairness and Abstraction in Sociotechnical Systems
Selbst, A. D. et al. (2019). Proceedings of ACM FAT*.
Critique les approches purement formelles de l'équité algorithmique en identifiant cinq « pièges d'abstraction » qui déconnectent les solutions techniques de leur contexte social. Essentiel pour comprendre pourquoi les solutions techniques seules ne suffisent pas.
équitésociotechniquecritique
7. Fair prediction with disparate impact
Chouldechova, A. (2017). Big Data, 5(2), 153–163.
Démonstration mathématique de l'impossibilité de satisfaire simultanément certaines définitions de l'équité. Résultat fondamental impliquant que tout choix de métrique est un choix normatif.
impossibilitémétriquesfondamental
8. Dissecting racial bias in an algorithm used to manage health of populations
Obermeyer, Z. et al. (2019). Science, 366(6464), 447–453.
Révèle un biais racial majeur dans un algorithme de santé utilisé pour des millions de patients aux USA. Montre comment le choix d'un proxy inadéquat (coût des soins au lieu de gravité de la maladie) peut produire une discrimination systématique.
santébiais racialproxy
C. Transparence et explicabilité
9. Stop explaining black box models for high stakes decisions
Rudin, C. (2019). Nature Machine Intelligence, 1(5), 206–215.
Argumente que les modèles intrinsèquement interprétables doivent être préférés aux explications post hoc de modèles opaques dans les contextes à enjeux élevés. Remet en question l'approche dominante de l'explicabilité.
explicabilitéinterprétabilitéboîte noire
10. "Why should I trust you?": Explaining the predictions of any classifier
Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). Proceedings of ACM KDD.
Article fondateur de LIME (Local Interpretable Model-agnostic Explanations), l'un des outils d'explicabilité les plus utilisés. Propose une méthode pour expliquer les prédictions individuelles de n'importe quel classificateur.
LIMEexplicabilitéoutil
11. A unified approach to interpreting model predictions
Lundberg, S. M. & Lee, S.-I. (2017). Advances in NeurIPS.
Propose SHAP (SHapley Additive exPlanations), cadre unifié d'explicabilité fondé sur les valeurs de Shapley de la théorie des jeux. Devenu un standard pour la quantification des contributions de variables.
SHAPShapleyoutil
D. Gouvernance, pouvoir et société
12. The relevance of algorithms
Gillespie, T. (2014). In Media Technologies, MIT Press. [pages à vérifier]
Analyse fondatrice de la dimension sociale et politique des algorithmes. Montre comment les algorithmes structurent la participation publique et le débat démocratique. Essentiel pour les études de communication et la sociologie.
algorithmessociétémédias
13. Weapons of Math Destruction
O'Neil, C. (2016). Weapons of Math Destruction. Crown Publishing.
Ouvrage grand public mais influent, documentant comment les algorithmes perpétuent les inégalités dans le crédit, l'éducation, l'emploi et la justice. Accessible aux non-spécialistes.
inégalitéssociétévulgarisation
14. The Age of Surveillance Capitalism
Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
Analyse magistrale du capitalisme de surveillance : comment les données comportementales sont extraites et transformées en produits de prédiction. Cadre théorique influent pour comprendre l'économie politique de l'IA.
surveillanceéconomie politiquedonnées
15. On the Opportunities and Risks of Foundation Models
Bommasani, R. et al. (2021). Stanford CRFM. [Disponible sur arXiv]
Rapport de référence sur les modèles de fondation : analyse systématique des opportunités et des risques (homogénéisation, concentration, biais à l'échelle). A popularisé le terme « foundation model ».
modèles de fondationrisquesconcentration
E. Documentation et méthodologie
16. Model Cards for Model Reporting
Mitchell, M. et al. (2019). Proceedings of ACM FAT*.
Propose les model cards, un format standardisé de documentation des performances, limites et biais des modèles IA. Devenu un standard de facto dans l'industrie et la recherche.
documentationtransparencestandard
17. Datasheets for Datasets
Gebru, T. et al. (2021). Communications of the ACM, 64(12), 86–92.
Propose un cadre de documentation systématique des jeux de données (motivation, composition, collecte, usages, limites). Complément naturel des model cards pour la traçabilité des données.
donnéesdocumentationméthodologie
F. IA et gestion
18. Artificial Intelligence in Human Resources Management
Tambe, P. et al. (2019). California Management Review, 61(4), 15–42. [Volume et pages à vérifier]
Analyse des applications et des défis de l'IA en gestion des ressources humaines. Examine les risques de biais dans le recrutement algorithmique et les enjeux éthiques de la surveillance au travail.
gestionRHrecrutement
19. Value Sensitive Design methods
Friedman, B., Hendry, D. G., & Borning, A. (2017). Foundations and Trends in HCI, 11(2), 63–125. [volume à vérifier]
Revue systématique des méthodes de Value-Sensitive Design, l'approche méthodologique visant à intégrer les valeurs humaines dans la conception des technologies. Fondement de l'approche « by design » en IA éthique.
conceptionvaleursméthodologie
20. Energy and policy considerations for deep learning in NLP
Strubell, E., Ganesh, A., & McCallum, A. (2019). Proceedings of the 57th ACL. [pages à vérifier]
Article pionnier quantifiant les coûts énergétiques et environnementaux de l'entraînement de modèles de langage. A ouvert le débat sur la durabilité de l'IA et la responsabilité environnementale de la recherche.
environnementénergiedurabilité
Points clés à retenir
Le champ de l'IA éthique est interdisciplinaire : informatique, philosophie, droit, gestion, STS, communication.
Trois axes structurants : biais/équité, transparence/explicabilité, gouvernance/pouvoir.
Plusieurs résultats fondamentaux (impossibilité d'équité simultanée, biais systémiques documentés) ont des implications directes pour la pratique.
La documentation (model cards, datasheets) émerge comme standard de l'IA responsable.
La durabilité environnementale de l'IA est un thème en croissance rapide.
Questions de réflexion
Quels articles ajouteriez-vous à cette liste pour refléter les développements les plus récents (IA générative, régulation) ?
La littérature sur l'IA éthique est-elle suffisamment diversifiée géographiquement et culturellement ?
Comment intégrer cette littérature dans un cours qui n'est pas spécifiquement dédié à l'éthique de l'IA ?
Bases de données recommandées pour vérification et exploration : Google Scholar, ACM Digital Library, JSTOR, arXiv, SSRN, CAIRN (francophone), Érudit (québécois). La plupart des articles sont accessibles en accès libre ou via les abonnements institutionnels des universités québécoises.
⚠️ Note méthodologique : Ce document a été généré avec assistance IA. Toutes les références citées sont des publications dont l'existence est vérifiable, mais les détails bibliographiques (volume, pages, année exacte) marqués [à vérifier] doivent être confirmés sur Google Scholar ou les bases de données mentionnées. Cette liste n'est pas exhaustive et reflète un choix éditorial.