Audit d’impact éthique

L’audit d’impact éthique vise à documenter les effets potentiels d’un système d’IA sur les personnes, les communautés et l’environnement, avant et pendant sa mise en service. Trois références structurantes guident cette démarche :

  1. L’Algorithmic Impact Assessment (AIA) du gouvernement canadien – exigé pour tout service public utilisant l’automatisation décisionnelle. Il évalue les risques sur quatre axes (portée du système, autonomie, impacts sur les droits, conséquences financières) et associe un niveau d’exigence (1 à 4) aux mesures de mitigation attendues.
  2. L’Ethics Canvas du Planet Centric Toolkit – un canevas collaboratif qui oblige l’équipe à décrire les parties prenantes, les bénéfices déclarés, les dommages possibles et les garde-fous.
  3. Le “Impact Assessment Play” décrit dans le Responsible Tech Playbook de Thoughtworks (2021) – propose un pas-à-pas facilitateur : poser les cinq questions “Why/Who/What/How/When”, identifier les scénarios d’abus, scorer les impacts via une matrice, puis traduire les conclusions dans un registre d’actions responsables.

Processus recommandé

  1. Cadrer le système

    • Décrire la finalité, les données traitées et le niveau d’autonomie de l’IA.
    • Cartographier les décisions assistées vs automatisées.
  2. Identifier les parties prenantes

    • Utiliser l’Ethics Canvas pour nommer bénéficiaires, personnes impactées, opérateurs, organismes de régulation.
    • Recenser les positions asymétriques (qui subit / qui décide).
  3. Évaluer les risques éthiques

    • S’appuyer sur la grille AIA : biais, discrimination, manque d’explicabilité, dépendance à un fournisseur, sécurité.
    • Reprendre les critères du playbook Thoughtworks (impact sur les droits, exploitabilité, durée, surface d’exposition) pour animer la discussion.
    • Noter la gravité et la probabilité, puis attribuer un niveau d’impact.
  4. Définir les mesures de mitigation

    • Exigences d’explicabilité, procédures d’appel humain, limitation d’usage, plan de retrait d’urgence.
    • Indicateurs de suivi (dérive de modèle, plaintes, incidents).
  5. Publier et maintenir

    • Documenter l’audit, les limites connues et le plan d’amélioration.
    • Revoir l’audit à chaque changement de données, de modèle ou de contexte légal.

En pratique

  • Quand : avant la mise en production et à intervalles réguliers (ex. semestriel).
  • Qui : équipe produit, juridique/compliance, représentants métiers, usagers concernés.
  • Livrables : rapport synthétique, registre des décisions, backlog d’actions éthiques.

Références utiles