Risk-Management

Audit d’impact éthique

Comment structurer un audit d’impact éthique de l’IA en s’inspirant des cadres de référence existants.

L’audit d’impact éthique vise à documenter les effets potentiels d’un système d’IA sur les personnes, les communautés et l’environnement, avant et pendant sa mise en service. Trois références structurantes guident cette démarche :

  1. L’Algorithmic Impact Assessment (AIA) du gouvernement canadien – exigé pour tout service public utilisant l’automatisation décisionnelle. Il évalue les risques sur quatre axes (portée du système, autonomie, impacts sur les droits, conséquences financières) et associe un niveau d’exigence (1 à 4) aux mesures de mitigation attendues.
  2. L’Ethics Canvas du Planet Centric Toolkit – un canevas collaboratif qui oblige l’équipe à décrire les parties prenantes, les bénéfices déclarés, les dommages possibles et les garde-fous.
  3. Le “Impact Assessment Play” décrit dans le Responsible Tech Playbook de Thoughtworks (2021) – propose un pas-à-pas facilitateur : poser les cinq questions “Why/Who/What/How/When”, identifier les scénarios d’abus, scorer les impacts via une matrice, puis traduire les conclusions dans un registre d’actions responsables.

Processus recommandé

  1. Cadrer le système