Ia

L’échelle, vraiment ?

L’échelle, vraiment ?

Pourquoi « passer à l’échelle » ne suffit pas et comment explorer d’autres trajectoires organisationnelles compatibles avec l’IA.

Réflexion sur l’échelle, le problème et l’IA solution

Passer à l’échelle ou grandir ?

Depuis quinze ans et jusqu’en 2024, la promesse du « passage à l’échelle » occupait les conférences agiles. Les programmes de transformation se sont multipliés à grand coup de frameworks at scale, plus ou moins controversés. Tous semblaient d’accord sur un point: commencer par construire de premières équipes agiles avant de les coordonner pour la réalisation de produits ou programmes plus grands. Pourtant, répéter les mêmes pratiques en plus grand ne fait ni grandir les personnes, ni assainir les organisations. Escalader dans la hiérarchie ne change pas la topographie : on reproduit les mêmes silos avec plus de meetings et moins d’autonomie.

🤖 IA Responsable: Éthique, Risques et Gouvernance

Comprendre l'IA responsable - Enjeux de gouvernance, risques, et cadres de référence pour une IA plus humaine et durable.

🎯 L’IA Générative: Un Outil Qui Donne Le Vertige

L’intelligence artificielle générative s’est imposée en quelques mois comme un outil transformateur. Mais transformer vers quoi? Pour qui? Et à quel coût?

Bien que l’IA nous procure un sentiment d’omniscience avec la capacité de tout savoir sur tout en quelques prompts, il n’en reste pas moins des zones d’ombre.

Besoin De Hauteur de Vue

L’IA n’est pas neutre. Elle encode les choix, les biais, les valeurs de ceux qui l’ont créée. La question n’est pas “faut-il utiliser l’IA?” mais plutôt:

Cadres de décision responsable

Choisir et documenter les décisions IA grâce aux cadres de référence (WEF Responsible AI Toolkit, Consequence Scanning, Planet Centric Toolkit, Mozilla).

Une IA responsable ne se joue pas uniquement au niveau des modèles : elle se décide à chaque arbitrage produit, juridique ou technique. Utiliser un cadre de décision responsable permet de formaliser ces arbitrages, d’expliquer les compromis réalisés et de tracer qui a validé quoi. Quatre ressources peuvent être combinées :

  1. Responsible AI Toolkit du World Economic Forum – propose un Decision Framework en quatre blocs (définir les objectifs, diagnostiquer la maturité, mettre en œuvre les contrôles, piloter la gouvernance). Il s’accompagne de questionnaires et d’un registre des décisions critiques.
  2. Mozilla Trustworthy AI – fournit des principes et un guide « Builder’s Checklist » pour évaluer chaque fonctionnalité selon six exigences (opportunité, transparence, agency, équité, inclusivité, responsabilité).
  3. Planet Centric Design Toolkit (Consequence Scanning / Decision Grid) – publié sur planetcentricdesign.com et proposant des ateliers collaboratifs pour anticiper les conséquences inattendues et décider des actions à entreprendre avant la mise en production.
  4. Thoughtworks – Responsible Tech Playbook (Decision Log & Consequence Scanning plays) – propose un rituel d’une demi-journée pour cadrer les choix essentiels, formuler les “decision statements”, décrire les hypothèses et noter ce qui déclencherait une révision. C’est un bon complément pour rendre vos décisions auditable.

Structurer vos décisions

  1. Clarifier l’intention

Métavers

Métavers

Vers où nous-mènent les métavers ?

Pourquoi mon intérêt pour ce thème ?

Plusieurs facteurs concordant m’ont incité à m’inscrire à un webinaire ce samedi matin 23/04/2022.

  • Les Designers éthiques, Association de recherche-action autour de la conception responsable et durable

  • La CNIL

  • Les SMACS

Les SMACS

J’étais passé à côté de ces 2 termes SMACS et Métavers jusqu’ici. Hors, j’ai l’opportunité de donner une formation sur le bon usage des données, technologies et outils numériques à des étudiants en mastère communication. Une occasion pour moi de rafraîchir mes connaissances et d’apprendre au contact de nouvelles personnes d’un nouveau domaine pour moi.