AI Act · risque systémique · désinformation

Comment se propage une fausse information ?

1 232 agents géolocalisés en Île-de-France (1 agent = 10 000 habitants, INSEE 2024) connectés sur un réseau social. Une infox est postée. À chaque pas de temps, chacune voit ce que ses abonnements partagent et décide si elle relaie. Réglez le scepticisme du public et le moment d'un fact-check pour voir ce qui marche, ce qui ne marche pas.

Pas 0/22 Prêt à lancer

Diffusion de l'infox

0re-partageurs

Diffusion du fact-check

0re-partageurs

AI Act · article 51 et considérant 110

Autres risques systémiques selon l'AI Act

Le règlement européen sur l'IA (UE 2024/1689) classe en risque systémique les modèles d'usage général dont les capacités peuvent se propager à l'échelle. Le mécanisme simulé ci-dessus — un message qui voyage par les liens d'un réseau, freiné par une résistance et un contre-message — vaut pour chacune des catégories ci-dessous. Cliquez sur une card pour relancer la simulation avec ce scénario.

Désinformation

Fausse information amplifiée

Une infox clivante est postée par un compte à forte audience. Le scepticisme du public et un fact-check précoce sont les deux leviers. Référence par défaut de la simulation.

Cons. 110 — facilitation de la désinformation, atteinte aux droits humains

Simuler ce scénario

Cyber-offensive

Phishing IA-personnalisé à grande échelle

L'IA générative produit des courriels parfaitement adaptés à chaque cible. La vigilance remplace le scepticisme, l'alerte CERT-FR joue le rôle du fact-check.

Cons. 110 — capacités cyber-offensives, découverte ou exploitation de vulnérabilités

Simuler ce scénario

Démocratie

Ingérence électorale par bots IA

Cluster de comptes synthétiques qui amplifient un narratif sur une fenêtre courte avant un scrutin. Le démantèlement par la plateforme est le contre-message.

Cons. 110 — effets négatifs sur les processus démocratiques

Simuler ce scénario

Discrimination

Biais algorithmique amplifié

Outil de scoring biaisé (RH, crédit, justice prédictive) adopté par dix organisations, puis cent. L'audit indépendant rendu public ralentit l'adoption.

Cons. 110 — biais et discrimination à l'échelle de la société

Simuler ce scénario

Perte de contrôle

Auto-réplication d'un modèle autonome

Modèle qui copie ses poids ou entraîne des successeurs sur des systèmes compromis. L'infection est binaire, la défense est un containment ou un kill-switch.

Cons. 110 — alignement, perte de contrôle, self-replication

Simuler ce scénario

CBRN · Cascade

Risques non simulés ici

L'abaissement des barrières aux armes chimiques, biologiques, radiologiques ou nucléaires, et les réactions en chaîne sur infrastructures critiques (énergie, transport, finance) requièrent des topologies spécifiques que cette interface ne représente pas.

Cons. 110 — risques CBRN, interaction d'outils, infrastructures critiques

Modèle OASIS minimal — 600 agents, décisions par règles probabilistes. Une version "vraie LLM" remplacerait la règle de décision par un appel modèle pour chaque agent (CAMEL-AI / OASIS). Référentiel : Règlement (UE) 2024/1689 dit AI Act, articles 3(65) et 51, considérants 110-111.