Résumé
L’article 50 du RIA fixe les obligations de transparence pour certains systèmes d’IA à risque limité, afin de garantir que les personnes sachent quand elles interagissent avec de l’IA et puissent adapter leur comportement en conséquence.
Qui est concerné?
- Fournisseurs de systèmes d’IA destinés à interagir avec des personnes physiques (chatbots, assistants, etc.).
- Fournisseurs de systèmes d’IA (y compris GPAI) générant des contenus audio, image, vidéo ou texte de synthèse.
- Déployeurs de systèmes de reconnaissance des émotions ou de catégorisation biométrique.
- Déployeurs de systèmes d’IA générant ou manipulant des hypertrucages (deepfakes) ou des textes d’information du public.
Quelles sont les obligations?
- Informer clairement la personne qu’elle interagit avec un système d’IA
- Marquer, dans un format lisible par machine, les contenus générés ou manipulés par l’IA (audio, image, vidéo, texte) comme tels,
- Informer les personnes exposées à un système de reconnaissance des émotions ou de catégorisation biométrique du fonctionnement du système et traiter les données personnelles conformément au RGPD
- Signaler que les images, contenus audio ou vidéo constituent un hypertrucage (« deepfake »), et indiquer qu’un texte d’information du public a été généré ou manipulé par une IA.
- Fournir ces informations de manière claire, reconnaissable, accessible, au plus tard lors de la première interaction ou exposition.
Pourquoi ?
- Permettre aux personnes de savoir qu’elles interagissent avec une IA ou qu’un contenu est artificiel, afin qu’elles puissent ajuster leur comportement et protéger leurs droits fondamentaux.
- Prévenir les risques de tromperie, de manipulation, de discrimination ou d’atteinte aux droits (notamment via les deepfakes ou la reconnaissance des émotions).
- Compléter les exigences de sécurité et de droits fondamentaux
Législation
RIA : article 50
Actualités
05.03.2026: Publication du deuxième projet de code de bonnes pratiques sur le marquage et l’étiquetage des contenus générés par l’IA
17.12.2025: Premier projet de code de bonnes pratiques sur le marquage et l’étiquetage des contenus générés par l’IA
