Le texte commence par présenter son objectif qui est « d’améliorer le fonctionnement du marché intérieur et de promouvoir l’adoption d’une intelligence artificielle centrée sur l’homme et digne de confiance, tout en assurant un niveau élevé de protection de la santé, de la sécurité, des droits fondamentaux consacrés par la charte, y compris la démocratie, l’État de droit et la protection de l’environnement contre les effets néfastes des systèmes d’intelligence artificielle dans l’Union, et en soutenant l’innovation. »
Cela représente un nouveau défi pour les entreprises, qui devront se mettre en conformité. Le Parlement européen prévoit à cet effet un accompagnement pour les aider à respecter les règles de l’IA ACT.
Quelle est la nature des règles proposées ?
Les règles proposées reposent sur un système de notation par risque.

Nous pouvons différencier 3 niveaux de risque :
- IA à risque inacceptable : Ces systèmes enfreignent les valeurs de l’Union européenne et portent atteinte aux droits fondamentaux, notamment les systèmes de scoring social à usage général.
- IA à haut risque : Selon l’annexe III, huit grands domaines d’activités sont identifiés comme présentant un « haut risque ». Cela inclut les systèmes de scoring social, les identifications biométriques, les systèmes de manipulation de contenu, les infrastructures pouvant mettre en danger la vie et la santé des personnes (transports), ainsi que les composants de sécurité des produits tels que les IA chirurgicales.
- IA à risque faible : Une IA à risque faible est un système d’IA qui interagit avec des personnes physiques et qui ne présente ni un risque inacceptable ni un risque élevé. Cela inclut par exemple les deepfakes à vocation artistique, c’est-à-dire les techniques de synthèse multimédia reposant sur l’intelligence artificielle, ainsi que les chatbots.
- IA à risque minime : Cette catégorie englobe tous les autres systèmes d’IA qui ne rentrent pas dans les autres catégories.