SER Blog  Information Governance

AI Act : cadres réglementaires et juridiques d’encadrement de l’intelligence artificielle

Intégrée dans d’innombrables applications informatiques, l’intelligence artificielle est conçue pour nous aider, nous les humains, dans notre travail et notre vie quotidienne. Pour garantir un cadre juridique sûr, l’Union européenne a promulgué la première loi sur l’IA au monde sous la forme de l’AI Act ou règlement sur l’intelligence artificielle. Objectif de cette législation européenne : encadrer l’usage de l’IA en s’appuyant sur des approches fondées sur les risques.

Dans cet article, nous faisons le point sur l’état actuel de ce règlement pour les entreprises et esquissons les opportunités qu’il engendrera.

Qu’est-ce que l’AI Act de l’UE ?

Cette législation de l’Union européenne encadrant l’intelligence artificielle crée un ensemble de règles qui englobe l’harmonisation de règlements sur l’IA à l’échelle de l’Union. Elle vise à renforcer le marché intérieur et à normaliser les aspects réglementaires et juridiques de l’usage de l’IA, en particulier le développement, la commercialisation, le déploiement et l’exploitation des systèmes d’IA.

La section 4 de l’AI Act définit l’intelligence artificielle comme « une famille de technologies en évolution rapide, contribuant à un large éventail de bienfaits économiques, environnementaux et sociétaux touchant l’ensemble des secteurs économiques et des activités sociales. ».

Contexte de l’AI Act

À long terme, ce règlement entend renforcer la confiance dans les technologies d’IA. Ce cadre repose sur les valeurs inscrites dans la Charte de l’Union européenne : son objectif n’est pas d’interdire ou de limiter l’intelligence artificielle, mais plutôt d’adopter des systèmes d’intelligence artificielle dignes de confiance dans tous les domaines.

Par exemple, des secteurs tels que la sécurité alimentaire, la gestion des infrastructures, les services publics ou le transport et la logistique utilisent l’intelligence artificielle pour apporter des avancées à la société. Cette législation protège les droits des personnes physiques, des entreprises, de la démocratie, de l’État de droit et de l’environnement.
Bienfaits de l’intelligence artificielle :

  • L’IA favorise l’innovation.
  • Elle améliore les prévisions.
  • Elle diminue la charge de travail des salariés.
  • Elle optimise les processus.
  • Elle personnalise les solutions numériques.
  • Elle optimise l’allocation des ressources.
  • Elle améliore la compétitivité.
  • Elle renforce la formation générale et professionnelle.

Malgré ce règlement, vous avez tout intérêt à intégrer l’intelligence artificielle dans vos processus opérationnels. L’AI Act se contente de minimiser les risques pour la santé et la sécurité liés à l’IA et de protéger les droits humains.

Date d’entrée en vigueur et règles transitoires

L’AI Act s’applique à vous dès aujourd’hui de la manière suivante :

  • Le 21 mai 2024, le Conseil des 27 États membres de l’UE a officiellement adopté ce règlement sur l’IA.
  • Le 27 juillet 2024, l’UE l’a publié au journal officiel.
  • Cette législation est entrée en vigueur le 1er août 2024.

Des règles transitoires s’appliquent pour les deux prochaines années. Pendant cette période, les États membres de l’UE ont la possibilité de transposer ce règlement dans leur législation nationale, Les systèmes d’IA à haut risque constituent l’exception. Pour ces derniers, les périodes transitoires sont portées à 36 mois.

Pour vous, en tant qu’entreprise, cela signifie qu’à l’issue de l’expiration des périodes transitoires, vous ne pourrez pas commercialiser ni utiliser des systèmes d’IA non conformes à l’AI Act. Cependant, ces périodes transitoires vous accordent également beaucoup de temps pour vous préparer à cette législation.

Doxis Intelligent Content Automation

With Doxis Intelligent Content Automation SER offers the next level of enterprise content management.

Lire maintenant

Qui est concerné par l’AI Act?

Si votre entreprise met au point, exploite ou vend un système d’intelligence artificielle, vous devez respecter les règles édictées par ce nouveau règlement. Cette législation européenne classe les systèmes d’IA en quatre niveaux de risque, le niveau de risque déterminant les règles spécifiques à suivre. En fait, plus le risque est élevé, plus vous devez vous conformer à des réglementations.

1. Systèmes d’IA à risque minimal

Si vous utilisez des systèmes d’IA à risque minimal, il n’y a pas lieu de s’inquiéter. Vous n’avez donc rien à faire. Ces systèmes comprennent les correcteurs orthographiques basés sur l’IA, les algorithmes de recherche, l’IA dans les jeux vidéo ou les filtres anti-spam.

2. Systèmes d’IA à risque limité

L’AI Act classe les systèmes d’IA tels que les assistants vocaux numériques (Doxi, par exemple), les chatbots ou les deepfakes comme présentant un risque limité. Si vous utilisez ces systèmes, vous devez en informer les utilisateurs. Vous devez donc leur signaler que vous utilisez un système d’IA avec lequel ils interagissent. Vous devez également connaître les conditions requises en matière d’étiquetage des médias générés par IA, comme les enregistrements audio.

3. Systèmes d’IA à haut risque

Les systèmes d’IA qui portent atteinte aux droits des personnes présentent un risque élevé. Parmi ceux-ci figurent la reconnaissance faciale biométrique, mais aussi l’intelligence artificielle intégrée dans les outils de gestion des ressources humaines ou de vérification de la solvabilité. L’AI Act identifie donc un risque élevé, par exemple lorsque l’intelligence artificielle décide si une personne est un bon candidat à une offre d’emploi ou si son profil est adapté à l’octroi d’un prêt. Les systèmes d’IA dans les domaines de la santé, de l’éducation ou des infrastructures critiques font également partie de la catégorie des IA à haut risque.
Dans ce cas, l’usage de l’intelligence artificielle relève d’une question de conformité. La législation définit les exigences suivantes :

  • Évaluer dans quelle mesure le système d’IA pourrait violer les droits fondamentaux.
  • Former le personnel à l’utilisation des modèles d’IA.
  • Stocker les journaux créés automatiquement par le système d’IA dans le respect de la réglementation.

4. Systèmes d’IA présentant un risque inacceptable

Les applications et pratiques d’IA présentant des risques inacceptables sont interdites. L’article 5 de l’AI Act en donne un aperçu. Pratiques interdites en matière d’IA :

  • Systèmes d’IA qui recourent à des techniques de manipulation et de tromperie pour modifier le comportement des personnes afin d’influer sur leur prise de décision.
  • Systèmes d’IA qui prédisent si une personne est susceptible de commettre un délit en s’appuyant uniquement sur son profilage.
  • Systèmes d’IA qui étendent les bases de données de reconnaissance faciale en scannant des images faciales à partir d’Internet ou de séquences de vidéosurveillance.

Ce que les entreprises doivent faire dès aujourd’hui

Le règlement sur l’IA concerne toutes les entreprises. Même si vous n’utilisez pas encore l’IA, les modèles d’IA feront bientôt partie intégrante de votre travail. Pour les entreprises qui utilisent déjà l’IA, il est doublement intéressant de prendre de l’avance sur ce règlement.

Vous pouvez le faire dès aujourd’hui dans le cadre de votre programme de gestion de la qualité :

Identifier les IA déjà en usage

Dans un premier temps, examinez les modèles d’IA que vous utilisez déjà. Si vous utilisez des systèmes d’IA à haut risque conformément à l’annexe III, vous êtes tenu de suivre la procédure d’évaluation de la conformité. L’AI Act prévoit deux moyens d’évaluer les systèmes de gestion de la qualité et la documentation technique :

  1. les contrôles internes
  2. les contrôles externes par des organismes notifiés

Il est utile d’évaluer les systèmes d’IA en fonction de leurs risques, que vous soyez ou non tenu d’effectuer une évaluation de conformité. Cela vous permet de réduire complètement ou partiellement leurs risques intrinsèques.

Élaborer des politiques en matière d’IA

La deuxième étape consiste à définir une charte interne d’usage de l’IA en s’appuyant sur le règlement sur l’intelligence artificielle. Les politiques d’IA régissent l’usage envisagé des outils d’IA. Quels sont les outils autorisés ? Quels sont les cas d’usage que l’outil peut prendre en charge ? Comment traiter la question de la protection des données ? La politique en matière d’IA répond à ces questions de manière claire et transparente. Chez SER, nous avons mis en place une politique d’IA similaire.

L’intérêt ? Sur cette base, vous décidez aujourd’hui et à l’avenir des systèmes d’IA utilisés, ainsi que de la manière dont vous comptez les utiliser et où vous envisagez de le faire. Cela permet également de se prémunir contre les abus au sein de l’entreprise, c’est-à-dire de n’utiliser l’IA que dans l’optique d’un impact positif sur vos processus métier.

Executive Summary: Total Economic Impact™ study

Long-time customer SEW-EURODRIVE achieved a 336% ROI over a three-year period and a payback in less than six months. We have summarized the study results for you.

Lire maintenant

Possibilités d’utilisation de l’IA au quotidien à l’exemple de Doxi

L’AI Act montre déjà que l’intelligence artificielle offre de grandes possibilités aux entreprises sous la forme des systèmes d’IA à risque minimal. C’est le cas, par exemple, lorsque l’intelligence artificielle ne dirige pas les opérations, mais se contente d’en accomplir certaines à la place des salariés, les soulageant ainsi de leur charge de travail. Notre IA, Doxi, vous aide par exemple dans vos activités quotidiennes en vous déchargeant des tâches routinières et redondantes.

Doxi, dans quels domaines facilites-tu les activités quotidiennes ?

Intelligence artificielle : nouvelle législation d’évaluation des risques

Avec l’AI Act, l’UE normalise les modalités de développement, de commercialisation, de déploiement et d’exploitation de l’IA pour tous les États membres. Ce nouveau règlement adopte une approche essentiellement fondée sur le risque : plus le niveau de risque augmente, plus les entreprises doivent respecter de critères stricts si elles mettent en œuvre des systèmes d’intelligence artificielle. Certains de ces systèmes étant tout bonnement interdits, les entreprises ont tout intérêt à étudier ceux qu’elles utilisent, à les évaluer et à élaborer leur propre politique en matière d’IA. Ainsi, elles ont l’assurance de recourir à des systèmes d’IA dans le respect de la réglementation, en toute sécurité et en toute transparence, et de faire en sorte que l’usage de l’IA ne soit que positif.

Vous souhaitez interroger les experts ? Nos spécialistes de l’IA sont là pour vous aider. Contactez-nous sans plus tarder.

FAQ sur l’AI Act

Quel est l’objectif de l’AI Act ?
Le règlement de l’UE sur l’intelligence artificielle ou AI Act fournit un cadre commun pour l’utilisation des systèmes d’IA par les entreprises. Les règles qui y sont définies visent à minimiser les risques pour la santé, la sécurité
Quelle est l’approche de l’AI Act ?
La législation européenne sur l’IA adopte une approche fondée sur les risques. Elle classe les systèmes d’IA dans les catégories suivantes : risque minimal, risque limité, risque élevé et risque inacceptable. Les systèmes présentant des risques inacceptables seront interdits à l’avenir, tandis que tous les autres seront soumis à des restrictions.
Quand l’AI Act est-il entré en vigueur ?
Le règlement sur l’IA est entré en vigueur le 1er août 2024. À partir du 2 août 2026, ce projet de loi deviendra obligatoire à l’issue des périodes transitoires.

Cela pourrait aussi vous intéresser