Nouvelle règlementation européenne sur l’intelligence artificielle

Le règlement sur l’intelligence artificielle (IA) a été publié le 12 juillet 2024 au Journal Officiel de l’Union Européenne (JOUE). Il entre en vigueur à compter du 1er août 2024 et fera l’objet d’une mise en application progressive. Il s’agit du premier cadre juridique au monde concernant l’IA. Ce texte comporte notamment des dispositions relatives aux systèmes d’IA interdits, des règles en matière de transparence applicables à certains systèmes d’IA, des règles relatives aux modèles d’IA à usage général ainsi que des dispositions relatives à la surveillance du marché et de soutien à l’innovation. En pratique, ce règlement est susceptible d’impacter tout l’écosystème de l’achat hospitalier et les fournisseurs.

 

Intelligence artificielle, définition et enjeux

Afin de mieux comprendre cette nouvelle législation, il apparait utile de définir ce qu’est « un système d’intelligence artificielle ». Conformément au règlement sur l’IA, est considéré comme un système d’intelligence artificielle « un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels » [1] .

Les systèmes d’IA sont aujourd’hui omniprésents dans notre vie quotidienne. Nous les retrouvons dans quasiment tous les secteurs d’activités comme la santé, les transports ou encore l’industrie. Face à cette technologie qui se développe à la vitesse de la lumière, il est apparu urgent d’encadrer son usage afin d’éviter de potentielles dérives.

C’est dans de ce cadre que s’inscrit la règlementation européenne sur l’intelligence artificielle qui poursuit trois objectifs principaux :

  •  Harmoniser les règles relatives aux systèmes d’IA au sein de l’UE ;
  • Veiller à ce que les systèmes d’IA développés, mis sur le marché, mis en service et utilisés soient sûrs, éthiques, fiables et dignes de confiance et qu’ils respectent les droits fondamentaux et les valeurs de l’UE ;
  • Stimuler l’investissement et l’innovation dans le domaine de l’IA en Europe.

 

Une approche fondée sur les risques

La règlementation européenne sur l’IA fonde son approche sur les risques. En effet, cette nouvelle législation distingue plusieurs niveaux de risques liés aux systèmes d’IA.

Concrètement, plus le risque est élevé, plus les règles sont strictes et contraignantes :

  • Les systèmes d’IA à risque inacceptable, comme les systèmes d’IA à des fins de notation sociale ou de manipulation du comportement humain, sont interdits.
  • Les systèmes d’IA présentant un risque élevé, tels que les dispositifs médicaux intégrant de l’IA, sont soumis à des exigences et obligations spécifiques.
  • Les systèmes d’IA présentant un risque spécifique en matière de transparence doivent respecter certaines obligations, comme, par exemple, informer les utilisateurs lorsqu’ils interagissent avec ces systèmes ou indiquer que le contenu a été généré par ces systèmes.
  • Enfin, les systèmes d’IA présentant un risque minimal comme les filtres anti-spam, ne sont soumis à aucune obligation particulière.

 

Mesures relatives aux modèles d’IA à usage général

Face à l’essor de ChatGPT ou Copilot (systèmes d’IA génératives), le règlement encadre les modèles d’IA à usage général (dont font partie ces systèmes d’IA génératives) qui sont susceptibles d’effectuer un très grand nombre de tâches et ne peuvent rentrer dans les catégories susmentionnées.

Les fournisseurs doivent respecter certaines obligations en matière de modèles d’IA à usage général.

 

Mesures de soutien à l’innovation

Afin de soutenir l’innovation, il est prévu de mettre en place des « bacs à sable règlementaires de l’IA » qui correspondent à un cadre contrôlé offrant aux fournisseurs de systèmes d’IA la possibilité de développer, d’entraîner, de valider et de tester un système d’IA innovant​.

Sont également prévus par la règlementation, la mise en place d’essais pour les systèmes d’IA à haut risque en conditions réelles en dehors des bacs à sable règlementaires de l’IA ainsi que des mesures en faveur notamment des PME et des jeunes pousses (accès prioritaire aux bacs à sable règlementaires de l’IA, sensibilisation et formation au règlement, etc.).

Une entrée en application progressive

Le règlement sur l’IA été publié le 12 juillet 2024 au Journal Officiel de l’Union Européenne (JOUE). Il entre en vigueur le 1er août et fait l’objet d’une mise en application progressive comme suit :

  • 2 février 2025 : Entrée en application des dispositions relatives notamment aux systèmes d’IA interdits ;
  • 2 août 2025 : Entrée en application des dispositions relatives notamment aux modèles d’IA à usage général et des dispositions relatives aux sanctions ;
  • 2 août 2026 : Entrée en application de l’ensemble du règlement sur l’IA à l’exception de certaines dispositions relatives aux systèmes d’IA à haut risque ;
  • 2 août 2027 : Entrée en application des dispositions relatives aux systèmes d’IA à haut risque destinés à être utilisés comme composant de sécurité d’un produit ou constituant en eux-mêmes de tels produits (cf. annexe I du règlement) et des obligations qui en découlent.

Une règlementation qui impose des changements à venir pour les établissements hospitaliers

C’est tout l’écosystème de l’achat hospitalier qui va être impacté par cette nouvelle règlementation sur les systèmes d’intelligence artificielle. Cette nouvelle règlementation sur les systèmes d’IA impose de nouvelles obligations pour les établissements hospitaliers, notamment :

  • Une obligation de maîtrise de l’IA, entendu comme « les compétences, les connaissances et la compréhension qui permettent […] de procéder à un déploiement des systèmes d’IA en toute connaissance de cause, ainsi que de prendre conscience des possibilités et des risques que comporte l’IA, ainsi que des préjudices potentiels qu’elle peut causer[2]» ;
  • Des obligations spécifiques relatives aux systèmes d’IA à haut risque, notamment :
    • Prendre des mesures techniques et organisationnelles afin de garantir une utilisation des systèmes d’IA à haut risque conforme aux notices d’utilisation ;
    • Assurer un contrôle humain sur le système d’IA et confier cette mission à des personnes qui disposent des compétences et de la formation nécessaires.
    • Surveiller le fonctionnement du système d’IA à haut risque ;
    • Informer en cas de risque ou d’incident grave lié au système d’IA ;
    • Réaliser une analyse d’impact relative à la protection des données le cas échéant ;

 

Une règlementation impactant largement les fournisseurs

Les fournisseurs (candidat, soumissionnaire ou titulaire de marché) seront également impactés et devront faire face à de nombreuses obligations.

Pour les systèmes d’IA à haut risque, ils devront notamment mettre en place un système de gestion de la qualité, se soumettre à une procédure d’évaluation de la conformité ou encore, respecter certaines obligations en matière d’enregistrement. Des obligations incombant aux fournisseurs sont également prévues pour les systèmes d’IA présentant un risque spécifique en matière de transparence ainsi que pour les modèles d’IA à usage général.

Une règlementation applicable par UniHA et CAIH

Les acheteurs d’UniHA et de CAIH devront veiller à ce que les produits et objets admis au sein de nos marchés et intégrant des systèmes d’IA respectent la règlementation européenne relative à l’IA.


1 Article 3 du règlement sur l’IA
2 Article 4 – Maîtrise de l’IA du règlement sur l’IA

Voir aussi...