9 octobre 2024

Qu’est-ce que l’IA Act, le projet de réglementation de l’intelligence artificielle ?

L’intelligence artificielle connaît un succès grandissant à travers le monde. Utilisée dans une infinité de domaines, celle-ci présente des avantages incontestables dans les milieux professionnels, comme pour les particuliers. Toutefois, l’IA est un outil devant être encadré afin de limiter les risques qu’il pourrait entraîner. C’est pour cette raison que, progressivement, émergent des lois et réglementations concernant l’utilisation de l’intelligence artificielle. Aujourd’hui, nous attirons votre attention sur l’IA Act, un projet de réglementation visant à lutter contre la désinformation.

L’intelligence artificielle, un outil de plus en plus sollicité

Ces dernières années, l’intelligence artificielle a connu un essor considérable à travers le globe. Elle intervient de différentes manières et permet notamment de faciliter le quotidien de nombreuses entreprises en automatisant les tâches, et en facilitant le quotidien des salariés. Ses domaines d’application sont multiples : de l’outil de traduction, aux chatbots, sans oublier les systèmes de recommandations et l’automatisation des processus, celle-ci ne connaît que peu de limites. Pour ces raisons, son utilisation prend de l’ampleur dans les entreprises de toutes tailles, puisqu’elle offre, dans la majorité des cas, un gain de temps considérable aux professionnels.

Cependant, dans certains contextes, l’IA peut s’avérer imprévisible. En effet, à ce jour, il n’y a aucun moyen de déterminer les raisons la motivant à prendre une décision. Des règlementations voient alors le jour, et reposent sur la notion de risque, que nous présenterons plus en détail ci-dessous.

Qu’est-ce que l’IA Act ?

Parmi les réglementations qui ont émergé au fil du temps afin d’encadrer l’utilisation de l’IA et limiter les risques, nous retrouvons l’IA Act. Bien que celle-ci n’ait pas encore été officiellement votée, elle vise à être appliquée non seulement à l’échelle européenne, mais également mondiale.

Définition

Dans un premier temps, nous commençons par apporter quelques précisions au sujet de l’IA Act. Si celle-ci doit être votée prochainement, son implémentation réelle ne pourrait voir le jour que dans deux ans.
Ce projet de loi se base sur une approche par les risques. Qu’est-ce que cela implique ? Concernant l’utilisation de l’IA, plusieurs niveaux de risques ont été déterminés : le risque minimal, le risque limité, le risque élevé et, enfin, le risque inacceptable.

Objectifs

Les objectifs de l’IA Act sont simples : protéger la personne. En effet, il convient ici de traiter l’ensemble des risques mentionnés précédemment, mais également d’interdire toute pratique appartenant à la catégorie de “risques inacceptables”.

In fine, l’IA Act vise à certifier que l’utilisation de cet outil révolutionnaire respecte les droits fondamentaux des citoyens. Pour ce faire, il convient alors de garantir un dispositif digne de confiance.

Cibles

Lorsque l’on évoque les réglementations mises en place par l’IA Act, il est important de préciser les cibles de cette dernière. Nous en distinguons deux principales :

  • Les fournisseurs de systèmes d’IA
  • Les utilisateurs d’IA

Le cas de l’infraction

Comme toute loi, des pénalités ont été prévues en cas d’infraction à l’IA Act. Nous parlons ici d’amendes, dont le montant dépend directement du chiffre d’affaires annuel global de l’entreprise en faute. Concernant les PME et les start-ups, celles-ci devront s’acquitter d’une amende administrative proportionnelle.

La notion de risque

Nous l’avons évoquée précédemment, la notion de risque tient une place centrale dans l’application de l’IA Act. Comme nous avons pu le voir ci-dessus, ce sont quatre niveaux de risques qui sont déterminés lorsqu’il est question des systèmes d’IA. Selon les niveaux, la loi prévoit des réglementations variables.

Le risque minimal ou nul

L’IA présentant un risque minimal ou nul peut être gratuitement utilisée par les entreprises. Il s’agit principalement de jeux vidéos et filtres anti-spam, dont l’utilisation ne présente aucun risque pour l’utilisateur.

Le risque limité

La notion de risque limité se repose sur le principe de transparence. La loi de l’IA Act oblige alors les systèmes à faire preuve de transparence dans l’utilisation, afin que l’internaute soit parfaitement informé ; pour une relation de confiance irréprochable. À titre d’exemple, lorsqu’un site internet utilise l’IA pour générer un chatbot, il est impératif que l’internaute soit averti qu’il s’agit d’un robot, et non d’un interlocuteur humain. De la même manière, tout contenu généré par l’intelligence artificielle devra être spécifié comme tel. En effet, il doit être explicité que ledit contenu a été créé artificiellement.

Le risque élevé

Sont considérés comme risque élevé les systèmes utilisés dans les infrastructures critiques, le domaine éducatif ou professionnel, l’emploi, les services relatifs aux droits fondamentaux des personnes, etc. Avant de pouvoir être proposés sur le marché, l’intégralité des systèmes classés “à risque élevé” devront être soumis à des restrictions visant à minimiser lesdits risques et à informer l’utilisateur.

L’IA Act pour lutter contre la désinformation

La majorité des outils d’IA sont aisés à prendre en main, et permettent donc à quiconque de générer de faux contenus. Qu’il s’agisse de textes mis en ligne, ou encore d’images et de vidéos, l’IA générative est en mesure de créer automatiquement des contenus de haute qualité, qu’il est difficile de distinguer de la réalité. S’il existe aujourd’hui des outils visant à détecter lesdits faux contenus, ceux-ci présentent un certain nombre d’imperfections et ne peuvent, par conséquent, garantir une infaillibilité dans l’analyse.

En interdisant une telle utilisation, l’IA Act vise donc à lutter contre la désinformation et les effets néfastes qu’elle pourrait avoir pour les entreprises, comme pour les particuliers.

DSA et GPAI : ce qu’il faut savoir

L’IA Act mentionne des éléments clés qu’il est important de mettre en lumière ; à commencer par la notion de GPAI. Qu’est-ce que c’est ? La GPAI (General Purpose Artificial Intelligence) regroupe tous les modèles d’IA à usage général. En somme, il s’agit des systèmes capables d’exécuter un grand nombre de tâches, tel que le propose ChatGPT ; un incontournable dans le domaine de l’intelligence artificielle. Ici, l’objectif est de réguler les GPAI, notamment ceux pouvant constituer un “risque systémique” dont les conséquences pourraient être ressenties à l’échelle européenne.

Lorsque l’on évoque la réglementation des GPAI, il est inévitable de mentionner le DSA (Digital Service Act). Récemment adopté par l’UE, ce dernier met en place des restrictions appliquées aux moteurs de recherches au sujet des systèmes de modération, des contenus et des recommandations. Si des similitudes sont notées, l’objectif de l’IA Act est toutefois de proposer un équilibre entre réglementation et souplesse, pour une utilisation optimale de l’intelligence artificielle, dans la limite des règles citées.