Un membre de votre équipe utilise-t-il DeepL, ChatGPT, Mistral ou une autre plateforme d’intelligence artificielle (IA) ? Si oui, votre entreprise est soumise à la Loi européenne sur l’intelligence artificielle, entrée en vigueur le 2 août 2024. Cette législation complexe et étendue a récemment fait son retour dans l’actualité, à l’approche du 2 août 2025, date à laquelle les obligations de l’IA à usage général prennent effet pour les systèmes tels que les chatbots (ChatGPT, Gemini, Copilot, etc.).
Comment cette loi impacte-t-elle votre entreprise ? Poursuivez la lecture de cet article pour explorer les éléments clés et découvrir ce que vous devez faire pour mettre en œuvre une « intelligence artificielle de confiance et centrée sur l’humain », conforme à la Loi sur l’IA.
À quelles entreprises la Loi sur l’IA s’applique-t-elle ?
La réglementation présente sept catégories d’entreprises et d’individus auxquels s’applique la Loi. Dans cet article, nous nous concentrerons sur les deux principales :
- les entreprises qui développent des systèmes ou modèles d’IA à utiliser au sein de l’Union européenne, indépendamment de l’emplacement de leur siège social (appelées « fournisseurs ») ;
- les entreprises qui utilisent des systèmes d’IA ou les résultats de ces systèmes au sein de l’UE, indépendamment de leur emplacement (appelées « déployeurs »).
Quels systèmes d’IA sont régis par la Loi ?
Maintenant que nous avons établi à qui la loi s’applique, découvrons les types d’IA qu’elle régit. Conformément à une publication En bref du groupe de réflexion du Parlement européen, « The Artificial Intelligence (AI) Act regulates AI systems according to the risks they pose, and general-purpose AI (GPAI) models according to their capabilities ».
La Loi sur l’IA interdit explicitement certaines pratiques d’IA, considérées comme des risques inacceptables. Elle définit également un ensemble clair d’exigences pour les développeurs et utilisateurs des systèmes d’IA à haut risque qui « pourraient avoir un effet préjudiciable important sur la santé, la sécurité ou les droits fondamentaux des individus ».
La Commission européenne catégorise les systèmes d’IA en quatre niveaux de risque :
- Risque inacceptable :
Les pratiques de cette catégorie sont complètement interdites. Elles comprennent les techniques de manipulation fondées sur l’IA, la notation sociale, la prévision policière, la reconnaissance des émotions sur le lieu de travail et la surveillance biométrique en temps réel des espaces publics. - Risque élevé :
Cette désignation couvre les systèmes strictement régis, utilisés dans des domaines critiques, tels que la santé, la conduite autonome, le recrutement, l’application de la loi, les finances et l’éducation. Les fournisseurs doivent réaliser des analyses des risques, maintenir la documentation appropriée, mettre en œuvre une surveillance humaine et se soumettre à des contrôles de conformité. - Risque limité :
Cela inclut les chatbots, tels que ChatGPT, ou les générateurs de contenus. La Loi comprend des obligations de transparence pour ces systèmes. Par exemple, les utilisateurs doivent être clairement informés lorsqu’une photo ou vidéo a été générée ou manipulée à l’aide de l’IA. - Risque minime ou inexistant :
La Commission affirme que « la vaste majorité des systèmes d’IA actuellement utilisés au sein de l’UE entre dans cette catégorie » et présente un impact minime, voire inexistant, sur les droits et la sécurité. Ils comprennent des éléments, tels que les jeux vidéo alimentés par l’IA et les filtres de courriers indésirables. La Loi ne régit pas ces systèmes, mais encourage les fournisseurs et les déployeurs à suivre des pratiques volontaires.
Elle désigne les systèmes d’IA dans les domaines suivants, comme présentant un risque élevé :
- les données biométriques;
- l’infrastructure critique : numérique, trafic routier, fourniture en eau, gaz, chauffage ou électricité;
- l’éducation et la formation professionnelle ;
- l’emploi ;
- les services privés et publics essentiels, ainsi que les avantages ;
- l’application de la loi ;
- la migration, l’asile et la gestion des contrôles aux frontières ;
- l’administration de justice et les processus démocratiques.
Quel est le calendrier de conformité ?
Les exigences de la Loi sur l’IA entrent en vigueur progressivement depuis son établissement en 2024. Par exemple, les pratiques à haut risque sont interdites et de nouvelles obligations de maîtrise de l’IA ont pris effet le 2 février 2025.
Le prochain jalon est le 2 août 2025 et se concentre principalement sur les exigences pour les modèles d’IA à usage général. Ceux publiés après cette date devront se conformer à la Loi sur l’IA, mais les modèles existants n’auront pas à s’y conformer complètement avant le 2 août 2027. D’ici là, le niveau d’ajustement qu’une entreprise peut réaliser sur un modèle avant qu’il ne soit considéré comme une nouvelle publication, devenant ainsi immédiatement régi par les dispositions de la Loi n’est pas encore clair.
Les règles de classification des systèmes d’IA à haut risque et les obligations correspondantes s’appliqueront à partir du 2 août 2027.
Quelles mesures votre entreprise devrait-elle prendre ?
La majorité des entreprises entrent dans la catégorie « déployeur », même si vous personnalisez un modèle d’IA pour un usage interne. En tant que déployeur, vous avez les responsabilités suivantes :
- vous assurer que votre personnel utilise le système d’IA de manière sûre et conforme ;
- fournir une formation sur la maîtrise de l’IA (Article 4), la surveillance humaine (Article 14) et la transparence (Article 13), en fonction de l’utilisation de l’IA ;
- vous conformer aux obligations supplémentaires, telles que la journalisation, la surveillance et la gestion des risques, si votre système entre dans la catégorie à haut risque.
Réfléchissez aux questions suivantes, pour commencer à évaluer l’impact de la Loi sur l’IA sur votre entreprise.
- Comment l’IA est-elle utilisée au sein de votre entreprise ? Qui l’utilise ? Comment son utilisation est-elle documentée ?
- Quelles politiques et procédures régissent l’utilisation de l’IA au sein de votre entreprise ?
- • Des humains examinent-ils systématiquement les contenus générés par l’IA ? Les photos et vidéos générées par l’IA sont-elles clairement identifiées comme telles ?
- Êtes-vous dans un segment à haut risque ? Si oui, comment vous préparez-vous pour les exigences sur les systèmes d’IA à haut risque ?
- Fournissez-vous une formation sur la maîtrise de l’IA pour vos collaborateurs ? Comment documentez-vous cette formation ?
Vous avez des doutes quant à la catégorie dans laquelle entre votre entreprise et au statut à haut risque de vos systèmes d’IA ? Essayez l’Outil de vérification de la conformité à la loi européenne sur l’IA du Future of Life Institute.
Ce qu’il faut savoir sur la maîtrise de l’IA en vertu de la Loi européenne sur l’IA
- La maîtrise de l’IA est désormais une exigence
Depuis le 2 février 2025, les entreprises qui développent ou utilisent des systèmes d’IA au sein de l’UE doivent s’assurer que toute personne interagissant avec l’IA « maîtrise suffisamment l’IA ». - Cela ne concerne pas uniquement les développeurs
La maîtrise de l’IA n’est pas seulement l’affaire des équipes techniques. Elle s’applique aux collaborateurs, partenaires externes, prestataires de services, et même aux clients, qui utilisent ou sont affectés par vos systèmes d’IA. - La maîtrise de l’IA ne se limite pas à la simple compréhension du fonctionnement de cette technologie
Les personnes devraient comprendre ce que l’IA peut ou ne peut pas faire, ses risques et ses avantages, ainsi que comment l’utiliser de manière responsable. Cela comprend les obligations légales et éthiques, telles que la transparence et la surveillance humaine. - La formation devrait être personnalisée
Il n’existe pas d’approche universelle. Le niveau de formation dépend :
o de si vous développez ou déployez de l’IA ;
o du type de système impliqué, basic ou à haut risque ;
o de l’expérience et du rôle de chaque groupe d’utilisateurs. - La documentation importe davantage que la certification
Vous n’avez pas besoin de certificats de formation officiels, mais vous devez tenir des registres indiquant les personnes ayant reçu la formation ou les conseils appropriés. - Des instructions seules ne suffisent pas
Le simple fait de distribuer des manuels n’est pas satisfaisant, particulièrement pour les systèmes d’IA à haut risque. Une intégration ou une formation significative est attendue. - Vous avez jusqu’en août 2026 avant que des sanctions soient appliquées
La mise en vigueur débute en août 2026, donnant ainsi aux entreprises le temps de mettre en place la formation et la documentation appropriées, mais l’obligation a déjà pris effet. Aussi, ne tardez pas. - Des ressources pratiques sont disponibles
L’UE fournit des ressources d’aide, comme le Pacte sur l’IA, des exemples de formation, des webinaires et des cadres de formation. Elles peuvent aider à développer vos programmes de maîtrise pratiques en fonction des rôles.
Quelles sont les sanctions en cas de non-conformité ?
- Violations des risques inacceptables : jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires total
- Violations de l’IA à usage général ou à haut risque : jusqu’à 15 millions d’euros ou 3 % du chiffre d’affaires
- Informations fausses ou trompeuses fournies aux organes directeurs : jusqu’à 7,5 millions d’euros ou 1,5 % du chiffre d’affaires
Les plus petites entreprises et les start-up recevront des amendes proportionnelles et auront accès à des programmes d’accompagnement, tels que les bacs à sable réglementaires.
Que dit l’industrie des technologies ?
Le 3 juillet, les premières entreprises technologiques européennes, telles que Mistral, et d’autres grandes entreprises, notamment Airbus et Carrefour, ont rédigé une lettre ouverte à la Commission européenne pour adresser leurs préoccupations concernant cette législation et demander à l’UE de repousser l’application de la Loi. Elles affirment que les obligations clés ne sont pas suffisamment claires et avoir besoin de plus de temps pour appliquer les calendriers. Ces entreprises soutiennent que l’application hâtive pourrait nuire à l’innovation et à la compétitivité internationale, si les sociétés des autres régions sont soumises à des réglementations plus souples et lentes.
Cependant, le 4 juillet, le représentant de la Commission européenne, Thomas Regnier a déclaré « J’ai vu, en effet, bon nombre de signalements, de lettres et de dires concernant la Loi sur l’IA. Je vais être aussi clair que possible, nous ne ferons pas machine arrière. Il n’y aura pas de délai de grâce, ni de pause. », a rapporté Reuters.
Le 10 juillet, la Commission a publié un Code de pratique volontaire pour l’IA à usage général, conçu pour aider les fournisseurs à se conformer aux dispositions de la Loi sur l’IA prenant effet au 2 août . D’après la Commission, « les fournisseurs de modèles d’IA qui le signent et y adhèrent volontairement pourront démontrer leur conformité à la Loi sur l’IA. Cela réduira leur charge administrative et leur donnera davantage de certitude légale qu’en prouvant leur conformité par d’autres biais. »
Mistral, basée en France, a été la première entreprise d’IA à annoncer qu’elle signerait le Code de pratique, selon Politico. Le créateur américain de ChatGPT, OpenAI, a annoncé le 11 juillet sa décision de signer également le Code. Nous vous tiendrons informés de l’éventuelle signature d’autres grandes entreprises technologiques, telles qu’Alphabet et Meta, ainsi que de l’impact sur votre organisation.
ITC Global : votre partenaire de conformité à la Loi sur l’IA
Le paysage de l’IA est complexe et en constante évolution. Suivre les utilisations de l’IA au sein de votre entreprise et garantir que chacun respecte les règles représentent un véritable défi. Nous sommes là pour vous aider ! Notre équipe de R&D et d’ingénieurs en innovation se tient informée des derniers développements et s’assure que nos systèmes et processus se conforment à la Loi sur l’IA afin que vous puissiez vous concentrer sur l’atteinte de nouveaux marchés en toute confiance.
Nous vous aidons également à éliminer les autres risques courants liés à l’utilisation de l’IA au sein des flux de travail de contenus internationaux :
- Sécurité des données : lorsque le personnel utilise des outils d’IA gratuits ou personnels sans les contrôles adéquats.
- Contenu incohérent : lorsque différentes équipes traduisent le même document à l’aide de différents outils ou méthodes.
- Problèmes d’exactitude : lorsque le contenu généré par l’IA n’est pas soigneusement examiné par un humain.
- Réputation de la marque : lorsque la mauvaise qualité ou le contenu IA non modifié affecte la perception de votre entreprise, ainsi que de vos produits et services.
Contactez-nous dès aujourd’hui pour en apprendre davantage sur la Loi sur l’IA et découvrir comment ITC Global vous aide à utiliser l’IA de manière responsable pour favoriser votre croissance.