🇪🇺 L'AI Act vu par Explain

Guillaume Liegey
30/11/2023

‍

Contexte 

‍

  • L'AI Act est une proposition lĂ©gislative visant Ă  rĂ©guler les systèmes d'Intelligence Artificielle (IA) au sein de l'Union EuropĂ©enne (UE). Son objectif est de garantir la sĂ©curitĂ©, la transparence et le respect des droits fondamentaux dans le dĂ©veloppement et l'utilisation de l'IA.
  • Le dĂ©bat actuel s’est notamment cristallisĂ© sur l’opposition entre d’une part le besoin d’une rĂ©glementation pour prĂ©venir les grands risques associĂ©s Ă  l’IA, notamment Ă  l’IA gĂ©nĂ©rative, et la nĂ©cessitĂ© de mettre en place un cadre compĂ©titif pour les entreprises europĂ©ennes d’IA. Explain a dĂ©veloppĂ© la première technologie appliquant les LLM Ă  la donnĂ©e publique et souhaite contribuer au dĂ©bat, en apportant son retour d’expĂ©rience sur le dĂ©ploiement de sa technologie d’IA auprès de ses clients depuis deux ans.

‍

Objectifs de la démarche d’Explain

‍

  • Comprendre et anticiper les rĂ©percussions de cette lĂ©gislation pour son activitĂ© et son dĂ©veloppement en Europe et dans le monde.
  • Collaborer Ă©troitement avec les parties prenantes pour co-construire un environnement rĂ©glementaire propice Ă  l'innovation et au dĂ©veloppement responsable de l'IA en Europe.

‍

‍

Implications majeures de la législation proposée pour Explain

‍

  • Classification du produit d'Explain : l'AI Act propose une classification des systèmes IA selon leur niveau de risque, des "inacceptables" aux "minimaux". Le produit d'Explain, axĂ© sur l'analyse des donnĂ©es publiques, pourrait ĂŞtre classĂ© comme "Ă  risque limitĂ©" ou "Ă  risque modĂ©rĂ©", selon les critères prĂ©cis de la lĂ©gislation. Une telle classification entraĂ®nerait diverses obligations en matière de transparence et de conformitĂ©.
  • ResponsabilitĂ© : l'AI Act pourrait introduire des mĂ©canismes de responsabilitĂ© pour les erreurs ou les dĂ©faillances des systèmes d'IA. MĂŞme si le produit d'Explain est conçu pour ĂŞtre plus fiable que d'autres modèles, comme ChatGPT, il est essentiel d'avoir des mĂ©canismes de redressement en place pour traiter d'Ă©ventuels problèmes.
  • Transparence : l'AI Act souligne l'importance de la transparence dans les systèmes d'IA. Explain pourrait devoir fournir une documentation dĂ©taillĂ©e expliquant les principes de fonctionnement de son modèle, ses limites, et les moyens mis en Ĺ“uvre pour garantir la fiabilitĂ© des rĂ©sultats.
  • ConformitĂ© et audits : l'AI Act pourrait imposer Ă  Explain de se soumettre Ă  des audits rĂ©guliers, menĂ©s par des entitĂ©s tierces, pour assurer la conformitĂ© de son système d'IA aux exigences lĂ©gislatives.
  • Protection et traitement des donnĂ©es : Ă©tant donnĂ© qu'Explain indexe ses propres donnĂ©es, elle pourrait ĂŞtre soumise Ă  des exigences strictes en matière de protection, d'origine, et de traitement des donnĂ©es. De plus, toute utilisation de donnĂ©es sensibles ou personnelles pourrait entraĂ®ner des obligations supplĂ©mentaires.

‍

‍

Demandes d’Explain

‍

1. Clarifier les usages interdits et Ă  haut risque

‍Tous les systèmes d'IA ne présentent pas le même niveau de risque. Il est crucial que la réglementation reflète cela, permettant aux applications à faible risque, comme celle d’Explain, de bénéficier d'un cadre moins restrictif pour encourager l'innovation.

‍

2. Éviter d’inutiles lourdeurs administratives

‍En s'inspirant du RGPD, dont la mise en œuvre a su équilibrer les coûts de conformité, il est primordial que l'AI Act évite les charges administratives superflues. Les audits, notamment devraient être proportionnels à la taille et aux ressources des entreprises. L’AI Act devrait aussi clarifier comment ces audit de conformité doivent être menés, et qui en a la responsabilité (faut-il des “AI ethics officers” dans les entreprises, équivalents des correspondants informatique et libertés pour le RGPD ?).

‍

3. Clarifier la relation entre l’AI Act et le RGPD

‍La plupart des systèmes d'IA sont aujourd'hui basés sur le traitement de données massives. Pour cette raison, il est essentiel que le projet de Règlement de l’IA soit mieux aligné sur le RGPD. En l’état, ce texte représente de nouveaux risques d’insécurité juridique en raison de sa conciliation difficile avec la réglementation existante.

‍

‍

Propositions

‍

1. Création d’un comité de pilotage de l'AI Act

  • Objectif : assurer une adaptation souple et Ă©clairĂ©e de la rĂ©gulation.
  • Composition : reprĂ©sentants de diverses entreprises du secteur, notamment des startups, des experts en Ă©thique, des juristes spĂ©cialisĂ©s en technologies, et des membres de la sociĂ©tĂ© civile. La diversitĂ© des membres garantirait une perspective globale et Ă©quilibrĂ©e.
  • RĂ´le : examiner les propositions lĂ©gislatives, suggĂ©rer des amĂ©liorations et veiller Ă  ce que les intĂ©rĂŞts des startups soient pris en compte. Il servirait Ă©galement de plateforme pour partager des retours d'expĂ©rience et des meilleures pratiques.
  • BĂ©nĂ©fices : en impliquant les acteurs de l'industrie dès le dĂ©but, le comitĂ© pourrait aider Ă  prĂ©venir les consĂ©quences non intentionnelles de la rĂ©gulation, tout en assurant une mise en Ĺ“uvre plus fluide.

‍

2. Création d’un Label de qualité “EU AI”

  • Objectif : Ă©tablir un standard de confiance dans les solutions d'IA dĂ©veloppĂ©es en Europe.
  • Critères : le label serait accordĂ© aux entreprises respectant des critères stricts en matière de transparence, d'Ă©thique, de respect des donnĂ©es personnelles et de sĂ©curitĂ©.
  • ProcĂ©dure : un audit indĂ©pendant pourrait ĂŞtre rĂ©alisĂ© pour Ă©valuer la conformitĂ© des entreprises souhaitant obtenir le label.
  • BĂ©nĂ©fices : outre la reconnaissance de la qualitĂ© et de la fiabilitĂ©, le label pourrait faciliter l'accès aux marchĂ©s et augmenter la compĂ©titivitĂ© des entreprises europĂ©ennes Ă  l'international. Pour les utilisateurs, ce label serait synonyme de confiance et de sĂ©curitĂ©.

‍

3. Soutenir la R&D

  • Objectif : Explain recommande de renforcer les initiatives visant Ă  encourager la recherche et le dĂ©veloppement dans le domaine de l'IA.
  • Mesures concrètes :‍

- Programmes de subventions : Mise en place de programmes financiers spécifiques pour soutenir les projets de R&D en IA, avec une attention particulière pour les startups et les PME.

- Incitations fiscales : Introduction de crédits d'impôts ou de déductions pour les entreprises investissant significativement dans la R&D en IA.

- Partenariats public-privé : Encouragement des collaborations entre les universités, les centres de recherche et les entreprises pour favoriser le transfert de connaissances et l'innovation.‍

  • BĂ©nĂ©fices : Ces mesures permettraient de stimuler l'innovation tout en assurant que les dĂ©veloppements en IA respectent des normes Ă©thiques et de sĂ©curitĂ© Ă©levĂ©es.

‍

Considérations

‍

Tirer les leçons du RGPD : Le RGPD a réussi à clarifier les pratiques de gestion des données sans imposer une charge financière excessive aux entreprises. Il a également mis en exergue les pratiques des géants tech, améliorant la transparence pour les utilisateurs. L'AI Act est l’opportunité de faire comprendre aux citoyens européens comment les LLM fonctionnent, et ce qu’ils permettent vraiment, comme le RGPD a permis de comprendre comment nos données étaient utilisées.

‍

Former et éduquer : plutôt qu’adopter une approche punitive, mettre en avant l'importance de la formation et de l'éducation pour les professionnels de l'IA. En ayant une main-d'œuvre bien formée et éthiquement consciente, les risques associés à l'IA peuvent être naturellement minimisés.

‍

Garantir un accès équitable aux données : pour les entreprises travaillant avec des données publiques, il est crucial d'avoir un accès équitable et non discriminatoire à ces données. La réglementation devrait encourager la transparence et l'équité dans l'accès aux bases de données, garantissant ainsi que les entreprises puissent innover.

‍

Reconnaître les normes sectorielles : dans le cas d'Explain, qui se concentre sur les données publiques, la reconnaissance des normes et des meilleures pratiques spécifiques à ce secteur pourrait faciliter la conformité tout en encourageant l'innovation.

‍

Promouvoir une harmonisation des normes : la promotion d'une harmonisation des normes et réglementations de l'IA au niveau international est essentielle pour éviter les disparités entre les régions.

‍

____

A propos d’Explain

Explain fait partie des premières entreprises à avoir trouvé une application concrète aux Large Language Models. Après deux ans de développement, Explain a levé 6 millions d’euros (Les Échos) pour financer la croissance de son produit, le premier assistant IA pour les professionnels en contact avec le secteur public. Explain permet à ses clients (dont de grands groupes européens comme Engie, Veolia ou RWE) d’optimiser leur développement sur le terrain en automatisant leurs tâches les plus répétitives et rébarbatives. Pour cela, l’IA d’Explain trouve, extrait, analyse et synthétise des informations tirées de plus de 50 millions de documents, dont beaucoup n’avaient jamais été indexés auparavant, y compris par Google. Les clients d’Explain disent ainsi pouvoir traiter 3 fois plus d’informations en 5 fois moins de temps.

‍