Décembre 2023

AI Act : l'analyse de France Digitale

Europe

Faut-il être satisfait de l’accord trouvé en Europe sur la réglementation de l’IA ? L'équipe de France Digitale résume les points positifs et négatifs dans le texte (et les belles victoires obtenues par FD pour les startups !)

Les décideurs européens ont adopté vendredi 8 décembre dernier le premier accord au monde qui réglemente l’intelligence artificielle. C’est un texte en discussion depuis plus de trois ans pour lequel France Digitale mobilise deux salariés à temps plein depuis le début des négociations, pour garantir que les startups seront écoutées, et pas lésées.

Alors, on doit être satisfaits de l’accord trouvé à Bruxelles ? Dur à dire : même s’il y a un accord, il reste encore plein de choses à négocier dans les prochaines semaines. 

 

L’approche par les risques : une victoire… mais beaucoup de complexité

L’approche retenue par l’Europe pour réglementer l’IA est une approche par les risques, c’est-à-dire que plus l’usage qu’une entreprise fait de l’IA est risqué, plus elle est réglementée. C’est l’approche souhaitée et défendue par FD depuis le début 🎉

Il y a 4 niveaux de risques dans les usages de l’IA : le risque minime, le risque faible, le haut risque et l’IA prohibée. Le nerf de la guerre, c’est l’IA à haut risque. Et c’est là que ça se complique.

Si une IA est à haut risque, elle devra entrer dans un processus de certification pour obtenir un marquage CE. Or, obtenir un marquage CE, c’est long, c’est complexe et ça coûte (beaucoup) d’argent… Donc la question importante est : c’est quoi une IA à haut risque ?

C’est une IA appliquée dans un secteur identifié par l’AI Act comme à haut risque (ex: le secteur de l’emploi, de la santé, de l’éducation, de la justice…). Les secteurs retenus sont définis très largement… ce qui risque de faire tomber de nombreuses startups dans les limbes de la certification.

Bémol très important : France Digitale a obtenu une victoire majeure pour les startups qui opèrent dans ces secteurs 🎉 ! Ainsi, les startups qui opèrent dans ces secteurs qualifiés “à haut risque” peuvent démontrer que leur usage de l’IA n’est pas à haut risque… et ainsi bénéficier d’obligations réglementaires allégées.

 

Et les modèles de fondation comme Mistral ou ChatGPT ? 

Pour France Digitale, l’accord trouvé dans l’AI Act ne va pas en faveur de l’émergence de champions européens. 

Ainsi, pour les entreprises qui développent des modèles d’IA générales comme Mistral, Aleph Alpha ou ChatGPT, les obligations réglementaires sont très fortes, peu pertinentes et assez risquées pour le secret des affaires. Plus largement, nous avions appelé à ne pas réglementer la technologie en tant que telle, mais réglementer les usages de la technologie. La solution retenue par l’Europe revient aujourd’hui à… réglementer les mathématiques, ce qui ne fait pas beaucoup de sens.  

Par ailleurs, les critères retenus pour qualifier une IA générative de systémique ou non – et la soumettre à des obligations lourdes de transparence – sont nombreux, assez flous, et leur appréciation est laissée entre les mains de la Commission qui pourra d’ailleurs ajouter d’autres critères par voie d’acte délégué. Or, les startups ont besoin de visibilité et de prévisibilité pour développer leurs modèles. On ne peut pas changer les règles du jeu à tout moment. Pour France Digitale, les négociations ne sont pas finies, et nous entendons participer aux prochaines réunions de travail pour qualifier la pertinence des critères retenus. 

 

Vous voulez participer à nos actions autour de l’IA et des enjeux réglementaires ?