L’Union européenne envisage d’interdire l’utilisation de l’IA à plusieurs fins, notamment la surveillance de masse et les scores de crédit social.
Il vient selon une proposition divulguée circulant en ligne, d’abord publiée par Politico, avant l’annonce officielle prévue la semaine prochaine.
Si le projet de proposition était adopté, l’Union européenne pourrait imposer une position forte sur des applications spécifiques de l’IA, la distinguant des États-Unis et de la Chine.
Certains cas d’utilisation sont surveillés d’une manière similaire au règlement de l’Union européenne sur la confidentialité numérique en vertu de la législation GDPR.
Les États membres peuvent être tenus de créer des tableaux de bord pour tester et valider les systèmes d’IA à haut risque.
Les entreprises qui développent ou vendent des programmes d’IA interdits dans l’Union européenne, y compris dans le reste du monde, peuvent se voir infliger une amende pouvant atteindre 4% de leurs revenus mondiaux.
Le projet de règlement comprend:
- Les systèmes de renseignement bloquent la surveillance aléatoire, y compris les systèmes qui suivent les individus directement dans des environnements physiques ou collectent des données à partir d’autres sources.
- Interdire les systèmes de renseignement qui créent des scores de crédit social, ce qui signifie juger de la fiabilité d’une personne en fonction du comportement social ou des traits de personnalité attendus.
- Un permis spécial pour utiliser des systèmes de renseignement pour l’identification à distance tels que la reconnaissance faciale dans les lieux publics.
- Notifications requises lorsque des personnes interagissent avec des systèmes de renseignement, à moins que cela ne ressorte clairement des circonstances et du contexte d’utilisation.
- Nouvelle surveillance des systèmes de renseignement à haut risque, y compris ceux qui constituent une menace directe pour la sécurité, tels que: les voitures autonomes, et ceux qui ont de fortes chances d’affecter les moyens de subsistance d’une personne, tels que ceux utilisés pour l’embauche, les décisions de justice et histoire de credit.
- Évaluer les systèmes de renseignement à haut risque avant de les mettre en service, y compris s’assurer que ces systèmes sont interprétables par les superviseurs humains et qu’ils sont formés sur des ensembles de données de haute qualité testés pour les biais.
- La création du Conseil européen de l’intelligence artificielle, composé de représentants de chaque pays, pour aider le comité à identifier les systèmes de renseignement considérés comme à haut risque et recommander des modifications aux interdictions.