“ Les systèmes de « notation sociale » à la chinoise devrait être interdits L’AI Act a donc été construit sur une approche « par les risques » : l’intelligence artificielle y est régulée en fonction de ses usages, jugés plus ou moins dangereux. Ainsi, quelques-uns devraient être interdits : les systèmes de « notation sociale » à la chinoise, les « techniques subliminales » visant à manipuler les citoyens, les logiciels « qui exploitent les vulnérabilités dues à l’âge, au handicap ou à la situation sociale », et aussi la vidéosurveillance permettant « l’identification biométrique des personnes en temps réel dans l’espace public », sauf pour les forces de l’ordre dans le cadre d’enquêtes ou de lutte contre le terrorisme.
D’autres usages sont classés « à haut risque » : dans le transport (conduite autonome de véhicules…), l’éducation et les ressources humaines (notation d’examens, tri de CV…), la santé (chirurgie assistée par robot), les services (obtention de crédit), la justice (évaluation de preuves)… Le texte impose alors des obligations : vérifier la « qualité » des données utilisées pour entraîner les logiciels, « minimiser les risques et les résultats discriminatoires », assurer un faible taux d’erreur… Il faut également prévenir les utilisateurs qu’ils interagissent avec une machine.”

Source : L’Union européenne cherche à réguler l’intelligence artificielle, à l’heure de ChatGPT