Ce mois-ci, nous avons eu le plaisir de discuter avec Dr. Maria Moloney de ce que 2024 pourrait apporter en matière d’innovation dans le domaine de l’IA et de la protection des données, ainsi que des questions de législation européenne et mondiale en la matière. Elle est titulaire d’un doctorat en systèmes d’information du Trinity College de Dublin et occupe le poste de spécialiste senior de la protection des données, de la sécurité et de l’IA dans une entreprise technologique irlandaise, PrivacyEngine et elle travaille avec de grandes entreprises privées en Europe et en Amérique, ainsi qu’avec des administrations publiques. Sa mission, en tant que consultante, consiste à examiner la protection des données, la sécurité et l’intelligence artificielle, du point de vue de la conformité.
Les progrès et la recherche sur l’IA seront certainement encore plus intenses en 2024 qu’en 2023 à mon avis car nous n’en sommes qu’au début des systèmes d’IA et de leurs utilisations. On a déjà beaucoup parlé de l’IA générative, mais il faudra aller plus loin en 2024 et 2025 pour comprendre exactement comment ces modèles peuvent être utilisés dans les entreprises, quels en sont les avantages, mais aussi les inconvénients. En 2023, l’accent a été mis sur les grands modèles linguistiques, alors qu’en 2024, nous nous intéresserons davantage aux modèles d’IA multimodaux. Chat-GPT 3.5 s’est intéressé à l’interprétation du texte, tandis que GPT-4 combine désormais des modalités diverses telles que le texte, l’audio et la vidéo. Par conséquent, ces modèles d’IA peuvent donner des réponses beaucoup plus intuitives. Pour être honnête, il est passionnant de travailler actuellement dans ce domaine et il n’est pas exagéré de dire qu’au cours des douze derniers mois, l’IA a changé la façon dont les gens travaillent. Nous savons désormais qu’il s’agit d’une technologie extrêmement disruptive. Il est clair qu’elle présente d’énormes avantages, nous voyons arriver les voitures autonomes, et de manière plus générale un accroissement massif de l’automatisation. Une grande partie du travail qui a toujours été considéré comme ennuyeux et difficile peut désormais être effectué par l’intelligence artificielle. Cela libère les humains et nous permet de consacrer plus de temps à des activités plus créatives, au lieu de devoir faire des choses que nous trouvons répétitives et fastidieuses.
La loi sur l’intelligence artificielle placera l’Europe sur la carte de la réglementation mondiale en matière d’IA
Très probablement l’AI ACT va mettre l’Europe sur la carte en termes de réglementation de l’intelligence artificielle, en ce sens que l’Europe prend maintenant la place de première juridiction au niveau mondial à réglementer l’IA et, ainsi, à préparer le terrain pour une IA digne de confiance. Depuis l’entrée en vigueur du RGPD en 2018, nous avons, en tant qu’Européens, beaucoup appris sur la législation fondée sur le risque et ses avantages, aussi l’UE a adopté la même méthode fondée sur les risques pour la loi sur l’IA, et il a été relativement rapide de se mettre d’accord. Cela s’explique en grande partie par les élections européennes qui auront lieu à la fin de l’année. La Commission souhaitait obtenir un accord avant la fin de l’année 2023. Un accord était particulièrement important car, comme pour le RGPD, l’Europe veut être à la pointe de la législation en matière d’IA.
L’UE a toujours été considérée comme le lieu où la protection des citoyens est primordiale. Je pense que la menace que l’intelligence artificielle fait peser sur les droits et les libertés des citoyens était suffisamment importante pour que l’Europe se rende compte qu’elle devait agir rapidement pour la réglementer. Le défi, cependant, est que cette intelligence continue de se développer à un rythme rapide. C’est pourquoi il est question de prévoir dans la règlementation sur l’IA des dispositions permettant à la Commission européenne de modifier la loi à l’avenir, si cela s’avère nécessaire. Je pense qu’ils ont fait du très bon travail en essayant de mettre en place quelque chose qui place la barre haute en ce qui concerne le niveau de confiance attendu par les entreprises pour être autorisées à accéder au marché européen. Comme pour le RGPD, il faudra évidemment des années pour que tout soit parfaitement réglé, mais c’est un bon début.
Aux États-Unis, au Royaume-Uni et dans de nombreux autres pays, il n’existe pas de réglementation globale en matière d’IA et les réglementations sont souvent spécifiques à un secteur d’activité. L’Europe a adopté une approche horizontale, ce qui signifie que chaque secteur doit se conformer à la même législation, à savoir la loi européenne sur l’IA. C’est également ce qui s’est passé en 2018 pour le RGPD. C’est une bonne façon de procéder pour l’UE afin d’être le leader de l’IA digne de confiance dans tous les secteurs.
À l’échelle mondiale, l’AI ACT pourrait être considérée par d’autres juridictions comme un modèle de référence pour la réglementation de l’IA. Elle influencera certainement les pays qui souhaitent interagir ou vendre sur le marché européen, ou qui le font traditionnellement. Il est très probable que tout pays qui a une forte tradition de vente sur le marché de l’UE recherchera l’adéquation avec l’AI ACT lorsqu’il légiférera pour lui-même. Nous avons déjà constaté une adéquation avec le RGPD dans de nombreux pays. Il est logique que ces juridictions disposent d’une législation semblable ou similaire pour l’IA afin de réduire la charge législative. C’est ce que l’on appelle l’effet Bruxelles. Je pense qu’il devrait en être de même pour l’AI ACT.
Je me considère très chanceuse de faire partie de l’UE, car je sais qu’il y aura toujours un effort pour protéger mes droits dans le monde numérique surtout parce qu’il y a toujours eu une tension entre l’innovation et la protection des droits fondamentaux concernant les nouvelles technologies. Cela conduit souvent à la crainte que d’autres juridictions à travers le monde prennent un avantage concurrentiel sur l’Europe en matière d’innovation grâce à leur approche plus légère que l’approche européenne, mais je pense que nous avons démontré avec le RGPD qu’ici en Europe, nous pouvons effectivement être innovants tout en protégeant les droits des citoyens. Le RGPD a renforcé la confiance et la réputation de l’Europe et il en ira probablement de même avec la loi sur l’IA. Nous devrions être confiants quant à l’orientation que prendra la loi sur l’IA à l’avenir. Il faudra probablement attendre cinq ans avant de voir les véritables avantages de la loi et la manière dont elle sera appliquée dans les différentes juridictions au niveau mondial, mais je pense que l’Europe en bénéficiera grandement.
Il existe déjà de nombreux cas concrets de dommages graves causés à des personnes parce que les systèmes d’IA n’ont pas été déployés de manière appropriée et avec peu de considération pour les personnes qui les utilisent. Je reconnais qu’il y a actuellement une course mondiale à l’innovation entre pays et c’est une bonne chose pour l’humanité, mais il est important d’équilibrer cela avec la protection des données et les droits numériques, car cela peut avoir de graves répercussions pour les personnes.
Nous avons l’exemple de l’affaire des allocations familiales aux Pays-Bas qui s’est produite récemment. Un système d’IA aux Pays-Bas a accusé un grand nombre de personnes de fraude, ce qui s’est avéré incorrect en raison d’un système d’IA biaisé. Le scandale a fait tomber le gouvernement en 2021 et ce, littéralement, parce que personne n’a relevé les biais présents dans les algorithmes du système d’allocations familiales. Ce système était contraire au RGPD, car tout système de prise de décision automatisé doit faire l’objet d’une surveillance humaine. Il est important de toujours garder à l’esprit que les algorithmes sont seulement aussi fiables que les personnes qui les ont conçus. En fin de compte, il s’agit d’une technologie sujette à l’erreur humaine.
Les systèmes d’IA américains qui évaluent la probabilité de récidive des prisonniers, sont un autre exemple de systèmes d’IA qui ont montré qu’ils avaient des biais intégrés. Le résultat de l’évaluation automatisée de la récidive effectuée par ces systèmes d’IA a des implications juridiques pour les individus. Ces décisions automatisées se sont révélées extrêmement problématiques pour les personnes qui tentent d’améliorer leur vie. Les décisions que ces systèmes d’IA prennent au sujet des individus et de leur probabilité de récidive peuvent avoir un effet sérieux sur la vie de quelqu’un. Heureusement, si ces systèmes existaient en Europe, ils seraient considérés comme des systèmes d’IA à haut risque en vertu de la loi européenne sur l’IA, en raison de leur impact potentiel très important sur l’avenir des individus.
Je travaille actuellement avec de nombreuses personnes qui écrivent des algorithmes pour les banques et les technologies financières. De nombreux modèles d’entreprises actuellement utilisés ne permettent pas à l’homme de superviser les systèmes de prise de décision de l’IA. En fait, les entreprises éliminent souvent les humains pour réduire les coûts. Il est moins coûteux de tout automatiser. Ironiquement, l’Europe essaie de développer l’industrie Fintech dans le but de produire des leaders mondiaux, et il y a un soutien clair pour permettre le développement de modèles d’affaires Fintech où il n’y a pas de supervision humaine, ce qui est contraire au RGPD. Par exemple, si quelqu’un cherche aujourd’hui à obtenir un prêt hypothécaire, ses données sont automatiquement introduites dans un système qui évalue si cette personne est un bon candidat pour un prêt. Très souvent, cette évaluation n’est pas supervisée par un employé de banque et cette situation peut donc avoir de graves conséquences pour l’individu intéressé. Un directeur de banque serait mieux placé pour évaluer si la personne est digne de confiance et si elle est susceptible d’effectuer le remboursement. Si ces personnes qui demandent un prêt ne peuvent pas obtenir un logement, elles devront louer pour le reste de leur vie parce qu’elles ne peuvent pas obtenir un prêt. Pour être honnête, nous n’avons même pas besoin d’attendre la loi sur l’IA pour changer cette situation, nous pouvons compter sur le RGPD pour garantir une supervision humaine de toutes les prises de décision automatisées. Comme nous le savons, le RGPD est en place depuis des années, et pourtant nous continuons à voir ces modèles d’entreprises mis en œuvre à ce jour. Espérons que la loi sur l’IA renforcera la nécessité d’une surveillance humaine des systèmes d’IA.
Lorsque les gens se sentent menacés, ils s’éloignent de la technologie
Comme nous l’avons déjà dit, le RGPD a démontré que nous, Européens, pouvons être innovants tout en protégeant les données personnelles des citoyens. En fin de compte, si les citoyens ne sont pas protégés, les avantages de l’utilisation des systèmes d’IA sont considérablement réduits. Mais les gens s’éloigneront de la technologie s’ils se sentent menacés par elle. En revanche, une fois que vous aurez gagné la confiance des gens, ils adopteront la technologie et s’amuseront avec.
J’ai remarqué un changement net dans l’état d’esprit des hommes politiques et des administrateurs publics. Bien que ce changement de mentalité soit légèrement plus lent que celui des PDG et des professionnels du secteur privé, je constate une évolution. Il est évident que les fonctionnaires ont des motivations différentes pour occuper leur poste dans le secteur public, néanmoins, avec près de six ans de RGPD derrière nous, les administrations publiques commencent maintenant à voir qu’il y a un réel besoin de conformité et de protection des données des personnes. D’après ma propre expérience en matière de conformité, il y a peut-être quatre ans, certaines personnes venaient vous voir et vous demandaient : « Qu’est-ce que la protection des données ? Qu’est-ce que le RGPD ? », alors qu’aujourd’hui tout le monde est au courant, et les questions portent plutôt sur « Comment mettre en place notre plan de conformité ? ».
Non seulement l’Europe est de plus en plus sensibilisée à la protection des données, mais elle l’est aussi de plus en plus au niveau mondial. Traditionnellement, les États-Unis avaient une idéologie complètement différente en matière de protection de la vie privée et de liberté d’expression. À mon avis, ils commencent à comprendre l’importance de la protection des données, en particulier en ce qui concerne la cybersécurité et les activités antifraude. L’Europe et l’Amérique se rapprochent lentement dans leur compréhension de l’importance de la protection des données. La mise en place du cadre de protection des données UE-États-Unis il y a quelques mois seulement, à l’été 2023, en est la preuve. Je pense que nous n’avons jamais été aussi proches d’une collaboration avec les États-Unis en matière de protection des données.
À l’horizon 2024, je pense que la fiabilité de l’IA et la partie explicable de l’IA doivent vraiment être examinées, car le fait que de si grandes quantités de données personnelles puissent être extraites du web et utilisées si rapidement par l’IA fait de la question de la fiabilité une priorité absolue. Maintenant que la loi sur l’IA est entrée en vigueur, la réglementation nous permet d’interagir avec les entreprises qui développent l’IA et de travailler avec elles pour intégrer la transparence et la fiabilité dans leurs solutions de conformité afin de garantir que leurs clients et les utilisateurs de ces systèmes sont protégés et de réduire le risque d’une violation de la sécurité impliquant leurs systèmes d’IA. Les violations affectent toujours l’image de l’entreprise qui, à son tour, affecte le prix du marché de l’entreprise et ainsi de suite.
Je reconnais qu’il reste des défis importants à relever pour rendre l’IA digne de confiance et pour être en mesure d’expliquer les boîtes noires d’un grand nombre d’algorithmes, mais je pense que l’Europe est vraiment à l’avant-garde de la sensibilisation et de la responsabilité des entreprises pour s’assurer qu’elles peuvent non seulement bénéficier et tirer profit de l’IA, mais qu’elles doivent également protéger les personnes contre les abus de l’IA.
Les systèmes d’IA et la menace qui pèse sur les élections démocratiques
Nous constatons depuis de nombreuses années que les systèmes d’IA peuvent perturber le processus démocratique des élections. Le cas le plus médiatisé a été le scandale Cambridge Analytica qui a impliqué la collecte et l’utilisation non autorisées de données personnelles de millions d’utilisateurs de Facebook à des fins politiques. Cambridge Analytica a travaillé sur des campagnes politiques, notamment la campagne présidentielle américaine de Donald Trump en 2016, et a obtenu et exploité les informations personnelles d’environ 87 millions d’utilisateurs de Facebook pour manipuler le résultat des élections.
De même, la désinformation générée plus récemment par l’IA et la technologie des « deepfakes » (IA utilisée pour créer des images, des enregistrements audios et des vidéos trompeurs de manière convaincante) peuvent également perturber le processus démocratique des élections. Des outils d’IA sophistiqués peuvent désormais faciliter la manipulation des médias, en particulier avec l’émergence de deepfakes réalistes. L’année 2024 verra un certain nombre de pays se rendre aux urnes, notamment les États-Unis, le Royaume-Uni et l’Union européenne, et il est plus que probable que des entités malveillantes tenteront de manipuler les résultats. Étant donné l’inadéquation des outils de détection existants pour ce type d’attaques, il est de plus en plus nécessaire que les responsables politiques réagissent en temps réel pour empêcher la propagation de la désinformation. Il est également important d’interagir avec les entreprises de réseaux sociaux, de veiller à ce qu’elles continuent d’investir dans des capacités de détection et d’examiner l’évolution de leurs stratégies pour atténuer les campagnes de désinformation. Dans l’ensemble, je pense que garantir l’intégrité des processus démocratiques face à la manipulation avancée de l’IA sera un défi considérable et croissant pour un certain nombre de régions à travers le monde cette année.
"Soyez gourmands quand les autres sont craintifs" La très grande caractéristique de l’année 2024, c’est son agenda électoral surchargé : près de trois milliards d’individus voteront cette année dans 76 pays, [...]
Géopolitique : recomposition asymétrique 1 - Le brouillard des élections américaines perturbe la visibilité globale Il faut prendre la mesure de ce qu’implique cette absence de visibilité sur le résultat de [...]
Bitcoin : institutionnalisation à double tranchant Cela a déjà été évoqué dans les recommandations, la reconnaissance par les États-Unis de la légitimité de Bitcoin via les ETFs sera à double-tranchant : elle [...]
Commentaires