Il ne se passe presque pas un jour sans une autre histoire sur l’intelligence artificielle, ou IA. Annoncée comme une avancée technologique dotée d’un énorme potentiel pour transformer la vie humaine, la peur quant à ses risques est croissante. En fait, c’est devenu un nouveau champ de bataille entre les États-Unis et la Chine.
Le changement technologique a à la fois soutenu et porté préjudice à l’humanité depuis ses débuts, jusqu’à avoir des effets mortels. La technologie moderne n’est pas différente. De nombreuses inventions ont enrichi nos vies. Certains ont également encouragé des fins perverses. Ce qui est différent aujourd’hui, c’est la vitesse du changement technologique.
Les droits de l’homme sont particulièrement menacés et assiégés partout dans le monde. L’une des raisons tragiques de la récente détérioration de ces droits est l’essor d’Internet et des technologies associées. Bien entendu, la révolution en ligne était censée être une force de libération mondiale, et d’une certaine manière, elle l’est. Cependant, cela a également généré le Grand Pare-feu chinois. Les forces autoritaires déploient des robots logiciels pour perturber et pervertir le débat politique dans les États démocratiques. Pékin a impitoyablement coopté les fournisseurs d’accès Internet.
Et maintenant, nous sommes secoués par la montée en puissance de l’IA.
Nul doute que cela fera beaucoup de bien. Cependant, l’IA sera également utilisée de nombreuses manières pour violer les droits de l’homme et saper la démocratie. Nous ne sommes malheureusement qu’au début de ce qui sera certainement une bataille longue et difficile. Les autocraties ne seront pas seules face à l’utilisation abusive de l’IA. Les militants et les acteurs gouvernementaux des démocraties seront également tentés, d’autant plus que la politique devient de plus en plus amère, partisane et conflictuelle.
Par exemple, même avec les meilleures intentions du monde, l’utilisation de l’IA pourrait introduire de subtils biais dans la modération des discours par les plateformes Internet et autres. La plupart des systèmes sont susceptibles d’avoir des problèmes avec le contexte de l’argumentation et les nuances du langage. Pire encore, les algorithmes pourraient être conçus pour manipuler, avec des distorsions déguisées et difficiles à discerner. L’intention pourrait être de supprimer, d’intimider ou d’amplifier des points de vue et/ou des participants particuliers. Si les gens commencent à se méfier des plateformes grand public, ils fréquenteront probablement des sites et des publications plus extrêmes.
L’IA pourrait être utilisée pour intensifier la discrimination illicite et inappropriée, dirigée de manière disproportionnée contre des groupes déjà vulnérables et ciblés. Le manque de transparence concernant le fonctionnement des systèmes contribuerait à les protéger d’un examen minutieux. Imaginez une technologie censée évaluer les croyances et les comportements futurs, conduisant à une « police prédictive ». Le gouvernement ou d’autres forces malveillantes commenceront à prendre des mesures préventives pour éliminer les menaces perçues. Souvent, les victimes ne savaient même pas comment elles étaient ciblées.
Les gouvernements et les acteurs privés pourraient utiliser l’IA pour piéger les « indésirables ». L’IA permettrait de tendre plus facilement un piège aux dissidents politiques et autres, les préparant à l’extorsion, à la punition ou pire encore. Les menaces contre la liberté d’association et de réunion allaient s’intensifier.
Les défenseurs des droits de l’homme s’inquiètent particulièrement du potentiel de l’IA à intensifier et à étendre la surveillance, notamment grâce à la reconnaissance faciale. L’IA pourrait être utilisée contre des individus et des groupes. Au minimum, lorsqu’elle est utilisée à des fins de surveillance, elle est susceptible d’avoir un effet dissuasif considérable. De cette manière, l’IA réprimerait à la fois les protestations politiques légitimes et la vie sociale normale. Elle pourrait également cibler des communautés ou des régions entières dans le cadre d’une campagne de persécution politique, raciale ou ethnique.
L’IA facilitera probablement la création de fausses informations visant à induire en erreur et à décourager les électeurs. L’objectif pourrait être de modifier les votes, de dégrader le débat civique, de créer une méfiance sociale et/ou de décourager la participation politique. Les robots et les médias synthétiques, en particulier les deep fakes, sapent déjà la démocratie américaine. L’IA ne manquera pas d’exacerber cette menace.
L’essor rapide d’une société en ligne porte atteinte à la vie privée des individus. L’IA est susceptible d’accélérer ce processus, notamment grâce à un suivi constant, ce qui renforcerait les outils existants et fournirait probablement de nouveaux moyens de collecte, de diffusion et d’utilisation des données. De cette manière, l’IA pourrait permettre aux gouvernements et même aux acteurs privés, nationaux et étrangers, d’exploiter les problèmes et vulnérabilités personnels des individus.
Des acteurs malveillants pourraient également utiliser l’IA pour étendre et intensifier la censure. Ils pourraient évaluer qui pourrait menacer le régime et quels problèmes pourraient enflammer l’opposition. Ce processus découragerait l’opposition légitime tout en qualifiant des personnes par ailleurs innocentes de dissidents probables et des sujets innocents de commentaires séditieux.
Les gouvernements pourraient utiliser l’IA pour regrouper bon nombre des actions précédentes dans un système global de « crédit social » qui réglementerait même les décisions les plus personnelles et offrirait des avantages et exigerait des sanctions en réponse. Le danger que représentent les régimes autoritaires tels que le PCC est évident. Mais même les gouvernements occidentaux intrusifs pourraient aussi trouver un tel système attrayant.
Plus largement, confier les décisions aux machines déshumaniserait la vie publique et civique. La croyance, même si elle est plus exagérée que réelle, selon laquelle le discours privé comme public est dirigé par d’autres, notamment par des ordinateurs, des programmes et des algorithmes, pourrait créer un cynisme généralisé, décourager la participation du public et même affaiblir la vie sociale non politique. En fin de compte, ce processus pourrait affaiblir la responsabilité individuelle et avoir un impact destructeur sur les relations entre les individus.
Nous vivons vraiment une époque périlleuse. Il y a un danger, c’est sûr. Cependant, nos plus grands problèmes se cachent chez nous, parfois dans des endroits improbables et déroutants, comme l’IA. Malheureusement, il n’existe pas de solution simple.
Dans un premier temps, nous devons reconnaître les dangers, qui sont réels et graves. Le souci des droits humains ne doit pas se perdre dans une « ruée vers l’or » moderne alimentée par l’avidité irresponsable des investisseurs ou par la soif de contrôle social de la part de l’État et d’autres acteurs institutionnels puissants. La défense des droits de l’homme nécessitera un effort international, mais nous devons commencer au niveau national.
La prochaine étape nécessitera que nous surmontions nos désaccords pour le bien commun. Ceux qui valorisent la liberté peuvent et doivent se rassembler autour de la nécessité de protéger les droits humains contre une litanie de nouveaux dangers à l’ère de l’IA. Qui d’autre défendra notre société libre ou les principes démocratiques sur lesquels elle repose ?






