Semaine de la diplomatie : 24 - 28 avril 2023. Pour consulter le programme, cliquez ici : link

L’intelligence artificielle va-t-elle changer le monde ? Cette question a été posée – et continue de l’être – par de nombreuses personnes au cours des 20 dernières années, en particulier l’année dernière avec la création et l’essor de Chatgpt et d’autres programmes similaires. Et même si la plupart s’accordent à dire que l’intelligence artificielle va effectivement façonner certains aspects de notre vie, il est difficile et insidieux de comprendre comment.

Avant de nous plonger dans ce domaine et d’essayer de l’analyser dans une perspective internationale, il convient tout d’abord de définir l’intelligence artificielle et de la replacer dans son contexte, à travers une récapitulation historique brève et concise.

L’intelligence artificielle consiste en la capacité d’un ordinateur ou, plus généralement, d’un dispositif technologique à effectuer des actions ou à adopter des comportements principalement associés à ce que l’on appelle les « êtres intelligents », c’est-à-dire les humains. Bref, une sorte de substitut de l’intellect humain, capable d’accomplir certaines actions propres à ce dernier. Cependant, bien que le phénomène de l’IA ait fait beaucoup de bruit – surtout dans les médias – ces dernières années, il a des racines beaucoup plus lointaines. Il s’agit d’une discipline qui a plus de soixante ans d’histoire. Née à l’aube de la Seconde Guerre mondiale, l’intelligence artificielle, comme toute nouvelle technologie, a été principalement employée, dans un premier temps, dans le domaine militaire. Plus précisément, le terme « intelligence artificielle » a été inventé dans les années 1950 par l’universitaire John McCarthy du Massachusetts Institute of Technology. À l’époque déjà, des universitaires, dont l’économiste et sociologue Herbert Simon, affirmaient que l’IA surpasserait les capacités humaines au jeu d’échecs, ce qui s’est avéré exact trente ans plus tard. Cependant, l’explosion de l’amélioration de cette technologie a atteint son apogée dans les années 2010, grâce à un accès important aux données et à l’adoption d’une nouvelle approche de cette technologie par les experts, à savoir l’approche inductive. Depuis, l’accent est moins mis sur les règles de codage, ce qui permet aux dispositifs technologiques de procéder par corrélation et classification, sur la base des données disponibles. Jusqu’à la sortie, en septembre 2022, de Chatgptp, le très populaire programme technologique créé par la société OpenAI, dont la version 3.5 a été utilisée par pratiquement tout le monde au moins une fois à ce jour.

Les objectifs de cette technologie ont été largement débattus ces dernières années, ce qui a donné lieu à des avis divergents. Selon l’encyclopédie Treccani, le but de l’intelligence artificielle serait d’émuler certaines fonctions et caractéristiques du comportement humain, mais pas de les reproduire à l’identique, notamment parce que ce serait impossible ou improbable. Les objectifs peuvent donc être multiples : du raisonnement à l’apprentissage en passant par la planification, toute émulation des traits des capacités des êtres intelligents. Aujourd’hui, l’intelligence artificielle est principalement utilisée dans la cybersécurité pour reconnaître les menaces informatiques, dans le domaine militaire, dans la traduction automatique, dans la recherche informatique, dans la lutte contre la désinformation et dans le secteur automobile. Les cas de la cybersécurité et de l’industrie de la guerre, sur lesquels je m’attarderai plus loin, sont particulièrement intéressants.

Il y a encore quelques années, penser au remplacement de l’être humain dans tous les aspects de sa vie, et en premier lieu dans sa vie professionnelle, semblait n’être qu’un mirage. Mais aujourd’hui, surtout depuis l’essor de Chatgpt et consorts, ce paradigme semble devenir de plus en plus concret. Mais l’intelligence artificielle va-t-elle vraiment prendre le relais de l’homme dans un avenir proche ? L’humanité a-t-elle vraiment atteint un point de non-retour, comme l’évoquent souvent certains médias à sensation ?
Selon les universitaires Ming-Hui Huang et Roland T. Rust, outre la menace que représente aujourd’hui l’intelligence artificielle pour le secteur manufacturier, d’autres secteurs, et donc d’autres professions, pourraient à l’avenir être victimes d’un remplacement partiel ou total par l’IA. Les auteurs précisent toutefois que le remplacement humain concernerait surtout les tâches traditionnelles qui caractérisent l’emploi, plutôt que l’emploi lui-même. L’IA pourrait être en mesure de remplacer une partie du travail, là où elle est plus productive que l’homme, mais pas totalement. Si l’on suit cette logique, un remplacement à 360 degrés peut se produire lorsque la technologie est capable de mieux accomplir toutes les tâches d’une profession donnée.

En outre, cette substitution commencerait par les tâches que l’IA peut le plus facilement prendre en charge, c’est-à-dire les tâches mécaniques (travail non qualifié), pour ensuite prendre en charge des tâches plus « intelligentes » (travail hautement qualifié), qui nécessitent également de l’intuition et de l’empathie. Les auteurs affirment également que ce processus est inévitable et qu’il est nécessaire d’accepter qu’il y ait de nouvelles façons de fournir des services à l’avenir. Par conséquent, le nombre d’emplois susceptibles d’être remplacés à l’avenir pourrait être plus élevé que prévu. En effet, une étude publiée en 2014 par Young et Cormier, qui cherchait à déterminer si les robots pouvaient assumer le rôle de managers, a révélé que dans 46 % des cas, les participants à l’étude obéissaient aux machines. Chui, Manyika et Miremadi, quant à eux, ont soutenu en 2015 qu’une part importante des tâches effectuées par des emplois tels que les managers peuvent être améliorée par la technologie.

Compte tenu des avantages considérables que l’intelligence artificielle peut apporter du point de vue de l’efficacité, il convient de s’interroger sur le rôle que cette technologie joue actuellement dans la sphère internationale. Selon l’Université des Nations Unies, la structure de notre système a besoin de changer, d’innover : il est crucial, aujourd’hui, avec les nouveaux défis à relever au niveau international, de considérer l’essor de l’intelligence artificielle comme un nouvel outil pour y faire face. De la pandémie de COVID-19 qui a révolutionné, en partie, notre mode de vie, nos relations et notre façon de travailler, aux guerres en cours et aux catastrophes climatiques, il y a de plus en plus de problèmes qui nécessitent des solutions innovantes et, surtout, efficaces. Ce n’est pas un hasard si le nombre de pays investissant massivement dans le développement et l’innovation des nouvelles technologies ne cesse de croître.

Les exemples les plus frappants sont ceux des États-Unis et de la Chine, qui ont été les protagonistes d’investissements records dans la recherche et le développement de l’IA au cours des dernières années. Dans le cas des États-Unis, le gouvernement américain a dépensé en 2022 la somme considérable de 3,3 milliards de dollars pour la technologie et, selon une étude de Goldman Sachs, 47,4 milliards de dollars ont été mobilisés pour l’intelligence artificielle en 2022. De même, le gouvernement chinois a considérablement augmenté ses investissements dans l’IA, qui devraient atteindre la somme de 38,7 milliards de dollars en 2027, soit 9 % du total mondial.
Les pays qui récolteront le plus d’investissements dans la recherche et le développement de l’IA en 2024 sont les États-Unis, la Chine, le Royaume-Uni, Israël, le Canada, la France, l’Inde, le Japon, l’Allemagne et Singapour.

Cependant, une question se pose lorsqu’on analyse le rôle de l’IA dans la sphère mondiale : dans quelle mesure l’utilisation de l’intelligence artificielle pour faire face aux nouveaux défis internationaux est-elle démocratique ? En effet, cette technologie et les investissements qui y sont consacrés reflètent une réalité que le néoréalisme politique a théorisée de la manière suivante : une logique d’hégémon contre hégémon. Ce paradigme fait référence à une théorie des relations internationales dont le principal initiateur est l’universitaire Robert Gilpin dans les années 1980. Selon Gilpin, dans la sphère internationale, certains pays, les « hégémons », ont plus d’influence et d’importance que les autres. Il s’agit d’une sorte de suprématie globale qui touche les sphères économique, politique, juridique et, par conséquent, sociale des relations entre les États. L’objectif des hégémons, dans ce cas, est de maintenir leur statut et leur prestige, au détriment des autres, et d’accroître leur sphère d’influence ; un objectif qui diverge souvent de celui des autres hégémons, donnant lieu à des tensions ou à des conflits dans les sphères politico-économiques et militaires.

Afin d’expliquer la dynamique actuelle par le biais des théories des relations internationales, il convient également d’examiner le dilemme de la sécurité, conçu par Kenneth Waltz dans son livre « Theory of International Politics » publié en 1979. Selon la théorie structuraliste de Waltz, le « dilemme de sécurité » se produit lorsqu’un État accroît ses défenses, soit par le biais d’accords internationaux, soit par le renforcement de son armée.D’autres États, percevant ces actions comme une menace, auront tendance à faire de même, se protégeant à leur tour, ce qui entraînera une spirale dans laquelle chaque État agira de la même manière, jusqu’à ce que des tensions apparaissent entre les acteurs internationaux et, parfois, des conflits purs et simples, avec des conséquences désastreuses.

Ainsi, pour pouvoir utiliser ce type de technologie dans la sphère militaire, dans la cybersécurité, dans la protection de l’environnement, ainsi que dans les soins de santé, un volume d’investissement déconcertant est nécessaire, on parle en effet d’une moyenne de 81,7 milliards de dollars dans le cas des Etats-Unis et de 35,57 dans le cas de la Chine d’ici 2025, selon les prévisions de Goldman Sachs. Dans un contexte international où les enjeux nécessitant une réponse globale sont de plus en plus évidents, il est nécessaire de se demander combien d’Etats disposent réellement d’un pouvoir d’achat suffisant pour pouvoir se permettre des dépenses aussi importantes. Il est donc crucial, lorsqu’on analyse le phénomène de l’essor de l’IA pour le développement des nouvelles technologies à l’échelle internationale, de prendre en compte les écarts socio-économiques entre les pays industrialisés et les pays en voie de développement.
Une fois l’intelligence artificielle pleinement développée, peu d’États seront en mesure d’y accéder directement ; les autres, en revanche, pour assurer la sécurité et l’accès à ces technologies, risqueront de conclure des accords avec les hégémons, ce qui entraînera une dynamique de rapports de subordination de plus en plus marqués et de plus en plus violents.

Selon une étude du Fonds monétaire international, les nouvelles technologies risquent de creuser le « fossé » entre les pays riches et les pays pauvres, car l’automatisation est déjà établie dans les pays développés, qui sont « riches en capital », contrairement aux pays en développement, qui sont généralement « riches en main-d’œuvre ». En fait, les recherches du Fonds monétaire international supposent que les robots peuvent plus facilement remplacer les travailleurs moins qualifiés, en complétant plutôt les emplois des travailleurs qualifiés, qui sont plus présents dans les pays ayant un PIB élevé. Comme nous l’avons vu dans le chapitre précédent, les emplois les plus susceptibles d’être remplacés par les nouvelles technologies sont principalement les emplois pratiques, caractérisés par des fonctions mécaniques. Malgré cela, le FMI a déclaré que les prévisions et les résultats des recherches dépendent strictement du type de travail et de la capacité de la machine, du robot, à remplacer facilement les travailleurs. Plus les robots sont capables de remplacer la main-d’œuvre, plus le « fossé » se creuse. En effet, dans les pays en développement, les robots sont susceptibles de remplacer les travailleurs au lieu d’agir comme un complément pour améliorer la main-d’œuvre.

Comme mentionné plus haut, l’IA est un outil qui façonne notre quotidien et le monde dans lequel nous vivons comme jamais auparavant, c’est pourquoi les États investissent massivement dans le développement de cette technologie. Dans la sphère internationale, l’IA est principalement utilisée dans les domaines militaires et de la cybersécurité, ainsi que de l’information. C’est ce que l’on a pu constater de manière empirique avec la guerre en Ukraine au cours des deux dernières années, même si elle a des racines historiques et politiques beaucoup plus profondes. Le conflit en question est en effet devenu un véritable terrain d’essai pour les nouvelles technologies, dans lequel le développement de l’IA a trouvé un vaste champ d’application. Il s’agit d’une des guerres les plus médiatisées de l’histoire, dans laquelle le rôle des nouvelles technologies a influencé et influence la transmission de l’information, la cybersécurité, ainsi que le domaine militaire et la guerre. En bref, il s’agit d’une véritable course à l’armement technologique.

Le phénomène des deep fakes, c’est-à-dire des vidéos ou des images représentant des corps ou des visages de personnes réelles, ou d’un contexte, décontextualisées et manipulées par un algorithme, est donc particulièrement intéressant – et inquiétant. Actuellement, le terme «  deep fake  » est surtout utilisé dans les médias sociaux, où l’image d’une personne réelle est généralement modifiée et sortie de son contexte pour produire un contenu pornographique, sans le consentement de la personne concernée. Récemment, tant dans le conflit russo-ukrainien que dans le conflit israélo-palestinien, nous avons vu une myriade d’images ou de vidéos modifiées et présentées comme réelles pour légitimer les actions de guerre de l’une ou l’autre faction, à des fins de propagande, pour influencer l’opinion publique, qui n’a souvent pas les moyens de vérifier si un contenu est réel ou modifié par l’IA ou les algorithmes.

Un deuxième cas sur lequel il est nécessaire d’insister est, comme mentionné précédemment, l’utilisation de l’IA dans la cybersécurité et dans le domaine de la guerre. Nous parlons de cyberattaques lorsque des actions délibérées sont menées dans le but de détruire, d’altérer, de voler, d’exposer ou de désactiver des données ou d’autres formes d’actifs, par le biais d’un accès illégal à un réseau ou à tout dispositif ou système numérique. Il existe trois grands types de cyberattaques : criminelles, personnelles ou politiques. On parle de cyberattaque politique lorsque l’on est confronté au cyberterrorisme ou à la cyberguerre. Dans ce dernier cas, les États ciblent les institutions vitales de l’État rival comme cible de leurs cyberattaques.

On a pu le constater à de nombreuses reprises dans le conflit russo-ukrainien, par exemple dans le cas de compagnies d’énergie nucléaire, d’entités gouvernementales et de sociétés de médias, afin d’affaiblir la faction adverse. L’IA révolutionne donc aussi la guerre et l’industrie de la guerre. C’est ce que montrent les nouveaux outils issus de cette technologie. Selon le Fonds monétaire international, l’IA pourrait être utilisée pour surveiller les mouvements des ennemis et lancer des explosifs à distance, accélérant ainsi l’affrontement entre les armées. L’Ukraine a d’ailleurs mis en place un logiciel de reconnaissance vocale basé sur l’IA pour traduire et orienter les conversations non cryptées de ses adversaires, ainsi qu’un système pour entraver les drones russes. De son côté, la Russie a développé un brouillage contre les drones ukrainiens. Si le mode opératoire des drones n’a pas beaucoup changé depuis les années 1990, leur portée et leur perfectionnement ont connu d’importantes évolutions, qui sont aussi le fruit de l’IA. En effet, au début du conflit, il était question d’utiliser les drones turcs Bayraktar TB2, qui sont quelque peu tombés en désuétude suite à l’amélioration de la défense aérienne russe. Il s’en est suivi une sorte de course à l’évolution de part et d’autre pour moderniser et mettre à jour leurs instruments de combat, à l’instar des drones Saker Scout développés par Kiev, qui sont capables de détecter des cibles qui souvent s’échappent. Ainsi, selon l’étude du FMI, avec l’escalade du conflit russo-ukrainien en 2022, l’importance des données dans l’évolution et le développement de l’IA est apparue clairement, puisqu’elles constituent son « carburant ».

Dans le contexte de cette guerre, notamment mais pas seulement, on pourrait donc assister à la course effrénée à l’armement de l’IA et au développement de nouvelles technologies. Une course qui nécessite des investissements importants et qui n’est donc pas accessible à tous les Etats de la même manière. Cela pourrait refléter, surtout à l’avenir, les écarts socio-économiques entre les pays industrialisés et les pays en développement, qui – on le suppose – pour faire face au dilemme sécuritaire actuel et aux problèmes présents et futurs, pourraient se voir contraints de conclure des accords ou des traités avec des pays plus riches afin de pouvoir s’assurer les avantages de l’IA. Cela mettrait encore plus en évidence la subordination entre les États, si l’on voit le phénomène à travers les yeux des néo-réalistes, ou une coopération plus motivée et bénéfique, si l’on interprète les faits selon la doctrine néo-libérale ou libérale-institutionnelle. Quoi qu’il en soit, les nouvelles technologies sont appelées à façonner les relations internationales et la coopération entre les États comme jamais auparavant.

Bien qu’à l’heure actuelle, la juridiction en matière d’IA soit pratiquement absente – ou presque – il existe des pistes pour une future réglementation juridique au niveau international ou régional, en particulier dans le cas de l’Union européenne. Plus précisément, le 6 mars 2024, un rapport a été publié sur le site web de l’Union européenne concernant un projet de loi appelé « Loi sur l’IA », visant à limiter son utilisation, notamment en raison des risques que son utilisation incorrecte peut entraîner. À l’heure actuelle, il n’y a encore rien de concret, mais on peut supposer que dans les mois ou les années à venir, un nouveau corpus législatif se développera autour de cette question.

Sources :

Image : Wikimedia Commons

https://www.britannica.com/technology/artificial-intelligence

https://www.coe.int/en/web/artificial-intelligence/history-of-ai#:~:text=The%20term%20%22AI%22%20could%20be,because%20they%20require%20high%2Dlevel

https://www.treccani.it/enciclopedia/intelligenza-artificiale_(Enciclopedia-della-Scienza-e-della-Tecnica)/

https://www.europarl.europa.eu/topics/it/article/20200827STO85804/che-cos-e-l-intelligenza-artificiale-e-come-viene-usata

https://journals.sagepub.com/doi/full/10.1177/1094670517752459

https://www.goldmansachs.com/intelligence/pages/ai-investment-forecast-to-approach-200-billion-globally-by-2025.html

https://unu.edu/article/ai-and-international-relations-whole-new-minefield-navigate#:~:text=AI%20has%20been%20applied%20to,improve%20the%20international%20financial%20architecture

https://www.techopedia.com/top-10-countries-leading-in-ai-research-technology

https://www.treccani.it/vocabolario/deepfake_%28Neologismi%29/

Manipulating Reality: The Role of Social Media Content and Deepfakes in the Russia-Ukraine War

https://www.ibm.com/topics/cyber-attack#:~:text=A%20cyberattack%20is%20any%20intentional,theft%20to%20acts%20of%20war.

https://www.reuters.com/world/europe/factbox-the-cyber-war-between-ukraine-russia-2022-05-10/

https://www.imf.org/fr/Publications/fandd/issues/2023/12/Case-Studies-New-model-army-Jeremy-Wagstaff

https://digital-strategy.ec.europa.eu/fr/policies/regulatory-framework-ai

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *