Informations hebdomadaires de Transparency International : La machine l’a fait !

Chaque jour, la technologie devient de plus en plus avancée. Les machines peuvent désormais écrire de la poésie, des paroles de chansons et avoir des conversations sophistiquées qui ne sont pas si différentes de celles que nous avons avec nos amis et collègues.

L’IA ou intelligence artificielle, pourrait même nous écrire cette newsletter… Mais pour l’instant, ce sont des humains derrière ce mouvement anti-corruption.

Bien qu’il soit attrayant de se lancer rapidement dans un voyage dans le domaine de l’intelligence artificielle, nous devrions nous arrêter et nous demander : pourquoi de nombreux créateurs de logiciels d’IA tirent-ils la sonnette d’alarme sur leurs propres créations ?

Récemment, les meilleurs experts de l’IA – dont le PDG d’OpenAI, les créateurs de ChatGPT, Sam Alman et le parrain de l’IA Geoffrey Hinton – ont publié une déclaration puissante exprimant leur inquiétude quant aux effets potentiellement nocifs de cette technologie en croissance rapide. Dans la déclaration, ils appellent les dirigeants mondiaux à reconnaître « le risque d’extinction de l’IA » comme une menace mondiale comparable aux pandémies et à la guerre nucléaire.

Ce n’est pas la première fois que des experts en la matière émettent un avertissement. Il y a quelques semaines, beaucoup ont appelé à une pause dans les expériences d’IA à grande échelle, citant des risques profonds pour la société et l’humanité. Le Centre pour la sécurité de l’IA a noté des préoccupations majeures concernant la croissance exponentielle de l’IA, y compris les risques de militarisation, la propagation de la désinformation et les déséquilibres de pouvoir croissants ainsi que la dépendance humaine à la technologie. Tout semblable aux thèmes de mise en garde décrits dans le film emblématique de Pixar, Wall E

Une question cruciale qui n’a pas encore été explorée en profondeur est le lien entre l’IA et la corruption.

Alors que de nombreuses personnalités du secteur ont souligné la contribution potentielle de l’IA à la lutte contre la corruption – en faisant référence à sa capacité à détecter la fraude et à prévoir les risques de corruption – elle peut également avoir des conséquences négatives, intentionnelles ou non.

Le problème de l’IA perpétuant les préjugés humains a déjà été bien documenté, avec de nombreuses études pointant vers le racisme dans les algorithmes de police prédictive et les cas de ChatGPT reposant sur des stéréotypes sexistes.

Là où l’IA est intentionnellement abusée par les détenteurs du pouvoir à des fins privées, elle est susceptible d’avoir de graves répercussions sur la vie économique, politique et sociale, selon la façon dont elle est conçue, manipulée et appliquée. Dans le domaine politique, par exemple, l’IA peut et a été utilisée pour influencer les élections et même pour nuire à la réputation des candidats – en particulier des femmes – en utilisant des deepfakes hyperréalistes.

Étant donné que l’IA est une technologie de pointe, les décideurs politiques sont encore en train de comprendre comment mettre en place des règles et des systèmes appropriés pour garder les choses sous contrôle. En attendant, les systèmes d’IA qui reposent sur l’apprentissage automatique fonctionnent de manière opaque et même incompréhensible pour les humains, ce qui les rend difficiles à rendre responsables.

C’est le scénario parfait pour les personnages louches et puissants qui attendent de perpétuer des actes de corruption. Les acteurs malveillants peuvent exploiter les vulnérabilités de l’IA qui augmentent les risques de corruption. Les données d’entraînement de l’IA peuvent être manipulées pour favoriser certains résultats par rapport à d’autres. Les modèles ou les paramètres des algorithmes d’IA peuvent également être modifiés pour privilégier les intérêts privés par rapport au bien commun

En raison de la confidentialité et de la protection des données, des personnes puissantes peuvent facilement manipuler les résultats des systèmes d’IA pour servir leurs propres intérêts. Alors que cette technologie continue de progresser rapidement, il devient tentant et pratique de rejeter la faute sur des machines ou des algorithmes plutôt que d’assumer la responsabilité en tant qu’humains. Cette déconnexion croissante de la souffrance réelle des personnes peut créer des failles éthiques, ce qui facilite la perpétration de crimes en premier lieu.

Alors, où allons-nous partir d’ici? Comme souligné dans notre article, un point de départ consiste à établir des réglementations adéquates sur l’IA pour prévenir les abus, combinées à la création de codes de conduite professionnels et à une formation éthique pour ceux qui développent des codes et des technologies d’IA.

La semaine dernière, les responsables du G7 se sont réunis pour le premier groupe de travail sur l’IA afin de discuter de la manière dont cette nouvelle technologie devrait être réglementée. C’est un pas dans la bonne direction. Mais jusqu’à ce que nous ayons des éléments d’action concrets, la question demeure : l’IA est-elle notre amie ou notre ennemie ? Vous pouvez peut-être demander à ChatGPT.

Mamadou Nancy Fall
Up Next

Related Posts