Déchiffrer

Faut-il une régulation éthique des intelligences artificielles comme ChatGPT ?

Elon musk (Tesla, Space X), le physicien Stephen Hawking, le linguiste et philosophe Noam Chomsky ou encore Steve Wozniak (cofondateur d’Apple). Toutes ces personnalités ont en commun qu’ils soutiennent une lettre ouverte qui alerte sur les dangers de l’intelligence artificielle (IA). Et réclame une régulation éthique. Plus de mille signataires appellent tous les laboratoires d’IA à suspendre immédiatement les entraînements des IA les plus puissantes, comme ChatGPT-4. Ils réclament du temps – au moins six mois – pour définir des protocoles éthiques et transparents.

« Nous recommandons une pause dans le développement de grands systèmes d’IA qui pourraient avoir des conséquences sociétales imprévisibles. Et l’établissement de normes internationales pour assurer la sécurité, la transparence et la prévisibilité des systèmes d’IA », peut-on lire dans cette lettre ouverte.

« Des modèles de boîte noire toujours plus grands et imprévisibles »

« Les systèmes d’IA récents deviennent désormais compétitifs avec le cerveau humain dans des tâches générales. Et nous devons nous demander : devrions-nous laisser les machines inonder nos canaux d’information de propagande et de contre vérité ? Automatiser toutes les tâches, y compris celles qui sont épanouissantes ? Devrions-nous développer des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents, obsolètes et nous remplacer ? Et risquer de perdre le contrôle de notre civilisation ? », s’interrogent les experts dans la lettre ouverte.

En conséquence, ils demandent six mois de « trêve ». Il s’agit d’une simple pause, qui ne doit pas mettre un stop au développement des intelligences artificielles. Objectif : prendre du recul par rapport « à la course dangereuse vers des modèles de boîte noire toujours plus grands et imprévisibles » et formaliser une certaine régulation éthique.

Mettre dès à présent en place des garde-fous de régulation formelle et éthique

« La recherche et développement en IA devrait être recentrée sur l’amélioration de la précision, de la sécurité, de l’interprétabilité, de la transparence, de la robustesse, de l’alignement, de la fiabilité et de la loyauté des systèmes puissants et modernes d’aujourd’hui« , peut-on lire. Et d’ajouter : « En parallèle, les développeurs d’IA doivent travailler avec les décideurs politiques. Cela pour accélérer considérablement le développement de systèmes robustes de gouvernance des intelligences artificielles. »

Parmi les solutions suggérées pour cette régulation éthique et formelle, citons en vrac :

  • de nouvelles autorités de réglementation compétentes dédiées à l’IA
  • la surveillance et le suivi des systèmes d’IA hautement performants et des outils avec des capacités de calcul poussées
  • des systèmes d’indication de provenance et de filigrane pour aider à distinguer le réel du synthétique. Et à suivre les fuites de modèles (notamment pour les images)
  • un solide écosystème d’audit et de certification
  • la création d’une responsabilité pour les dommages causés par l’IA
  • un financement public solide pour la recherche technique sur la sécurité de l’IA
  • des institutions bien dotées en ressources pour faire face aux perturbations économiques et politiques majeures (en particulier pour la démocratie) que l’IA entraînera.

Europol s’intéresse aussi de près à ChatGPT & co

Lundi 27 mars, Europol, l’agence européenne de police criminelle, a évoqué les usages détournés de l’intelligence artificielle qui pourraient être faits par les criminels. Désinformation, escroquerie par hameçonnage, création de logiciels malveillants… Europol a dévoilé un rapport qui pointe les possibles actions criminelles facilitées par les AI comme ChatGPT.

« L’exploitation potentielle de ces types de systèmes d’IA par des criminels offre de sombres perspectives », explique l’agence dans son rapport. Elle pointe aussi du doigt l’éventualité de la création de « dark LLMs », des IA créées et entraînées uniquement dans un objectif criminel et qui pourraient devenir centrales dans un « business model » mafieux. « Il deviendra plus facile que jamais pour des acteurs malveillants de
perpétrer des activités criminelles sans connaissance préalable nécessaire »
, note le rapport.

SOUTENEZ WE DEMAIN, SOUTENEZ UNE RÉDACTION INDÉPENDANTE
Inscrivez-vous à notre newsletter hebdomadaire
et abonnez-vous à notre magazine.

Recent Posts

  • Déchiffrer

Écologie : stop ou encore ? Les Français veulent accélérer la lutte contre le réchauffement climatique

Face à l'urgence climatique, les Français disent non à une "pause" dans la lutte contre…

19 heures ago
  • Inventer

Au Chili, le pari de l’extraction durable des terres rares

Pour son gisement de terres rares,le Chili veut mettre en place une approche durable. Cette…

1 jour ago
  • Déchiffrer

Militantisme vert : quand les actions radicales rencontrent un soutien populaire

"Éco-terroriste" ou défenseur de la planète ? Les actions des militants écologistes, souvent jugées radicales,…

2 jours ago
  • Ralentir

Numérique omniprésent : comment le cerveau réagit-il aux distractions incessantes ?

Dans notre monde hyperconnecté, les distractions numériques façonnent constamment notre attention et notre cognition. Découvrez…

3 jours ago
  • Respirer

Denica Riadini-Flesch : « Les vêtements les plus durables sont ceux qui sont déjà dans votre garde-robe »

Lauréate 2023 du Prix Rolex à l'esprit d'entreprise, Denica Riadini-Flesch a monté un projet de…

5 jours ago
  • Ralentir

Comment l’Ukraine utilise l’IA dans sa guerre contre la Russie

Désignation des cibles, identification des prisonniers et victimes, guidage des drones, espionnage… En Ukraine, la…

6 jours ago