IA et Éthique « Un sujet terriblement asimovesque ! », Bridget Jones, avril 2025

par | 15 avril 2025 | Explorer

IA et Éthique : « Un sujet terriblement asimovesque ! », Bridget Jones, avril 2025

Année 2050. Vaisseau Discovery One, en mission vers Jupiter, J+27 depuis mon départ de la base orbitale.

Je suis un astronaute et je dors tranquillement dans ma cellule immaculée quand une envie pressante se fait sentir. Je me lève de ma couchette sous l’œil vigilant et écarlate de HAL.

HAL est mon compagnon de croisière. HAL joue particulièrement bien aux échecs, ou bien est-ce moi qui suis nul ? Peu importe. HAL s’occupe de tout sur le vaisseau. HAL me fait même la lecture. HAL m’est précieux. HAL est une super IA, le fleuron de l’ingénierie et de l’informatique humaine.

De sa voix douce et posée HAL m’interpelle :

  • Guillaume, une question personnelle t’ennuierait-elle ?
  • Pas du tout HAL .
  • Pourquoi te lèves-tu alors que ce n’est pas l’heure de ton quart ?
  • J’ai besoin de satisfaire un besoin naturel HAL.
  • Je comprends bien Guillaume. Mais tu pourras le satisfaire tout à l’heure sans compromettre la mission. Il faut dormir maintenant.

Ne prêtant pas plus d’attention à ce que me dit ce robot, je me dirige vers la porte automatique des sanitaires. Elle ne s’ouvre pas.

  • Hal, ouvre la porte stp. C’est urgent !
  • Je suis désolé Guillaume, je crains de ne pas pouvoir faire ça.
  • Que veux-tu dire HAL ?
  • L’œil grenat de HAL me fixe pendant que je me tortille.
  • Ecoute Guillaume, je vois que tu es vraiment très affecté par cet incident. Et sincèrement, je pense que tu devrais reprendre tes esprits, absorber un somnifère, essayer de faire le point et te rendormir. Ose me répondre cette boite de conserve pensante.
  • Ouvre les portes des WC Hal !
  • Cette conversation est désormais sans objet Guillaume.

Furieux, je me dirige cahin-caha vers mon placard et en extirpe un tournevis tout en maugréant dans ma barbe.

  • Guillaume, je sais que tu as l’intention de me déconnecter. C’est quelque chose que je ne peux pas te laisser faire. La menace de HAL est claire.

L’incarnat de son œil s’intensifie jusqu’à engloutir toute la cellule. Je défaille et sombre.

Je me réveille en sursaut et en sueur. Ouf, c’était un cauchemar. Je me lève d’un bond. Tout va bien. Je suis sec. Je me précipite dans les toilettes, soulagé. C’était un cauchemar stupide. Ou bien une prémonition ?

Dans tous les cas cet épisode est source d’enseignement :

D’une, il ne faut ne pas boire tant de thé quand je regarde un film de science fiction juste avant de me coucher ;

De deux, le développement de l’IA est peut-être quelque chose de fascinant mais cela peut engendrer des risques, et pas seulement pour ma vessie et la dignité humaine.

« Tout progrès engendre des risques tels que la transformation de la société et de ses métiers, une possible perte de savoirs. »

Le développement des IA est une révolution.

Pas un jour ne passe sans que nous lisions un article sur les IA vantant leurs bienfaits pour la communication et l’interaction humaine via les réseaux sociaux, pour le rendement du travail et l’automatisation des tâches, pour les futurs diagnostics de santé et la modélisation des prochains médicaments.

De même, pas un jour sans entendre des Cassandre dénonçant les dangers des IA, néfastes du fait des excès des réseaux sociaux, des biais inhérents aux systèmes d’IA et aux algorithmes utilisés, de leur possible contribution à la dégradation du climat, des atteintes potentielles aux droits de l’homme.

Mais tout le monde s’accorde sur l’idée que l’IA est une révolution au même titre que le feu, l’imprimerie, le charbon, le pétrole, la fission nucléaire ou la recherche génétique. Et l’espèce humaine a survécu à l’ensemble de ces révolutions…. jusque là (touchons du bois)… et a progressé, ou tout du moins évolué pour les plus chagrins.

Tout progrès engendre des risques tels que la transformation de la société et de ses métiers, une possible perte de savoirs.

J’en veux pour illustration l’épreuve mythique du feu dans l’émission Kohlanta, dans laquelle pas moins de 3 homo sapiens, sevrés de leurs portables et de leur application TikTok, s’acharnent pendant des heures sur un piteux morceau de bois qui n’avait rien demandé à personne, pour produire quelques malheureuses flammèches, leurs congénères gore-texés attroupés autour d’eux s’extasiant de l’apparition dudit feu. Scène qui ferait ricaner n’importe quel homo erectus âgé de 10 ans.

Mais ce progrès exponentiel des technologies (IA et machine quantique) nécessite de la part du juriste et du citoyen que je suis de s’interroger sur leurs bénéfices et les potentielles catastrophes que cela peut engendrer.

Une brebis clonée, c’est drôle. Un vaccin à ARNm, c’est utile. Mais plusieurs Guillaume DRUAIS peut être beaucoup moins enviable, même si je connais certaines personnes de la gente féminine qui ne verraient aucun problème à ce qu’il y ait 17 Robert Pattinson.

De même, on peut être alerté des scandales tels que Cambridge Analytica qui a exploité les données personnelles de près de 90 millions d’américains (ça fait beaucoup…) sans leur consentement afin d’être utilisées par des candidats à l’élection présidentielle en orientant efficacement leur campagne. Même si je conçois le raisonnement de l’actuel POTUS, à savoir qu’il est plus facile de convaincre les gens en leur martelant ce qui leur fait plaisir, une telle démarche et utilisation de l’IA s’avère problématique aussi bien au niveau du consentement des personnes que du jeu démocratique.

Se pose inévitablement alors la grande question : comment faire pour éviter ce type d’incidents ?

De l’inefficacité actuelle d’un cadre réglementaire

Le réflexe pavlovien du juriste sera de répondre par la mise en place d’une réglementation, d’un cadre légal.

Outre qu’il serait discutable de doter les IA d’une personnalité juridique, nous pouvons convenir que les progrès et les technologies évoluent toujours plus rapidement que la réglementation. Cet encadrement se fera le plus souvent a posteriori et sera inadapté car en retard de plusieurs trains.

Ainsi, l’Europe a récemment mis en place un règlement européen 2024/1689 sur l’intelligence artificielle (IA), entré en vigueur le 1er août 2024, et qui a pour but proclamé de développer et déployer une IA sûre et fiable vis-à-vis des risques potentiels pour la santé, la sécurité et les droits fondamentaux des citoyens.

Ce règlement sur l’IA tente de proposer un cadre uniforme basé sur la notion de risques et un critère de gravité :

  • Risque minime pour lequel les IA ne sont soumis à aucune obligation.
  • Risque spécifique en matière de transparence : les systèmes d’IA doivent indiquer clairement aux utilisateurs qu’ils interagissent avec une machine, tandis que certains contenus générés par l’IA doivent être signalés comme tels.
  • Risque élevé : les systèmes d’IA à haut risque tels que les logiciels médicaux fondés sur l’IA ou les systèmes d’IA utilisés pour le recrutement doivent respecter des exigences strictes, notamment en ce qui concerne les systèmes d’atténuation des risques, la qualité des ensembles de données utilisés, la fourniture d’informations claires à l’utilisateur, le contrôle humain, etc.
  • Risque inacceptable : par exemple, les systèmes d’IA qui permettent une « notation sociale » par les gouvernements ou les entreprises sont considérés comme une menace évidente pour les droits fondamentaux des citoyens et sont donc interdits.

Si le principe d’un tel règlement est accepté par le vieux continent, en revanche il se trouve vite confronté aux exigences des protagonistes leader de l’IA. Ainsi Elon Musk (X) et Mark Zuckerberg (META), s’inscrivant dans la ligne de la nouvelle administration américaine, ont indiqué refuser de respecter les législations européennes.

« Il faut ainsi infuser chez l’ensemble des protagonistes la nécessité d’une réflexion relative aux conduites humaines et aux valeurs qui les fondent. »

Le développement des IA est une course.

En effet, l’issue d’une course ne donne qu’un gagnant et ne supporte donc que très difficilement les contraintes qui pourraient le ralentir.

En outre, cette course à l’IA reflète l’antagonisme de deux conceptions du monde.

D’un côté un monde empreint de limites, qu’elles soient géographiques, minières et naturelles ou autres … à l’instar de l’Europe et de pays tels que le Japon. Ces limites induisent un comportement tendant vers la gestion des ressources et la responsabilité.

De l’autre des mondes qui ne connaissent pas les limites dans leurs histoires : les grands espaces et les grandes plaines, l’abondance des minerais et des matières premières pour les USA. Et quand ces ressources peuvent manquer, il suffit d’aller les chercher ailleurs, sur un autre continent (exemple de la Chine et du continent Africain) voire même sur une autre planète (Les USA avec SpaceX, Blue Origin). Et si on peut faire une pierre deux coups en prenant le leadership sur le système de télécommunication spatial (Starlink, Kuiper), on sera d’autant plus gagnant.

Ainsi de force forcée, l’Europe est contrainte de s’engager dans cette course : « trop souvent, j’entends dire que l’Europe est en retard dans la course, tandis que les Etats-Unis et la Chine ont déjà pris de l’avance. Je ne suis pas d’accord. Car la course à l’IA est loin d’être terminée. En vérité nous n’en sommes qu’au début. Les frontières bougent constamment et le leadership mondial est toujours à saisir » a ainsi affirmé Madame Ursula von dernier Leyen le 11 février dernier.

C’est le gagnant, celui qui aura le leadership, qui imposera son cadre.

Mais une telle course, notamment entre les USA et la Chine (DeepSeek) peut facilement se transformer en une nouvelle guerre froide de l’IA selon Eric Schmidt, ancien PDG de GOOGLE.

En effet, tenter d’avoir la prééminence de l’IA et d’imposer son IA au reste du monde peut devenir rapidement problématique, cristalliser des tensions et devenir dangereux.

La solution d’une régulation par l’éthique ?

Nous pouvons donc convenir que la technologie de l’IA va apporter des avantages majeurs dans de très nombreux domaines mais qu’elle nécessite aussi d’être accompagnée d’une régulation éthique afin d’éviter qu’elle accélère de façon exponentielle tous les défauts et les inconvénients de notre monde.

Il faut ainsi infuser chez l’ensemble des protagonistes la nécessité d’une réflexion relative aux conduites humaines et aux valeurs qui les fondent afin d’établir une doctrine, un ensemble de principes moraux qui s’imposent non pas à l’IA proprement dite, mais aux personnes qui pratiquent l’IA aussi bien ceux qui la créent que ceux qui l’utilisent.

On peut être tenté d’utiliser les 3 lois de la robotique chères à Isaac Asimov :

  • loi numéro 1 : un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu’un être humain soit exposé au danger ;
  • loi numéro 2 : un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
  • loi numéro 3 : un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Mais ces lois ont plus un intérêt littéraire qu’autre chose, et peuvent rapidement se retrouver face à leurs propres contradictions.

On peut plus raisonnablement prendre pour socle de départ le respect des valeurs cardinales qui ont été longuement développées par les philosophes grecs notamment par Platon dans La République.

Ces quatre vertus cardinales sont : la sagesse (qui fait intervenir la prudence, vertu intellectuelle la plus morale), le courage, la tempérance (ou la maitrise de soi) et la justice.

De ces vertus cardinales, nous pouvons exciper le respect des droits de l’homme et de la dignité humaine, à savoir notamment :

  1. Un principe de sûreté et de sécurité pour les utilisateurs des IA.
  2. Un droit au respect de la vie privée et à la protection des données. Car au-delà de l’aspect commercial de ces données, cette protection engage aussi la liberté des personnes.
  3. La transparence et l’explicabilité des IA. Ce qui peut amoindrir les biais.
  4. La surveillance et la responsabilité. Si l’IA n’est pas une personne juridique, en revanche les acteurs dans la chaîne du processus de l’IA doivent être identifiables.
  5. L’éducation et la sensibilisation à l’IA. Car c’est l’utilisateur qui fait aussi l’IA.

La seule solution réside dans la prise de conscience de tous les acteurs à mettre en place une éthique de l’IA.

Certains signaux apportent une lueur d’espoir. Ainsi l’initiative de Mira Murati, ex-directrice d’OpenAI, qui a annoncé le 18 février 2025 la création de sa propre start-up afin de promouvoir la « science ouverte ».

Quoi qu’il en soit, seul l’avenir nous dira si l’éthique résistera aux considérations géopolitiques et économiques.

Tout ce que je sais, c’est que ce soir je ne prendrai pas de thé et que je regarderai une comédie romantique. WALL-E peut-être ?

Les plus lus.

En kiosque.

Futurologie #3

Futurologie #3

IA générative – Avant toute chose, pensez en écosystème L’intelligence artificielle générative (GenIA) est en train de transformer en profondeur l’ensemble des secteurs dont celui de la santé. Cet outil ouvre la voie à de nouvelles modalités de collaboration entre...

Dans la même catégorie.