Les êtres humains ont toujours vécu selon des règles éthiques, ces règles ayant toujours constitué le signe de l’exception ou de la spécificité humaine : l’homme est un animal éthique. D’un autre côté, nous vivons déjà et nous vivrons toujours plus dans un environnement d’IA généralisée. Dès lors la question des rapports entre IA, éthique et humanité est inévitable. Il s’agit alors de savoir ce que l’IA fait à l’éthique et même si l’IA n’engage pas de changer de/la morale. « Depuis cinq siècles, notre morale est fondée … sur ce postulat humaniste d’une singularité de l’espèce humaine. Nous devons désormais inventer une autre morale qui s’en affranchit » (Gilles Dowek, in Intelligence artificielle, Champs, 2018, p. 246). La question éthique se formule traditionnellement de deux manières : comment vivre pour être heureux ? – que dois-je faire pour être vertueux ? La première formulation relève plutôt de l’éthique (bien = bonheur = vertu), la seconde plutôt de la morale (bien = vertu = devoir). Mais éthique et morale ont la même racine et sont utilisées aujourd’hui indifféremment l’une pour l’autre dans la philosophie contemporaine. Si l’on transpose et on applique à l’IA la question éthique dans sa double formulation ou composante, il s’agit de savoir comment bien vivre avec l’IA. Que devons-nous faire ou avec quelle IA voulons-nous vivre ? Il est de notre responsabilité de déterminer le monde de l’IA dans lequel nous aspirons à vivre.

Document joint