banner societe 2016
mardi, 24 mars 2020 10:46

Une éthique algorithmique

© Adobe Stock / phonlamaiphotoLes changements provoqués par l’intelligence artificielle (IA) affectent la façon dont l’homme perçoit la réalité et la nature humaine elle-même. La recherche en IA doit aujourd’hui s’assurer que cette technologie soit mise au service de la «famille humaine» et pour cela certains critères doivent être pris en compte et fixés par la loi. Tel est le sens de l’Appel de Rome pour une éthique de l’IA, signé au Vatican le 28 février par des experts. L’objectif est de guider toute évolution future du secteur.

Du 26 au 28 février 2020, des acteurs économiques, politiques et scientifiques de l’IA se sont réunis à Rome, sur invitation de l’Académie pontificale pour la vie du Vatican, pour réfléchir aux risques que cette technologie peut induire. À l’issue de trois jours de travail, ils ont adopté et signé l'Appel de Rome pour une éthique de l’IA, qui propose des critères internationaux pour faire face à ces risques. Parmi les signataires, on trouve le directeur de la FAO, le président de Microsoft, le vice-président d’IBM, le président du Parlement européen, ainsi que le président de l’Académie pontificale pour la vie (PAV).

Saluant l’énorme potentiel technologique qu’offre l’IA pour améliorer la vie quotidienne, les signataires ont souligné que les bénéfices espérés doivent s’accompagner de garanties contre les risques possibles. Le document appelle notamment à ce que la liberté des individus ne soit pas diminuée par des «conditionnements algorithmiques».

Le message du pape

Au début de la réunion, un message du pape François, lu par Mgr Vincenzo Paglia, président de la PAV, a posé les bases de la réflexion. «Puisque l’innovation numérique affecte tous les aspects de la vie, tant personnels que sociaux, une simple éducation à l’utilisation correcte des nouvelles technologies ne suffit pas», a mis en garde le pape. Les nouvelles technologies ne sont pas des instruments neutres, a-t-il poursuivi, car elles façonnent le monde et engagent les consciences au niveau des valeurs. C’est pourquoi, il faut mener une action éducative plus large que celle qui existe pour le moment afin de persévérer dans la recherche du bien commun. Il faut, par conséquent, créer des corps sociaux intermédiaires pour assurer la représentation de la sensibilité éthique des utilisateurs et des éducateurs.

Face à la profondeur et l’accélération des transformations de l’ère numérique et aux problèmes inattendus, il existe une nouvelle frontière, a souligné le pontife, «l’éthique algorithmique». Celle-ci doit devenir un pont pour permettre aux principes de la Doctrine sociale de l’Église de s’appliquer concrètement à travers un dialogue interdisciplinaire efficace. Il s’agit, entre autres, de la dignité de la personne, de la justice, du principe de subsidiarité et de la solidarité.

Pour un droit international en la matière

Les signataires de l’appel sont allés dans le même sens. Les valeurs et principes que l’homme est capable d’instiller dans l’IA doivent servir une éthique du numérique, concernée en premier lieu par le sort de l’homme et de son environnement, ont-ils expliqué. Ils ont invité aussi au développement rapide d’un droit international pour protéger l’homme des excès de l’IA. Il devrait être fondé sur la transparence, l’inclusion, la responsabilité et l’impartialité du constructeur d’IA, la sécurité et le respect de la vie privée. Le document propose enfin un champ d’action éducative pour former les générations futures aux enjeux technologiques.

Comme l’a expliqué Mgr Vincenzo Paglia, président de l’Académie pontificale pour la vie, l’Appel de Rome pour une éthique de l’intelligence artificielle n’est pas un texte officiel de l’Académie, mais un document d’engagements communs. L’intention de cet Appel est de donner vie à un mouvement qui s’élargisse et qui implique d’autres sujets: institutions publiques, ONG, industries et groupes, pour produire une orientation dans le développement et dans l’utilisation des technologies dérivées de l’IA. «La première signature de cet Appel n’est pas un point d’arrivée, mais le début d’un engagement qui apparaît comme étant encore plus urgent et important que ce qui a été fait jusqu’ici.»

À lire ci-dessous, en marge de notre dossier Contrôler l'IA, une utopie? (in choisir n°695), les interventions complètes de Mgr Vincenzo Paglia et du Père Paolo Benanti, respectivement président et membre de l’Académie pontificale pour la vie, à la conférence de presse du mardi 25 février 2020, présentant l’Atelier et l’Assemblée de l’Académie pontificale pour la vie sur le thème Le “bon” algorithme? Intelligence artificielle: éthique, droit, santé.


Intervention de Mgr Vincenzo Paglia

Nous vivons un temps de changement historique, comme aime le dire le pape François. C’est un passage inédit qui change en profondeur l’humanité et son avenir. Pour la première fois dans l’histoire, l’homme a le pouvoir de se détruire: avant, par l’explosion nucléaire, ensuite par l’explosion écologique et maintenant par une «explosion d’intelligence» technologique.

Dans sa Lettre Humana Communitas, le pape François a invité l’Académie pontificale pour la vie à élargir son horizon, à revisiter la signification même du terme «vie humaine»: il ne s’agit pas d’un concept abstrait; la vie est la réalité de chaque personne et de la famille humaine tout entière.

Des décisions fruit du vouloir humain et d’algorithmes

Le pape François demande à l’Académie de «développer la réflexion» sur le versant «des nouvelles technologies définies aujourd’hui comme émergentes et convergentes», comme les technologies de la communication, les biotechnologies, les nanotechnologies et la robotique. Avec les résultats obtenus par la physique, la génétique et les neurosciences, ainsi que par la capacité de calcul de machines toujours plus puissantes, il est aujourd’hui possible d’intervenir en profondeur dans l’humain. L’innovation numérique, en effet, touche tous les aspects de la vie, personnels et sociaux; elle affecte notre manière de comprendre non seulement le monde mais aussi nous-mêmes.

Les décisions, notamment les plus importantes comme celles qui concernent le domaine médical, économique ou social, sont aujourd’hui le fruit du vouloir humain et d’une série de contributions algorithmiques. La vie humaine se trouve au point de convergence entre l’apport proprement humain et le calcul automatique, de sorte qu’il est de plus en plus complexe d’en comprendre l’objet, d’en prévoir les effets et d’en définir les responsabilités.

L’Académie s’est lancée dans ce domaine, sans abandonner ses territoires traditionnels comme les questions relatives à la naissance (avortement, diagnostic prénatal…), à la fin de vie (euthanasie, suicide assisté, soins palliatifs) et au développement des cellules staminales. En 2017, nous avons abordé la question de la protection et de la promotion de la vie humaine à l’ère technologique et par conséquent sur l’horizon de la bioéthique mondiale. L’année dernière, la réflexion a porté sur les questions éthiques posées par la robotique (la fameuse roboéthique) et cette année, dans la continuité, nous abordons la question de l’éthique et de l'IA. En réalité, nous avons également été sollicités ou, si vous voulez, invités à traiter ces thèmes par les intéressés eux-mêmes. (…)

L’Académie se sent appelée à approfondir l’impact spécifique qu’ont ces technologies sur le monde médical de la santé et sur les soins et la protection de la vie. L’activité humaine dans ces secteurs semble de plus en plus décomposée en de multiples éléments qui ne sont pas facilement imputables au contrôle ou à la volonté de sujets individuels. Cette nouvelle modalité selon laquelle se situe l’agir personnel dans un contexte structuré est un défi particulier pour les professions médicales et de la santé qui ont pour objet des valeurs aussi fondamentales que celles qui sont liées à la corporéité et à la vie humaine. L’innovation technologique nous lance un défi en tant qu’Académie et en tant qu’Église; c’est ainsi que la PAV commence à prendre position et à participer dans un contexte historique et social en transformation profonde et continuelle.

© Traduction de Zenit, Hélène Ginabat

 

Intervention du Père Paolo Benanti, T.O.R.


Aujourd’hui, nous nous trouvons face à une quatrième révolution industrielle liée à la diffusion envahissante d’une nouvelle forme de technologie: l’intelligence artificielle, ou IA. Comme l’électricité et l’électronique, l’IA ne sert pas à faire quelque chose de spécifique; elle est plutôt destinée à changer la manière dont nous ferons tout. Comment est-ce possible? Ces dernières années, grâce à des ordinateurs de plus en plus puissants, une énorme capacité de calcul, disponible à des prix de plus en plus bas, a été générée. Parallèlement, nous avons commencé à amasser une quantité de données qui ne cesse d’augmenter à des rythmes vertigineux: au cours des deux dernières années, 90% des données jamais générées dans toute l’histoire de l’homme ont été créées. Ces deux facteurs ont permis de faire fonctionner certaines familles d’algorithmes qui donnent lieu au monde complexe des IA -un monde sur lequel les scientifiques réfléchissaient, au moins théoriquement, depuis les années soixante.

Qu’est-ce que tout cela va changer?

La première et la seconde révolutions industrielles (respectivement avec le charbon et la vapeur, et avec l’électricité et le pétrole) nous ont fourni des formes d’énergie alternatives aux muscles; la troisième a produit des machines automatiques, bouleversant le concept de chaîne de montage et d’ouvrier; celle qui s’annonce risque d’automatiser non pas la force, non pas le travail, mais notre cognition.

Les systèmes d’IA sont capables de s’adapter et de se conformer aux conditions changeantes dans lesquelles elles agissent, simulant ce que ferait une personne. En d’autres termes, aujourd’hui, la machine peut souvent remplacer l’homme pour prendre des décisions et faire des choix. Si les autres révolutions industrielles concernaient les cols bleus, celle qui est en train de se réaliser concerne surtout les cols blancs. Les IA ne conduiront pas à l’apocalypse, mais elles peuvent conduire à la fin de la classe moyenne.

Aujourd’hui des algorithmes d’apprentissage automatique et d’autres formes d’IA réussissent à faire des diagnostics médicaux avec un pourcentage d’exactitude qui dépasse, dans certains cas, celle d’un médecin moyen (au moins dans certaines disciplines ou avec certaines pathologies); elles peuvent prévoir qui pourra rembourser un emprunt de manière beaucoup plus précise qu’un directeur de banque; selon certains développeurs, elles peuvent comprendre mieux que nous s’il existe une affinité affective avec la personne qui se tient devant nous. Les IA acquièrent de plus en plus de capacité prédictive. Toutefois, face à une telle précision, elles ne possèdent pas la même capacité explicative: les algorithmes les plus efficaces sont ceux que nous comprenons le moins, devant lesquels nous sommes le moins en mesure de dire pourquoi la machine indique tel résultat.

Laisser la machine choisir ? jusqu’où?

À ce niveau, une grande question se pose. Au moment où la machine se substitue à l’homme pour prendre des décisions, quelle sorte de certitudes devrions-nous avoir pour laisser la machine choisir qui doit être soigné et comment? Sur quelle base devrions-nous permettre à une machine de désigner qui d’entre nous est digne de confiance et qui ne l’est pas? Et qu’en est-il de l’amour, cette quête unique qui a ému des générations de femmes et d’hommes avant nous?
Si, avec un ordinateur, nous pouvons transformer les problèmes humains en statistiques, graphiques et équations, nous créons l’illusion que ces problèmes peuvent être résolus avec les ordinateurs. Ce n’est pas le cas.

De fait, l’usage des ordinateurs et des technologies informatiques dans le développement technologique met en évidence un défi linguistique qui se situe à la frontière entre l’homme et la machine. Dans le processus d’interrogation réciproque entre l’homme et la machine, des projections et des échanges se produisent, jusqu’alors inconnus: la machine s’humanise tandis que l’homme se «machinise».

Que veut dire humaniser la technique et ne pas «machiniser» l’homme?

Lorsqu’il effectue des choix, l’être humain connaît une qualification profonde et radicale de ses actions: le bien et le mal. L’homme découvre avec sa propre liberté un sentiment de responsabilité que notre tradition occidentale a appelé éthique. L’éthique, caractéristique purement humaine, nous rend uniques et se fonde sur les valeurs. La machine aussi choisit sur des valeurs, mais ce sont les valeurs numériques des données. Si nous voulons que la machine soit un soutien pour l’homme et le bien commun, sans jamais se substituer à l’être humain, alors les algorithmes doivent inclure des valeurs éthiques et pas seulement numériques. En substance, nous avons besoin de pouvoir indiquer les valeurs éthiques à travers les valeurs numériques qui alimentent l’algorithme.

L’éthique doit contaminer l’informatique

Nous avons besoin d’une algor-éthique, à savoir un mode qui permette de calculer les évaluations du bien et du mal. Seulement ainsi nous pourrons créer des machines qui peuvent se faire des instruments d’humanisation du monde. Nous devons codifier des principes et des normes éthiques en un langage compréhensible et utilisable par les machines. Pour que la révolution des IA soit une révolution qui conduise à un authentique développement, il est temps de penser une algor-éthique.

© Traduction de Zenit, Hélène Ginabat

Lu 1280 fois