Débat
Faut-il équiper les robots d’une morale?
Je sursaute à chaque fois que j’entends dire que l’éthique doit être intégrée dans des outils technologiques. Car l’éthique est heureusement déjà intégrée. Lors du développement, les équipes travaillent avec de multiples évaluations, pèsent les intérêts et ont des stratégies – ce sont tous de petits carrefours normatifs où sont prises des décisions éthiques basées sur des objectifs et des valeurs.
Le défi ne consiste donc pas à apporter l’éthique de l’extérieur, mais à expliciter l’impressionnante quantité de choix éthiques déjà effectués. Parmi ces choix, le comportement souhaité du robot est un point central. En effet, la capacité de respecter certaines règles est un prérequis pour son utilisation dans les domaines où le robot est au contact des humains.
Pour réaliser cet effort d’explicitation, le défi est triple. Quelle grande approche de l’éthique choisir, par exemple entre une éthique des conséquences et une éthique des devoirs? Sur cette base, comment définir les règles et les méthodes de prises de décision qui font consensus? Et, finalement, comment assurer que le robot est techniquement à même de respecter ces règles?
A l’exemple des robots susceptibles d’être utilisés en zone de conflit, le respect des principes du droit de la guerre représente un minimum absolu. Mais un consensus sur le papier ne garantit pas la faisabilité technique. Comment garantir que le robot identifie les conséquences pertinentes, les évalue puis agisse en conséquence?
Ces questions constituent des défis éthiques, des choix de valeurs par exemple, avec une composante technique: on veut sans cesse améliorer ce qui est techniquement possible. Il ne faut pas les aborder avec les catégories de «vrai» ou de «faux», mais plutôt avec l’ambition de rendre explicable et prévisible le comportement du robot, le tout basé sur des choix normatifs documentés et justifiables. Ces questions appellent une collaboration renforcée entre spécialistes d’éthique et de robotique.
Johan Rochel est chercheur postdoc à l’EPFL, auteur du livre «Les Robots parmi nous. Pour une éthique des machines» et codirecteur du laboratoire d’éthique de l’innovation Ethix.
«Un robot ne peut blesser un être humain ni, par son inaction, permettre qu’un humain soit blessé»: dans ses récits, l’auteur de science-fiction Isaac Asimov a testé si de telles lois suffiraient à dicter leur conduite aux robots. Il en est toujours arrivé à la conclusion que la morale est trop complexe pour être résumée par des règles.
Mais les algorithmes et, avec eux, les robots ne peuvent-ils pas apprendre la morale à partir de grandes quantités de données? En effet, contrairement aux êtres humains, certains ont par exemple appris qu’on peut attendre sans rien faire. Mais comme tous les systèmes qui apprennent à partir de grandes bases de données, ils ne comprennent pas vraiment de quoi il s’agit. Nos mots et nos phrases n’ont de sens que s’ils sont étayés par une bonne dose de bon sens.
C’est un peu comme le légendaire roi Midas, qui souhaitait que tout ce qu’il touche se transforme en or. Bien sûr, il n’avait pas souhaité que sa nourriture subisse le même sort. Prendre les humains au mot était probablement une taquinerie pour les dieux, mais c’est un problème fondamental pour les algorithmes: ils ne résolvent pas forcément les tâches qui leur sont confiées comme nous l’aurions souhaité. Seule une stricte surveillance humaine et un entraînement intensif les maintiennent sur la bonne voie, ce qui n’est toutefois qu’un faible substitut au sens moral.
La morale que les algorithmes sont en mesure d’apprendre ressemblera aux résultats des grands modèles linguistiques: ils sont agréables à lire ou à entendre, mais pèchent souvent par leur banalité et sont parfois complètement idiots. De tels robots nous tromperont encore plus fortement sur ce à quoi nous avons réellement affaire: des outils techniques qui ne saisissent pas le monde comme nous. La morale artificielle risque surtout d’accroître encore la confusion générale dans le monde et, dans le pire des cas, de nous inciter à utiliser ces systèmes dans des domaines qui les dépassent, au point de finir un jour ou l’autre par provoquer un désastre.
Manuela Lenzen est journaliste scientifique en Allemagne, auteure d’un livre sur l’intelligence artificielle («Künstliche Intelligenz. Fakten, Chancen, Risiken») et collaboratrice scientifique au Centre de recherche interdisciplinaire de l’Université de Bielefeld.
Je sursaute à chaque fois que j’entends dire que l’éthique doit être intégrée dans des outils technologiques. Car l’éthique est heureusement déjà intégrée. Lors du développement, les équipes travaillent avec de multiples évaluations, pèsent les intérêts et ont des stratégies – ce sont tous de petits carrefours normatifs où sont prises des décisions éthiques basées sur des objectifs et des valeurs.
Le défi ne consiste donc pas à apporter l’éthique de l’extérieur, mais à expliciter l’impressionnante quantité de choix éthiques déjà effectués. Parmi ces choix, le comportement souhaité du robot est un point central. En effet, la capacité de respecter certaines règles est un prérequis pour son utilisation dans les domaines où le robot est au contact des humains.
Pour réaliser cet effort d’explicitation, le défi est triple. Quelle grande approche de l’éthique choisir, par exemple entre une éthique des conséquences et une éthique des devoirs? Sur cette base, comment définir les règles et les méthodes de prises de décision qui font consensus? Et, finalement, comment assurer que le robot est techniquement à même de respecter ces règles?
A l’exemple des robots susceptibles d’être utilisés en zone de conflit, le respect des principes du droit de la guerre représente un minimum absolu. Mais un consensus sur le papier ne garantit pas la faisabilité technique. Comment garantir que le robot identifie les conséquences pertinentes, les évalue puis agisse en conséquence?
Ces questions constituent des défis éthiques, des choix de valeurs par exemple, avec une composante technique: on veut sans cesse améliorer ce qui est techniquement possible. Il ne faut pas les aborder avec les catégories de «vrai» ou de «faux», mais plutôt avec l’ambition de rendre explicable et prévisible le comportement du robot, le tout basé sur des choix normatifs documentés et justifiables. Ces questions appellent une collaboration renforcée entre spécialistes d’éthique et de robotique.
Johan Rochel est chercheur postdoc à l’EPFL, auteur du livre «Les Robots parmi nous. Pour une éthique des machines» et codirecteur du laboratoire d’éthique de l’innovation Ethix.
«Un robot ne peut blesser un être humain ni, par son inaction, permettre qu’un humain soit blessé»: dans ses récits, l’auteur de science-fiction Isaac Asimov a testé si de telles lois suffiraient à dicter leur conduite aux robots. Il en est toujours arrivé à la conclusion que la morale est trop complexe pour être résumée par des règles.
Mais les algorithmes et, avec eux, les robots ne peuvent-ils pas apprendre la morale à partir de grandes quantités de données? En effet, contrairement aux êtres humains, certains ont par exemple appris qu’on peut attendre sans rien faire. Mais comme tous les systèmes qui apprennent à partir de grandes bases de données, ils ne comprennent pas vraiment de quoi il s’agit. Nos mots et nos phrases n’ont de sens que s’ils sont étayés par une bonne dose de bon sens.
C’est un peu comme le légendaire roi Midas, qui souhaitait que tout ce qu’il touche se transforme en or. Bien sûr, il n’avait pas souhaité que sa nourriture subisse le même sort. Prendre les humains au mot était probablement une taquinerie pour les dieux, mais c’est un problème fondamental pour les algorithmes: ils ne résolvent pas forcément les tâches qui leur sont confiées comme nous l’aurions souhaité. Seule une stricte surveillance humaine et un entraînement intensif les maintiennent sur la bonne voie, ce qui n’est toutefois qu’un faible substitut au sens moral.
La morale que les algorithmes sont en mesure d’apprendre ressemblera aux résultats des grands modèles linguistiques: ils sont agréables à lire ou à entendre, mais pèchent souvent par leur banalité et sont parfois complètement idiots. De tels robots nous tromperont encore plus fortement sur ce à quoi nous avons réellement affaire: des outils techniques qui ne saisissent pas le monde comme nous. La morale artificielle risque surtout d’accroître encore la confusion générale dans le monde et, dans le pire des cas, de nous inciter à utiliser ces systèmes dans des domaines qui les dépassent, au point de finir un jour ou l’autre par provoquer un désastre.
Manuela Lenzen est journaliste scientifique en Allemagne, auteure d’un livre sur l’intelligence artificielle («Künstliche Intelligenz. Fakten, Chancen, Risiken») et collaboratrice scientifique au Centre de recherche interdisciplinaire de l’Université de Bielefeld.