Dossier: L'IA, partenaire de recherche
«Nous ne devrions pas opposer l’être humain à l’IA»
Trouver comment fonctionnent certains algorithmes auto-apprenants est une tâche fastidieuse, estime Claus Beisbart. Néanmoins, pour le philosophe des sciences, l’intelligence artificielle est aussi un outil en philosophie des sciences.
Avez-vous déjà tenté de mener une discussion d’ordre philosophique avec un chatbot?
Oui, nous avons parlé de la manière dont l’être humain peut préserver son autonomie, son indépendance, alors que l’intelligence artificielle devient toujours plus performante. ChatGPT a certes utilisé des concepts pertinents tels que la dignité humaine, la transparence ou l’équité. Mais nous sommes encore loin d’un dialogue philosophique profond. ChatGPT ne s’est par exemple guère positionnée. Mais, oui, nous utilisons déjà l’IA.
Vraiment? Comment l’IA vous sert-elle?
Nous simulons par exemple si une méthode philosophique peut mener à un consensus sur des thèmes de controverse tels que la consommation de viande. Cela dépend évidemment fortement de la structure du débat. En tout cas, travailler avec l’ordinateur ne nous fait pas peur.
Un réseau neuronal peut-il comprendre quelque chose? ChatGPT par exemple?
Cela pourrait bien arriver un jour. Mais derrière ChatGPT, il n’y a finalement qu’un modèle de langage basé sur les suites de mots les plus probables. Le bot régurgite donc simplement ce qui a été dit le plus souvent sur Internet. Cela pourrait certes suffire à réussir le test de Turing, au cours duquel un être humain doit décider s’il parle à un autre humain ou à un ordinateur. Mais un comportement langagier en apparence acceptable n’est pas nécessairement synonyme de compréhension. Il existe à ce sujet une expérience de pensée imaginée par John Searle. Une personne qui ne comprend pas le chinois, assise dans une pièce fermée, reçoit des textes et des questions en chinois. Elle dispose d’un manuel de règles de gestion des caractères. Elle peut donc formuler des réponses sans comprendre la langue.
Mais que signifie concrètement «comprendre» chez un être humain?
Ici, beaucoup pensent d’abord à l’effet eurêka: il se passe un déclic et on pense avoir compris. Mais ce sentiment personnel peut tromper. C’est pourquoi, en philosophie, nous ne nous basons pas sur ce sentiment, mais cherchons à déterminer la compréhension en fonction des capacités. Dans le cas du langage, cela signifie que je peux expliquer le sens d’une phrase, que je sais recombiner des expressions. Pour la compréhension d’évènements tels que la Révolution française, il faut savoir relier les informations, identifier des liens et tirer des conclusions de manière autonome.
Comment évaluez-vous les capacités de ChatGPT?
ChatGPT réalise une sorte de moyenne de ce qui se trouve sur Internet et ne pondère pas les énoncés en fonction de la crédibilité des sources. Cette capacité pourrait certainement encore être ajoutée. Mais à la différence des êtres humains, les ordinateurs ont besoin d’une quantité incroyable de données. Si je montre une seule fois à un enfant une poussette pour poupée, il saura ensuite la reconnaître.
Mais pouvons-nous nous fier à l’output d’une IA?
Quand je classe des galaxies avec des réseaux neuronaux, je constate que cela a fonctionné dans le passé et je me fie à leur performance antérieure. Pour un réseau neuronal, c’est la seule raison. Pour la bonne vieille simulation climatique, j’en sais plus: nous comprenons aujourd’hui si précisément les processus fondamentaux dans l’atmosphère que nous pouvons calculer des scénarios qui ne se sont pas produits au cours des 10 000 dernières années.
En 2009, les automates de laboratoire Adam et Eve ont fait fureur en formulant eux-mêmes des hypothèses et en menant des expériences sur des cellules de levure. On n’en entend plus guère parler. Les scientifiques ne seront donc pas remplacés de sitôt?
Adam et Eve ont réussi à démontrer ce qui était possible. Mais les hypothèses formulées par Adam suivent toutes le même schéma simple. On a vu bien plus complexe: l’an dernier, une IA a été alimentée avec des données de la NASA sur les mouvements des planètes afin qu’elle en déduise une loi sur la gravité comme l’a fait Newton il y a 350 ans. Cela a bien fonctionné. Toutefois, un certain cadre était prédéfini. Newton a encore dû inventer simultanément le calcul différentiel. Mais la tendance va certainement dans cette direction. Néanmoins, dans l’avenir proche, il y aura certainement assez de travail de recherche pour les êtres humains. L’IA induit aussi beaucoup de travail parce que nous ne la comprenons pas.
Les scientifiques ne doivent-ils pas craindre de se retrouver sans emploi?
L’IA est certainement capable de nous surprendre. Mais peut-être ne faut-il pas mettre en rivalité l’être humain et l’IA. Car la question se pose déjà: quel est le sujet de la recherche? L’être humain? Certains estiment que ce n’est plus le cas depuis longtemps, que ce sont des groupes de personnes qui comprennent quelque chose. Peut-être qu’un sujet de connaissance complexe est en train d’émerger: l’être humain et son ordinateur.
En 2009, les automates de laboratoire Adam et Eve ont fait fureur en formulant eux-mêmes des hypothèses et en menant des expériences sur des cellules de levure. On n’en entend plus guère parler. Les scientifiques ne seront donc pas remplacés de sitôt?
Adam et Eve ont réussi à démontrer ce qui était possible. Mais les hypothèses formulées par Adam suivent toutes le même schéma simple. On a vu bien plus complexe: l’an dernier, une IA a été alimentée avec des données de la NASA sur les mouvements des planètes afin qu’elle en déduise une loi sur la gravité comme l’a fait Newton il y a 350 ans. Cela a bien fonctionné. Toutefois, un certain cadre était prédéfini. Newton a encore dû inventer simultanément le calcul différentiel. Mais la tendance va certainement dans cette direction. Néanmoins, dans l’avenir proche, il y aura certainement assez de travail de recherche pour les êtres humains. L’IA induit aussi beaucoup de travail parce que nous ne la comprenons pas.
Les scientifiques ne doivent-ils pas craindre de se retrouver sans emploi?
L’IA est certainement capable de nous surprendre. Mais peut-être ne faut-il pas mettre en rivalité l’être humain et l’IA. Car la question se pose déjà: quel est le sujet de la recherche? L’être humain? Certains estiment que ce n’est plus le cas depuis longtemps, que ce sont des groupes de personnes qui comprennent quelque chose. Peut-être qu’un sujet de connaissance complexe est en train d’émerger: l’être humain et son ordinateur.