Les scientifiques n'utilisent pas seulement de grands modèles linguistiques comme chat GPT, mais assument aussi la responsabilité de toutes les données et évaluations produites avec l'IA. | Photo: Keystone/Christian Beutler

L’IA est à double tranchant: d’une part, elle facilite la falsification dans les publications, de l’autre, elle est un outil utile. C’est pourquoi, en mai 2024, un groupe international d’experts a publié cinq principes éthiques pour son emploi dans la recherche. Premièrement, les contributions humaines et celles des machines doivent être transparentes. Deuxièmement, la responsabilité de l’exactitude et des conclusions incombe entièrement aux scientifiques. Troisièmement, les données et modèles générés par l’IA sont à annoter de sorte qu’on ne puisse les confondre avec de réelles observations. Quatrièmement, les scientifiques doivent réduire au minimum de potentiels dommages par l’IA, les mots clés étant protection des données et discrimination. De plus, il faut surveiller les développements et adapter sans cesse les lignes directrices.