POINT DE VUE
«Dites pourquoi et comment l’IA est utilisée»
Les directives et la transparence sont la mesure de toute chose lorsque l’intelligence artificielle est utilisée dans la communication scientifique, estime l’experte en communication Daniela Mahl.
Les outils d’IA comme ChatGPT entrent toujours plus dans le quotidien des rédactions. Daniela Mahl, qui mène des recherches sur la façon dont ils sont utilisés dans la communication scientifique, donne à la rédaction d’Horizons un feed-back sur ses nouvelles directives. Car Horizons indique désormais dans son impressum que «les textes d’Horizons respectent les standards journalistiques. L’intelligence artificielle peut être utilisée pour certaines étapes (comme l'aide à la recherche, la transcription), mais les autrices et auteurs rédigent les textes eux-mêmes et se portent garants de leur contenu.»
Daniela Mahl, cela a-t-il du sens pour vous que nos directives IA insistent sur la responsabilité de l’auteure?
Oui, absolument. La crédibilité est, et reste, la condition la plus importante en journalisme. Pour cela, il faut une instance responsable.
Est-ce suffisant?
La rédaction fait prendre conscience qu’elle mise sur la transparence. Elle se positionne comme responsable et ouverte aux nouvelles technologies. Mais il est très important qu’elle dise aussi dans quel but et dans quelle mesure l’IA est utilisée au quotidien par la rédaction. Tel que vous l’écrivez, cela reste un peu vague, avec une large marge d’interprétation.
Devrions-nous montrer plus précisément à quelles étapes l’IA est employée?
Oui. Ce n’est évidemment pas possible pour tous les articles. Toutefois, à l’interne, vous avez déjà recours à une check-list pour les autrices, dans laquelle vous indiquez à quelles fins l’intelligence artificielle doit être utilisée ou pas. Vous pourriez également publier cette liste afin d’apporter encore davantage de transparence.
Ce conseil est noté. Quels autres principes importants faudrait-il respecter?
L’association allemande des journalistes exige de désigner des délégués chargés de comparer la pratique de l’usage de l’IA avec les règles en vigueur.
Existe-t-il aussi des exigences techniques pour l’IA dans le journalisme?
De nombreux outils sont opaques quant à l’origine de leurs données et au fonctionnement de leurs algorithmes. Mais il existe aussi des systèmes plus ouverts, dont le code est accessible. L’association allemande des journalistes propose de certifier les systèmes d’IA pour le journalisme, par exemple en matière d’équilibre, de protection des données et de sécurité. Cela pourrait se faire en collaboration avec la politique ou les ONG.
Faudrait-il une institution de contrôle des médias au lieu d’un label de qualité auto-attribué tel celui d’Horizons?
Je vois le label de qualité plus comme une tentative de transparence. Il est difficile de mettre en place des instances de contrôle supérieures qui vérifient en permanence comment et à quelle fin l’intelligence artificielle est utilisée par les différents médias. Le mieux que les rédactions puissent faire actuellement, c’est d’établir des directives et de les diffuser de manière transparente. Et de mettre en place une instance de contrôle interne.