Accueil
Sommaire
Édition courante
Autres éditions
Projet éditorial
Partenaires
Éditions et formats
Contacts
Première série
depuis 1996
Seconde série
depuis 2018
Comité éditorial
Comité de lecture
Dossiers thématiques
Appel permanent
Conditions
Proposer...
Un article de recherche
Un point de vue
Une réponse
Une recension
Un dossier
Normes et instructions
Commander
Reproduire
Traduire
Comment ne pas
citer les Cahiers

Parutions et AAC
Nouvelle série, n°7

2nd semestre 2021

RECHERCHES

TÉLÉCHARGER
LA SECTION

SOMMAIRE

TÉLÉCHARGER
CET ARTICLE






INTRODUCTION

Démystifier l’IA pour mieux la démythifier

Jean-Hugues Roy, Université du Québec à Montréal
Colette Brin, Université Laval
Julie A. Gramaccia, Université Laval

DOI:10.31188/CaJsm.2(7).2021.R003





L

’application de l’intelligence artificielle est encore embryonnaire, voire inexistante, dans la plupart des salles de rédaction de la Francophonie. Elle n’en suscite pas moins fantasmes et appréhensions, comme d’autres transformations technologiques de l’ère numérique (et d’avant) qui ont bousculé les façons de faire des journalistes. Ce numéro des Cahiers du journalisme présente cinq études originales du monde francophone qui offrent autant de perspectives sur cette nouvelle réalité.

Notre premier défi consiste à définir ce qu’on entend par « intelligence artificielle ». L’expression est faite sur mesure pour les chercheuses et chercheurs en sciences humaines et sociales. Polysémique, elle provoque autant un enthousiasme versant parfois dans le fétichisme chez ses promoteurs que des critiques virulentes pas toujours bien informées chez ses détracteurs (Audry, 2021, sect. Introduction). C’est ce qui la rend particulièrement difficile à définir (Broussard, Diakopoulos et al., 2019, p. 1).

Nous ne sommes pas seuls. Même les spécialistes de l’IA ne s’entendent pas sur une définition ! Un numéro spécial du Journal of Artificial General Intelligence a tenté le coup en 2020. « Si notre lectorat s’attendait à un consensus sur la définition de l’IA, nous avons bien peur de devoir le décevoir », concluent les éditeurs de ce numéro (Monett, Lewis et al., 2020, p. 2).

« AI is a poorly chosen term », concède notamment Roger Schank, professeur émérite à Northwestern et théoricien du domaine (2020, p. 89). L’expression est si mal choisie qu’il serait préférable, selon lui, de ne plus s’en servir (ibid., p. 90). Où est le problème ? Il se situe surtout dans l’anthropomorphisme de l’expression (Rapaport, 2020, p. 53). Parler d’« intelligence » renvoie intrinsèquement à l’intelligence humaine et au vieux rêve d’imiter homo sapiens que l’informatique est encore loin, très loin, d’avoir réalisé.

Au sortir de la Seconde Guerre mondiale, on comparait les ordinateurs à des « cerveaux électroniques ». L’image subsiste d’ailleurs dans certaines langues. Un des mots pour dire « ordinateur » en mandarin est formé de la combinaison des symboles pour l’électricité et le cerveau… Quand Alan Turing a décrit « The Imitation Game » (1950), quoi, ou plutôt qui, pensez-vous, cherchait-il à imiter ?

Reproduire le fonctionnement du cerveau a été au cœur de la conférence qui, dès 1955, a accouché du terme « intelligence artificielle ». Le postulat du groupe de mathématiciens et d’ingénieurs réunis l’année suivante au Dartmouth College, dans le New Hampshire, était le suivant : « Tous les aspects de l’apprentissage et d’autres caractéristiques de l’intelligence peuvent être, en principe, décrits avec suffisamment de précision pour qu’on puisse fabriquer une machine afin de les simuler » (McCarthy, Minsky et al., 1955, p. 1 ; notre traduction). Leur proposition de recherche était fascinante. En plus de l’apprentissage, ils ont réfléchi à des façons de simuler le langage, le calcul, le raisonnement, la créativité et d’« autres problèmes pour le moment réservés aux humains » (ibid.).

Soixante-cinq ans plus tard, cette quête se poursuit. Des milliers de chercheuses et de chercheurs travaillent dans ce que Rapaport appelle la « cognition computationnelle » (op. cit., p. 54). Mais peut-on dire qu’on a réussi à simuler la créativité humaine ? Le raisonnement humain ? Certains aspects de la perception humaine sont reproduits de façon étonnante (l’ouïe, la vision, entre autres). Mais peut-on dire réellement qu’on a affaire à de l’« intelligence » ? Informaticiennes et informaticiens en débattent encore. Et l’usage répété de cette appellation a fait naître la métaphore malheureuse du robot que Linden et Dierickx nous enjoignent de jeter aux orties : « S’il vous plaît, cessez de l’utiliser » (2019, p. 155).

Dans les faits, ce qu’on appelle l’IA est tout bonnement une branche de l’informatique « dont la majorité des projets cherche à résoudre des tâches isolées et limitées » (Mikolov, 2020, p. 50). Au sein de l’IA, on peut donc distinguer deux grands sous-domaines. L’un se préoccupe encore de biologie, de psychologie, voire de philosophie computationnelle (Shapiro, 1992 ; cité dans Rapaport, op. cit., p. 55) ; bref, d’imiter l’humain.

L’autre, et c’est celui qui nous paraît le plus pertinent, cherche plus « simplement » à repousser les limites de l’informatique et du génie logiciel (Shapiro, 2003, p. 89). Ce sous-domaine est essentiellement l’apprentissage automatique (machine learning). Il s’agit de concevoir des logiciels qui sont en mesure d’« apprendre » ou de s’améliorer avec ou sans intervention humaine. Cette capacité d’autoamélioration donne l’illusion de l’intelligence (Gramaccia et Watine, 2020, p. 94‑96).

L’« apprentissage » peut prendre trois formes (Audry, op. cit.). Il peut être supervisé quand on fournit au logiciel des exemples à partir desquels il peut « apprendre » à exécuter une tâche qui peut consister à reproduire ou reconnaître ces exemples, synthétisés en modèles. Il peut être non supervisé quand on demande au logiciel d’analyser de grands jeux de données ou de grands corpus de textes et d’y repérer des éléments qui se ressemblent, des structures, etc. Il peut être renforcé quand le logiciel reçoit une rétroaction positive après avoir produit un résultat jugé satisfaisant par un utilisateur humain (ou négative dans le cas contraire), faisant en sorte qu’il tentera de reproduire à nouveau ce résultat à l’avenir (ou pas, s’il y a rétroaction négative).

Les applications ou les systèmes qui sont le fruit de l’apprentissage automatique sont nombreux (Littman, Ajunwa et al., 2021, p. 7). Plusieurs sont d’intérêt pour le journalisme. La classification de grands jeux de données (incluant des textes) ou la génération de texte sont des exemples d’apprentissage automatique supervisé. La modélisation thématique (topic modeling), qui consiste à identifier des sujets dont il est question dans un corpus, est une forme d’apprentissage automatique non supervisé. Enfin, la reconnaissance de la voix, la traduction automatique ou l’analyse prédictive sont des exemples d’apprentissage automatique renforcé.

La nouveauté et le caractère déroutant de certaines de ces applications, celles qui simulent une conversation, par exemple, tiennent au fait qu’elles sont conçues pour fonctionner comme des agents communicants et non plus comme de simples médiateurs de la communication humaine (Lewis, 2019, p. 673). C’est ce qui explique que ce que nous allons quand même, par la force des choses, continuer d’appeler l’« intelligence artificielle » nous fait « sortir de notre zone de confort ».

D’où l’importance pour les journalistes de s’intéresser de près à l’IA, rappelle Lewis (ibid.), ne serait-ce que pour mieux en rendre compte. En démystifiant l’IA on la démythifie au passage. Voilà qui est capital selon Meredith Broussard (2019, p. 676), qui estime également que l’expression « intelligence artificielle » est boiteuse. Démythifier l’IA, c’est aussi ne jamais oublier que l’être humain, le public au service duquel œuvrent les journalistes, doit demeurer au centre des préoccupations, autant pour les pratiques professionnelles elles-mêmes que pour la recherche sur ces usages.

Voilà peut-être la trame centrale de ce numéro spécial qui compte six articles dont trois sont des études empiriques qui nous donnent, en quelque sorte, des « nouvelles du front », du contact entre l’IA et le journalisme dans le monde francophone.

C’est ainsi que Laurence Dierickx nous emmène dans deux rédactions de Belgique francophone et nous raconte comment s’est déroulée l’implantation de systèmes d’automatisation. Résultat d’une approche ethnographique qui s’est étalée sur deux ans, son article est riche en réflexion. Elle nous explique en somme pourquoi, pour des raisons différentes, les deux expériences se sont soldées par un non-usage des systèmes par les journalistes. « Si les productions automatisées ne rencontrent pas l’intérêt ou les attentes des journalistes, indistinctement du contexte socioculturel ou organisationnel dans lequel se déploie l’innovation, le projet semble bel et bien voué à l’échec », écrit-elle. L’adéquation aux usages est une dimension importante, qui n’explique pas tout, qui ne garantit pas le succès, mais qu’il faut considérer. Son article vient enrichir la recherche sur l’interaction entre humains et machines avec une excellente illustration dans le champ journalistique.

La contribution de Muriel Béasse interroge les transformations induites par l’IA dans les relations entretenues entre un site d’information et ses lecteurs. Par le prisme des mesures d’audience, elle explore les conditions de production de l’information et plus précisément les façons dont les producteurs perçoivent et construisent désormais les représentations de leurs usagers. En menant des entretiens avec des producteurs d’information et des responsables éditoriaux français, l’auteure invite à repenser la place octroyée à l’intelligence du lecteur dans un environnement informationnel toujours plus compétitif.

À l’image du champ que ce numéro examine, qui combine journalisme et informatique, nous avions souhaité, dans notre appel à contributions, des articles qui procèdent de la même hybridation, mais dans les méthodologies. Antonin Descampe et François-Xavier Standaert ont répondu à nos vœux avec un article fascinant qui applique, justement, une méthodologie classique en cryptographie et en sécurité informatique, mais encore relativement inusitée en communication. À ce titre, les chercheurs de l’UCL proposent un devis de recherche informatique en communication finement détaillé qui pourrait inspirer de futurs travaux. En démontrant combien il peut être facile de tromper certains algorithmes (de classification, notamment), les deux auteurs plaident notamment pour que les journalistes « étend[ent] leur rôle traditionnel de garant de l’information à celui de garant des décisions algorithmiques ».

Rémy Demichelis entreprend de circonscrire en finesse les questionnements engendrés par la hiérarchisation de l’information par les plateformes internet. En s’appuyant sur les travaux philosophiques de Walzer sur les sphères de justice, l’auteur avance que « les biens propres à la sphère des plateformes internet prédominent aujourd’hui dans la sphère de la presse au point que cette première exerce sur cette seconde une tyrannie ». Ainsi, afin de garantir l’autonomie de la sphère de la presse, l’auteur suggère de rattacher directement les algorithmes de recommandation des entreprises de presse aux plateformes. Souvent évoqués dans la littérature scientifique et rarement problématisés, ces enjeux trouvent dans cette étude une assise théorique vigoureuse et novatrice.

En s’inscrivant dans une posture philosophique riche et originale, Roland-Yves Carignan et André Mondoux invitent les lecteurs à appréhender avec précaution les innovations technologiques apportées par l’IA dans le journalisme. Celui-ci, arguent les auteurs, doit conserver son rôle historique de chien de garde démocratique et développer « une compréhension critique de l’intelligence artificielle et de la forme de gouvernementalité qui lui est associée ». Il s’agit, en ce sens, de replacer la pensée critique au centre du dialogue avec les citoyens. En effet, si l’IA ouvre un monde de possibilités technologiques qui modifient les rapports sociaux, le journalisme – aussi pour se sortir de la crise qu’il traverse – doit se rappeler à l’idéal social qu’il défend.

De quelle façon le journalisme s’est-il approprié les innovations technologiques apportées par l’IA ? Nicolas St-Germain et Patrick White, en capturant l’état des lieux de l’intégration des outils algorithmiques dans plusieurs groupes de presse d’Europe et d’Amérique du Nord, nous offrent un instantané historique de la pénétration de ces technologies dans la pratique journalistique actuelle. Accompagné d’une étude originale auprès de rédactions canadiennes, le texte dresse un portrait global des initiatives liées à l’IA mises en place dans les médias à l’échelle mondiale. L’intelligence artificielle, avancent-ils, ne vient pas remplacer les journalistes mais doit être, au contraire, considérée comme une assistance quotidienne dans leurs pratiques. Celle-ci est l’objet d’une implémentation nécessaire qui ne se fera pas cependant « du jour au lendemain et sans heurts ». 

Jean-Hugues Roy est professeur à l’Université du Québec à Montréal et membre du réseau HumanIA,
Colette Brin est professeure à l’Université Laval et membre de l’Observatoire international
sur les impacts sociétaux de l’IA et du numérique,
Julie A. Gramaccia est chargée de recherche et d’enseignement à l’Université Laval
et membre du laboratoire MICA de l'Université Bordeaux Montaigne1.




Notes

1

Les responsables de ce dossier tiennent à remercier chaleureusement toutes celles et tous ceux qui ont contribué à ce numéro, les auteurs et autrices, bien sûr, mais aussi les personnes qui ont évalué, de façon anonyme, les articles soumis. C’est sur la rigueur et la qualité de leur travail que repose le nôtre.






Références

Audry, Sofian (2021). Art in the age of machine learning. MIT Press.

Broussard, Meredith (2019). Rethinking Artificial intelligence in journalism. Journalism & Mass Communication Quarterly, 96(3), 675‑678.

Broussard, Meredith, Diakopoulos, Nicholas, et al. (2019). Artificial intelligence and journalism. Journalism & Mass Communication Quarterly, 96(3), 673‑695.

Gramaccia, Julie A. et Watine, Thierry (2020). Les entreprises de presse et les journalistes face aux défis de l’intelligence artificielle : les premiers résultats du projet med-IA. Dans Henri Assogba (dir.), Journalismes spécialisés à l’ère numérique, 89-127. Presses de l’Université Laval.

Lewis, Seth C. (2019). Artificial intelligence and journalism. Journalism & Mass Communication Quarterly, 96(3), 673‑675.

Linden, Carl-Gustav et Dierickx, Laurence (2019). Robot journalism: The damage done by a metaphor. Unmediated: Journal of Politics and Communication, 2, 152‑155.

Littman, Michael L., Ajunwa, Ifeoma, Berger, Guy, Boutilier, et al. (2021). Gathering strength, gathering storms: The one hundred year study on artificial intelligence (AI100) 2021 – Study panel report. Stanford : Stanford University.

McCarthy, John, Minsky, Marvin L., Rochester, Nathaniel et Shannon, Claude E. (1955). A Proposal for the Darthmouth summer research project on artificial intelligence.

Mikolov, Tomáš (2020). Why is defining artificial intelligence important? Journal of Artificial General Intelligence, 11(2), 50‑51.

Monett, Dagmar, Lewis, Colin W. P., Thórisson, Kristinn R., Bach, Joscha, Baldassarre, Gianluca, Granato, Giovanni, et al. (2020). Special Issue "On defining artificial intelligence" – Commentaries and author’s response. Journal of Artificial General Intelligence, 11(2), 1‑100.

Rapaport, William J. (2020). What is artificial intelligence? Introduction to the JAGI special issue "On defining artificial intelligence" – Commentaries and Author’s Response, 11(2), 52‑56.

Schank, Roger (2020). What is AI? Journal of Artificial General Intelligence, 11(2), 89‑90.

Shapiro, Stuart C. (2003). Artificial intelligence (AI). Dans Encyclopedia of Computer Science, 89‑93. John Wiley and Sons Ltd.

Shapiro, Stuart C. (1992). Artificial intelligence. Dans Stuart Charles Shapiro et David Eckroth (dirs), Encyclopedia of artificial intelligence. John Wiley and Sons Ltd.

Turing, Alan M. (1950). Computing machinery and intelligence. Mind, 59(236), 433‑460.




Référence de publication (ISO 690) : ROY, Jean-Hugues, BRIN, Colette, et GRAMACCIA, Julie. Introduction : démystifier l'IA pour mieux la démythifier. Les Cahiers du journalisme - Recherches, 2021, vol. 2, n°7, p. R3-R7.
DOI:10.31188/CaJsm.2(7).2021.R003


Proposer un commentaire