Selon la mise à jour la plus récente sur le sujet, l’intelligence artificielle générative nous rend plus idiots. Sans doute que les premiers utilisateurs de l’écriture, 3300 avant l’ère moderne, ont aussi été les premiers à tricher à leurs présentations orales… en osant prendre des notes.

L’IA générative a bien des défauts. On qualifie la plupart d’« hallucinations ». Il s’agit des erreurs dans sa production de texte ou d’images. Elle est aussi le signe imminent de ce qu’un chercheur appelle le « délestage cognitif ». Ça sonne un peu comme un vieux refrain : l’IA va finir par devenir une béquille, pire, une prothèse intellectuelle qui rendra l’humain incapable de faire ses recherches lui-même et donc, de développer son bon jugement.

C’est ce qu’a écrit un chercheur de l’Université de Monterrey, au Mexique, dans une étude parue à la mi-janvier : « L’utilisation généralisée des IA conversationnelles peut nuire à l’efficacité des fonctions cognitives supérieures, comme la résolution de problèmes. »

Si on a appris quelque chose ces trois dernières années, c’est à quel point « faire ses recherches » sur Internet et « développer un bon jugement » sont deux activités complètement différentes. Ça va bien aller, qu’on disait…

On a entendu une chanson similaire quand le téléphone intelligent est devenu un accessoire grand public entre 2006 et 2009. Les gens vont perdre la mémoire ! Le même air a été joué quelque part au tournant du millénaire quand Internet et le passage à l’an 2000 menaçaient de faire s’écrouler la civilisation entière.

On était bien mieux quand tout était trié dans des chemises en carton et des classeurs en accordéon.

L’émergence de la vidéo en ligne et la crainte que les plus jeunes générations ne lisent plus autant de livres que leurs parents provoquent la même crainte. Comment la connaissance se passera-t-elle d’une génération à l’autre si on n’a pas de livres pour la contenir ?

On brûlait pourtant des livres bien avant la naissance d’Internet et de la vidéo mobile filmée à la verticale (une autre calomnie !).

Sans aucun doute à l’image de leurs créateurs, les IA génératives ne sont pas parfaites. Demandez une info d’actualité relativement récente à ChatGPT et elle vous dira ce qu’elle en sait « selon sa plus récente mise à jour ». OpenAI, qui a créé ChatGPT, ajoute périodiquement à sa banque de connaissances des données plus récentes, mais elles ne sont jamais de dernière minute.

En anglais, l’expression est « As of my last knowledge update ». Par curiosité, se demandant si l’IA générative était utilisée dans la littérature scientifique, des journalistes du site indépendant 404 Media ont fouillé à l’aide du moteur de recherche Google Scholar les rapports accessibles publiquement et soumis par des chercheurs à leurs pairs via des publications spécialisées.

Ils ont trouvé 115 rapports de recherche contenant cette phrase. Faites l’exercice vous-mêmes et vous en trouverez peut-être plus (on en a recensé 177 depuis 2020).

« Selon ma plus récente mise à jour en septembre 2021, il n’y a pas de corrélation scientifiquement généralement acceptée entre l’intrication quantique et les ondes scalaires longitudinales », peut-on lire dans le premier résultat trouvé, un papier publié dans une revue spécialisée et intitulé Intrication quantique. Examen de sa nature et ses implications.

Pour les chercheurs, voir leurs études publiées dans une revue scientifique est une forme de validation. C’est un moyen efficace d’asseoir sa réputation en tant qu’expert dans un champ d’étude scientifique.

Produire des études rapidement grâce à une IA générative qui fait le travail de recherche à leur place permet d’accélérer cet accès à la renommée scientifique, semblent penser plus d’un universitaire un peu paresseux. C’est que toute cette recherche scientifique n’est apparemment pas systématiquement lue avant d’être publiée. Bien des éditeurs diffusent n’importe quoi qui ressemble à une étude scientifique, à condition d’être payés pour le faire.

La revue Nature rapportait en décembre que plus de 10 000 fausses études ont dû être dépubliées en 2023 seulement par les éditeurs scientifiques après leur signalement par des groupes dont la seule tâche est de détecter de tels cas de fraude (au minimum) intellectuelle.

C’est un nombre record. Ces mêmes groupes ont relevé 4000 fausses recherches en 2022, ajoute Nature, et la moyenne était plus près des 1000 faux travaux annuellement depuis 2013.

On n’ose pas demander à ChatGPT si le lien entre l’émergence de l’IA générative et cette hausse soudaine de fausses recherches scientifiques est un lien de causalité, ou plus simplement de corrélation. En tout cas, le hasard ne semble pas faire partie de l’équation…

Une chose est sûre, si la mise en ligne des applications d’intelligence artificielle d’OpenAI, Google et Meta provoque ce qu’un chercheur universitaire moins paresseux que d’autres appelle du délestage cognitif, on ne peut pas dire qu’elle l’a inventé.

Peut-être qu’elle ne fait qu’amplifier certains comportements humains. L’IA n’a pas inventé non plus les faux rapports de recherche, ni les photos et vidéos truquées. Il faut bien quelqu’un pour entrer les commandes sur son clavier d’ordinateur.

Le fautif est-il plutôt ce damné clavier ?

Ce texte fait partie de notre section Opinion, qui favorise une pluralité des voix et des idées. Il s’agit d’une chronique et, à ce titre, elle reflète les valeurs et la position de son auteur et pas nécessairement celles du Devoir.

QOSHE - Délestage cognitif - Alain Mckenna
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

Délestage cognitif

7 0
25.03.2024

Selon la mise à jour la plus récente sur le sujet, l’intelligence artificielle générative nous rend plus idiots. Sans doute que les premiers utilisateurs de l’écriture, 3300 avant l’ère moderne, ont aussi été les premiers à tricher à leurs présentations orales… en osant prendre des notes.

L’IA générative a bien des défauts. On qualifie la plupart d’« hallucinations ». Il s’agit des erreurs dans sa production de texte ou d’images. Elle est aussi le signe imminent de ce qu’un chercheur appelle le « délestage cognitif ». Ça sonne un peu comme un vieux refrain : l’IA va finir par devenir une béquille, pire, une prothèse intellectuelle qui rendra l’humain incapable de faire ses recherches lui-même et donc, de développer son bon jugement.

C’est ce qu’a écrit un chercheur de l’Université de Monterrey, au Mexique, dans une étude parue à la mi-janvier : « L’utilisation généralisée des IA conversationnelles peut nuire à l’efficacité des fonctions cognitives supérieures, comme la résolution de problèmes. »

Si on a appris quelque chose ces trois dernières années, c’est à quel point « faire ses recherches » sur Internet et « développer un bon jugement » sont deux activités complètement différentes. Ça va bien aller, qu’on disait…

On a entendu une chanson similaire quand le téléphone intelligent est devenu un accessoire grand public entre 2006 et........

© Le Devoir


Get it on Google Play