Alors que le Conseil de l’innovation du Québec tiendra jeudi à Montréal le Forum public sur l’encadrement de l’intelligence artificielle (IA), un appel émanant de sommités de l’IA vient rappeler l’urgence d’agir. Dans un manifeste publié en vue du sommet international sur la sécurité de l’IA qui se tient cette semaine près de Londres, Yoshua Bengio, Geoffrey Hinton, Andrew Yao, Daniel Kahneman, Dawn Song, Yuval Noah Harari et plusieurs autres experts mettent la population en garde contre l’attitude de laisser-faire à l’égard du développement et de l’utilisation de ces technologies. L’informaticien britannique Stuart Russell déplore qu’« il y [ait] plus de réglementations sur les sandwicheries que sur les entreprises d’IA ».

Ces chercheurs estiment que les modèles d’IA les plus récents sont trop puissants et trop importants pour qu’on les laisse se développer sans contrôle démocratique. Les investissements dans la sécurité doivent être rapides, car l’IA progresse beaucoup plus vite que les précautions prises.

Les experts exhortent les gouvernements à consacrer un tiers de leur financement de recherche et développement (RD) en IA et les entreprises un tiers de leurs ressources de RD en IA à une utilisation sûre et éthique des systèmes. Ils réclament que des lois imposent que des auditeurs indépendants puissent accéder aux laboratoires d’IA. Les entreprises d’IA doivent avoir l’obligation d’adopter des mesures de sécurité rigoureuses si des capacités dangereuses sont détectées dans leurs modèles. Les chercheurs préconisent aussi que les entreprises technologiques soient tenues pour responsables des dommages prévisibles et évitables causés par leurs systèmes d’IA.

D’autres recommandations concernent le signalement obligatoire des incidents lorsque les modèles d’IA montrent un comportement alarmant. On réclame aussi des mesures pour empêcher les modèles d’IA dangereux de se reproduire. Enfin, les organismes de réglementation devraient avoir le pouvoir de suspendre le développement de modèles d’IA présentant des risques de comportements dangereux.

En fin de compte, ce qui est revendiqué, c’est que les autorités étatiques se dotent des moyens afin de comprendre et d’anticiper les enjeux sociétaux du déploiement de l’IA. En d’autres termes, passer de la béate incantation du dogme de « l’interdit de brider l’innovation » à une approche qui reconnaît que la véritable innovation est celle qui se déploie dans le respect des droits et libertés des individus et des collectivités.

À l’instar de plusieurs autres technologies à fort potentiel intrusif et perturbateur, l’IA doit être l’objet de balises conçues non pas de façon tatillonne ou pour satisfaire les lobbies, mais basées sur des expertises de pointe afin de prévoir les problèmes de façon proactive et intervenir par des mesures et des réglementations adaptées en conséquence.

Le défi est de taille, car les décideurs politiques ont souvent peu d’accès aux expertises indépendantes permettant d’appréhender les enjeux de technologies aussi puissantes. Plusieurs États ont négligé de maintenir leurs expertises capables de comprendre le fonctionnement et les enjeux des dispositifs du monde connecté.

Le retard des autorités publiques à se concerter sur la mise en place de lois imposant des conditions aux entreprises technologiques a déjà causé beaucoup de dégâts. Il n’y a qu’à voir l’affligeante opération de désobéissance civile que mène présentement Meta contre les lois canadiennes ou encore les dérives de ses réseaux sociaux qui font l’objet d’une action judiciaire intentée la semaine dernière par 41 États américains.

Faute d’avoir imposé aux entreprises numériques les mêmes exigences que celles qui s’appliquent aux autres, les États se retrouvent à la merci des sautes d’humeur des géants du Web. Ces temps-ci, c’est Meta qui censure les médias canadiens. On n’ose imaginer ce qui se passera lorsque d’autres multinationales, par exemple celles qui ont le quasi-monopole des solutions infonuagiques, se mettront à faire chanter les gouvernements qui leur ont sous-traité l’entreposage des données de leurs citoyens.

En somme, les États doivent se doter de capacités indépendantes afin de suivre les tendances des technologies, les questions que cela soulève et les risques auxquels les technologies de l’IA et les autres technologies de l’information exposent les populations. Avec des technologies aussi puissantes que l’IA, on ne peut se permettre d’attendre que les dégâts soient avérés pour commencer à envisager des mesures destinées à remédier aux dérives.

Les difficultés qu’on éprouve actuellement à appliquer aux géants du Web des mesures comme celles prévues dans les lois C-11 et C-18 sur les médias témoignent des conséquences désastreuses des politiques de laisser-faire pratiquées au cours des trente dernières années. Mais cela n’est rien en comparaison avec celles qu’il faut anticiper si les États continuent de s’en remettre servilement aux seules entreprises commerciales pour assurer le développement de technologies aussi puissantes que l’IA.

Professeur, Pierre Trudel enseigne le droit des médias et des technologies de l’information à l’Université de Montréal.

Ce texte fait partie de notre section Opinion, qui favorise une pluralité des voix et des idées. Il s’agit d’une chronique et, à ce titre, elle reflète les valeurs et la position de son auteur et pas nécessairement celles du Devoir.

QOSHE - Sandwicheries, IA et réseaux sociaux - Pierre Trudel
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

Sandwicheries, IA et réseaux sociaux

3 0
31.10.2023

Alors que le Conseil de l’innovation du Québec tiendra jeudi à Montréal le Forum public sur l’encadrement de l’intelligence artificielle (IA), un appel émanant de sommités de l’IA vient rappeler l’urgence d’agir. Dans un manifeste publié en vue du sommet international sur la sécurité de l’IA qui se tient cette semaine près de Londres, Yoshua Bengio, Geoffrey Hinton, Andrew Yao, Daniel Kahneman, Dawn Song, Yuval Noah Harari et plusieurs autres experts mettent la population en garde contre l’attitude de laisser-faire à l’égard du développement et de l’utilisation de ces technologies. L’informaticien britannique Stuart Russell déplore qu’« il y [ait] plus de réglementations sur les sandwicheries que sur les entreprises d’IA ».

Ces chercheurs estiment que les modèles d’IA les plus récents sont trop puissants et trop importants pour qu’on les laisse se développer sans contrôle démocratique. Les investissements dans la sécurité doivent être rapides, car l’IA progresse beaucoup plus vite que les précautions prises.

Les experts exhortent les gouvernements à consacrer un tiers de leur financement de recherche et développement (RD) en IA et les entreprises un tiers de leurs ressources de RD en IA à une utilisation sûre et éthique des systèmes. Ils réclament que des lois imposent que des auditeurs indépendants puissent accéder........

© Le Devoir


Get it on Google Play