Intelligence artificielle: de l’espoir, mais aussi des risques qu’il faut baliser

Par Pierre Saint-Arnaud 7:00 AM - 4 novembre 2023 La Presse Canadienne
Temps de lecture :

Le logo OpenAI photographié devant un écran d'ordinateur qui affiche la sortie de ChatGPT, en mars 2023, à Boston. AP Photo/Michael Dwyer

Les Québécois de tous les milieux susceptibles de travailler avec l’intelligence artificielle (IA) voient celle-ci d’un œil généralement positif, mais reconnaissent qu’elle présente des risques et veulent que le gouvernement impose des balises à l’industrie.

Ce sont là les grandes lignes de la consultation publique menée par le Conseil de l’innovation du Québec dont les résultats ont été dévoilés jeudi, à l’occasion du Forum public sur l’encadrement de l’intelligence artificielle au Québec.

Plus des deux tiers des répondants estiment que l’IA aura un impact très positif (19,8 %) ou plutôt positif (48,6 %) sur leur travail, leurs loisirs et leurs habitudes. 

Lorsqu’on leur demande quels sont les principaux avantages auxquels ils s’attendent, ils invoquent l’automatisation des tâches dangereuses ou répétitives, l’amélioration de la qualité des produits et des services tels que les diagnostics, par exemple, une meilleure utilisation des ressources et une amélioration de la productivité. Sans surprise, on s’attend également à ce que l’IA accélère les découvertes scientifiques, suscite l’innovation et qu’elle crée de nouveaux secteurs d’activité et d’emploi.

Des risques réels

Les répondants sont cependant préoccupés par les risques que présente l’intelligence artificielle, les deux plus importants qu’ils identifient étant la manipulation de l’opinion publique, notamment par sa capacité de produire de la désinformation et des hypertrucages qui font dire n’importe quoi à n’importe qui, et l’usage malveillant de ces outils pour mener des cyberattaques, des fraudes et ainsi de suite. 

En fait la liste des risques énumérés par les répondants est assez longue. Elle comprend également les menaces à la vie privée avec, par exemple, la reconnaissance faciale dans les lieux publics, une déshumanisation des décisions, une augmentation des inégalités et de la discrimination, une dépendance excessive envers ces outils et la possibilité qu’ils provoquent de nombreuses pertes d’emplois.

Un autre des risques évoqués, paradoxalement, est on ne peut plus humain. Il s’agit de la déresponsabilisation, soit celle qui consiste à dire: «Ce n’est pas moi, c’est l’IA!». Enfin, on craint une génération excessive de gaz à effet de serre en raison des imposants serveurs requis pour le fonctionnement de l’IA. 

Le document produit par le Conseil de l’innovation présente une liste d’autres préoccupations soulevées, entre autres la monétisation de l’IA, l’utilisation des données fournies, l’éthique, la transparence et la protection de la vie privée, la protection des droits des citoyens, les mécanismes veillant à éviter les biais et la discrimination, le plagiat des œuvres et le respect du droit d’auteur ou encore le droit de savoir que l’IA intervient dans un processus décisionnel.

Légiférer et réglementer l’IA

Bref, l’inquiétude est présente, d’où l’opinion assez majoritaire voulant que le gouvernement doive s’interposer. Ainsi, à la question: «quelle approche le gouvernement québécois devrait-il privilégier pour encadrer l’IA?», les réponses qui viennent en tête de liste sont: développer des mécanismes de responsabilité légale entourant les applications de l’IA (34,8 %); réglementer les applications de l’IA en fonction du risque (28,9 %); imposer des normes et mécanismes de certification des applications de l’IA (14,2 %); développer des mécanismes de contrôle et d’audit de ces applications (14,5 %).

Le questionnaire poussait toutefois les répondants à aller plus loin en leur demandant de se prononcer sur une stratégie de réduction de risque que devrait adopter le gouvernement. Une majorité d’entre eux (52,1 %) estiment que celui-ci doit identifier les applications potentiellement risquées de l’IA et réglementer «en fonction de la gravité du risque». Le spectre des réponses montre également des réponses plus extrêmes, mais minoritaires, à des pôles opposés. Ainsi, alors que 14,6 % d’entre eux croient qu’il faudrait interdire les applications potentiellement risquées, 12,5 % croient au contraire qu’il ne faut pas intervenir, laisser les applications se développer et simplement protéger les droits des individus qui pourraient en subir les conséquences.

Les principes «les plus importants» que devrait respecter l’IA, selon les répondants, sont, dans des proportions presque égales, l’explicabilité et la transparence, l’autonomie et le respect des droits humains, la responsabilité, le respect de la vie privée, la sécurité, le bien-être social, individuel et environnemental et l’équité et la non-discrimination. 

Des mesures urgentes

Au-delà de la législation ou de la réglementation, les répondants sont sans équivoque face à d’autres gestes que le gouvernement doit poser de manière urgente ou très urgente. Ainsi, c’est dans des proportions se situant entre 80 % et 85 % qu’ils veulent voir le gouvernement: soutenir la formation en droit, en éthique et autres disciplines sociales des programmeurs en IA; modifier la formation générale pour mieux préparer les jeunes aux changements générés par IA; aider les citoyens à mieux comprendre l’IA; et investir dans formation continue et la requalification pour l’adaptation à IA.

Quant à savoir dans quels domaines ils sont le plus à l’aise avec l’utilisation massive de l’IA, les transports viennent en tête, suivis, dans des proportions allant en diminuant, par l’énergie et les ressources naturelles, les services municipaux, la santé et les services sociaux, les services d’urgence et de sécurité publique, les banques et la finance.

L’IA mal vue dans le domaine de la justice

Ils sont beaucoup plus mitigés face à l’utilisation massive de l’IA en éducation et dans les arts et la culture, et deviennent «plutôt mal à l’aise» ou «très mal à l’aise» avec l’utilisation de l’IA dans les domaines de l’immigration et, surtout, de la justice.

Un peu plus de 420 personnes ont répondu au questionnaire du Conseil durant les mois de juin et juillet derniers et si l’échantillon n’est pas représentatif de la population, il indique clairement où l’on s’attend à devoir composer avec l’IA.

Par exemple, la majorité des répondants (56 %) détient un diplôme universitaire de deuxième ou troisième cycle, comparativement à une proportion de 9 % dans la population en général, et un autre 33 % détient un diplôme universitaire de premier cycle. Ce sont neuf répondants sur dix qui ont un diplôme universitaire.

De même, neuf répondants se disent informés à des degrés variables des enjeux de l’IA sur la société québécoise. Enfin, contrairement à ce que l’on aurait pu croire, une majorité de répondants (53 %) sont des spécialistes dans leur domaine, mais ils ne sont pas dans le domaine de l’intelligence artificielle. Les spécialistes de l’IA, informaticiens, experts des sciences des données, juristes et autres, représentaient trois répondants sur dix.