Publication de la stratégie scientifique de l’OBVIA

Issue d’une concertation interne qui a eu lieu entre le début de l’été 2019 jusqu’à la fin de l’année 2020, la stratégie scientifique de l’OBVIA s’arrime à certains des grands besoins de l’heure dans le domaine de l’IA et du numérique. En lien avec les préoccupations de notre communauté, cinq orientations scientifiques guideront les actions de l’OBVIA pour les prochaines années.

Contribuer à promouvoir l’inclusion et l’atténuation des biais

Les algorithmes ont tendance à reproduire et à renforcer des biais de notre société, que ce soit parce qu’ils sont entraînés sur des ensembles de données biaisés ou parce que leurs concepteurs eux-mêmes entretiennent des préjugés qui sont intégrés au fonctionnement des systèmes. Il faut veiller à ce que ces biais n’imposent pas un fardeau inéquitable à certains groupes de nos sociétés.

Nous entendons mener des travaux spécifiques pour contribuer à l’inclusion et à l’atténuation des biais générés par les systèmes d’IA. Ces travaux prendront différentes formes. D’abord, nous appuierons la réalisation par nos chercheuses et chercheurs de projets de recherche sur l’inclusion et les biais qui déboucheront sur la production et la diffusion, pour les organisations, d’outils accessibles et pratiques.

Avec nos chercheurs, nos chercheuses et nos partenaires, nous développerons et déploierons aussi un programme de sensibilisation aux biais à l’intention des concepteurs des utilisateurs de l’IA.

Enfin, puisque l’IA peut soutenir la diversité en révélant et en désamorçant les biais structurels qui existent dans nos systèmes – des chercheurs ont par exemple utilisé l’IA pour évaluer la diversité organisationnelle des 500 plus importantes entreprises figurant dans le classement Forbes Global 2000 – nous soutiendrons la réalisation d’un projet reposant sur le recours à l’IA pour détecter les biais éventuellement présents dans un système particulier (ex. : l’embauche dans la fonction publique).

Améliorer l’accès aux données dans le respect des droits de chacun

L’idée de valoriser les données à des fins socialement bénéfique fait généralement consensus. Mais comment, en pratique, améliorer l’accès aux données tout en assurant le respect de la vie privée ou de la propriété intellectuelle des organisations ? Le défi réside dans la conception de nouveaux modèles d’exploitation des données qui rencontrent certains paramètres en lien avec la mission que nous poursuivons.

Conjointement avec d’autres acteurs, nous travaillerons à soutenir la conception d’un modèle de mise en commun de données qui soit à la fois (a) responsable, (b) respectueux de la vie privée dès la conception, et (c) acceptable sur le plan social. Ce système sera appliqué à un domaine névralgique tel que la santé, le transport ou les pêcheries.

Nous veillerons aussi à appuyer la mise à l’épreuve de ce modèle et à assurer la diffusion de constats sur les enjeux et les résultats obtenus. Nous émettrons finalement des recommandations concrètes à l’intention des décideurs politiques et des organisations.

Contribuer à un meilleur contrôle des systèmes d’algorithmes d’intelligence artificielle et du numérique

De nombreux instruments normatifs, comme la Déclaration de Montréal pour un développement responsable de l’IA, existent pour guider toutes les parties prenantes dans leur utilisation de l’IA. Or ces outils sont difficiles à opérationnaliser. Des outils concrets qui permettraient aux entreprises et organisations d’un secteur de déterminer jusqu’à quel point un système d’IA est responsable et efficace sont requis.

Pour pallier cette absence d’outils concrets et opérationnels qui permettaient d’encadrer le développement ou l’utilisation de l’IA, nous amorcerons cette année la réflexion entourant la mise en œuvre éventuelle d’une certification et d’outils d’audit en IA. Ce service tiendrait par exemple compte de la robustesse des structures de gouvernance déployées par les organisations.

Soutenir l’appropriation responsable et efficace de l’IA et du numérique par les organisations

Les entreprises et les organismes publics sont nombreux à vouloir prendre le virage de l’IA sans savoir exactement comment s’y prendre pour développer ou utiliser cette technologie avec succès — et de manière pleinement responsable. Il faudra les accompagner pour les aider à définir et appliquer des pratiques exemplaires. Le manque de connaissances en IA, la faible confiance dans les décisions prises par l’IA, la difficulté à collaborer avec les fournisseurs et à démontrer la valeur générée par l’IA, ainsi que les enjeux d’intégration et de mise en œuvre de l’IA expliquent que de nombreuses organisations hésitent à faire le saut à ce chapitre et que seulement 31 % des entreprises canadiennes qui ont adopté l’IA caractérisent son déploiement comme une réussite.

En collaboration avec d’autres partenaires nous entendons soutenir un ou deux regroupements d’organisations québécoises dans la réalisation de projets d’intégration responsable de l’IA. Nous documenterons les expériences réalisées et proposerons des approches destinées à favoriser l’accroissement des capacités des acteurs en matière d’appropriation de l’IA.

Promouvoir un dialogue constructif et démocratique par une appropriation de l'IA et du numérique accessible

Les développements technologiques qui ont cours ne sont pas toujours au diapason avec la société, pensons par exemple aux applications de notification de contact ou aux technologies de reconnaissance faciale. Ces développements technologies nécessitent un débat démocratique ouvert et inclusif pour bien comprendre les enjeux et les impacts éthiques, juridiques et sociétaux qui les sous-tendent. Ce dialogue vise à favoriser une plus grande compréhension et capacitation des citoyens envers ses développements. La promotion du dialogue a pour but de clarifier les enjeux, bâtir la confiance et saisir, ce que la société considère acceptable. L’acceptabilité sociale est souvent mise de côté lorsque les développements technologiques sont déployés et pourtant cette acceptabilité s’avère essentielle, car elle participe à des dynamiques sociales qui peuvent faciliter ou faire obstacle aux nouvelles technologiques.

Il importe pour l’OBVIA d’entamer cette réflexion collective sur cette acceptabilité sociale et de l’évaluer auprès des populations afin de comprendre les fondements et les facteurs d’influence et ce qui rendra la technologie légitime ou pas. L’OBVIA souhaite contribuer à la réflexion sur ce qui est acceptable de ce qu’il ne l’est pas en mettant en place un dialogue social inclusif.

 

Consulter la stratégie scientifique au format PDF

Articles récents

Nous joindre

Abonnez-vous à l'infolettre

Recevez nos récentes actualités, nos événements à venir, des nouvelles de nos collaborateurs et plus encore!

L'Observatoire international sur les impacts sociétaux de l'IA et du numérique est rendu possible grâce au soutien des Fonds de recherche du Québec.