5 orientations scientifiques

La stratégie scientifique de l’Observatoire international sur les impacts sociétaux de l’IA et du numérique présente les 5 orientations scientifiques, en lien avec nos 4 ensembles préoccupations identifiés, qui guident nos actions. Cette stratégie est tirée d’une concertation à l’interne auprès des membres de notre communauté de recherche.

Contribuer à promouvoir l’inclusion et l’atténuation des biais

Les algorithmes ont tendance à reproduire et à renforcer des biais de notre société, que ce soit parce qu’ils sont entraînés sur des ensembles de données biaisés ou parce que leurs concepteurs eux-mêmes entretiennent des préjugés qui sont intégrés au fonctionnement des systèmes. Il faut veiller à ce que ces biais n’imposent pas un fardeau inéquitable à certains groupes de nos sociétés.

Nous entendons mener des travaux spécifiques pour contribuer à l’inclusion et à l’atténuation des biais générés par les systèmes d’IA. Ces travaux prendront différentes formes. D’abord, nous appuierons la réalisation par nos chercheuses et chercheurs de projets de recherche sur l’inclusion et les biais qui déboucheront sur la production et la diffusion, pour les organisations, d’outils accessibles et pratiques.

Avec nos chercheurs, nos chercheuses et nos partenaires, nous développerons et déploierons aussi un programme de sensibilisation aux biais à l’intention des concepteurs des utilisateurs de l’IA.

Enfin, puisque l’IA peut soutenir la diversité en révélant et en désamorçant les biais structurels qui existent dans nos systèmes – des chercheurs ont par exemple utilisé l’IA pour évaluer la diversité organisationnelle des 500 plus importantes entreprises figurant dans le classement Forbes Global 2000 – nous soutiendrons la réalisation d’un projet reposant sur le recours à l’IA pour détecter les biais éventuellement présents dans un système particulier (par exemple, l’embauche dans la fonction publique).

Améliorer l’accès aux données dans le respect des droits de chacun

L’idée de valoriser les données à des fins socialement bénéfiques fait généralement consensus. Mais comment, en pratique, améliorer l’accès aux données tout en assurant le respect de la vie privée ou de la propriété intellectuelle des organisations? Le défi réside dans la conception de nouveaux modèles d’exploitation des données qui rencontrent certains paramètres en lien avec la mission que nous poursuivons.

Conjointement avec d’autres acteurs, nous travaillerons à soutenir la conception d’un modèle de mise en commun de données qui soit à la fois responsable, respectueux de la vie privée dès la conception, et acceptable sur le plan social. Ce système sera appliqué à un domaine névralgique tel que la santé, le transport ou les pêcheries.

Nous veillerons aussi à appuyer la mise à l’épreuve de ce modèle et à assurer la diffusion de  constats sur les enjeux et les résultats obtenus. Nous émettrons finalement des recommandations concrètes à l’intention des décideurs politiques et des organisations.

Contribuer à un meilleur contrôle des systèmes d’algorithmes d’intelligence artificielle et du numérique

De nombreux instruments normatifs, comme la Déclaration de Montréal pour un développement responsable de l’IA, existent pour guider toutes les parties prenantes dans leur utilisation de l’IA. Or ces outils sont difficiles à opérationnaliser. Des outils concrets qui permettraient aux entreprises et organisations d’un secteur de déterminer jusqu’à quel point un système d’IA est responsable et efficace sont requis.

Pour pallier cette absence d’outils concrets et opérationnels qui permettaient d’encadrer le développement ou l’utilisation de l’IA, nous voulons alimenter la réflexion entourant la mise en œuvre éventuelle d’une certification et d’outils d’audit en IA. Ce service tiendrait par exemple compte de la robustesse des structures de gouvernance déployées par les organisations.

Soutenir l’appropriation responsable et efficace de l’IA et du numérique par les organisations

Les entreprises et les organismes publics sont nombreux à vouloir prendre le virage de l’IA sans savoir exactement comment s’y prendre pour développer ou utiliser cette technologie avec  succès — et de manière pleinement responsable. Il faudra les accompagner pour les aider à définir et appliquer des pratiques exemplaires. Le manque de connaissances en IA, la faible confiance dans les décisions prises par l’IA, la difficulté à collaborer avec les fournisseurs et à démontrer la valeur générée par l’IA, ainsi que les enjeux d’intégration et de mise en œuvre de l’IA expliquent que de nombreuses organisations hésitent à faire le saut à ce chapitre et que seulement 31% des entreprises canadiennes qui ont adopté l’IA caractérisent son déploiement comme une réussite.

En collaboration avec d’autres partenaires nous entendons soutenir un ou deux regroupements d’organisations québécoises dans la réalisation de projets d’intégration responsable de l’IA. Nous documenterons les expériences réalisées et proposerons des approches destinées à favoriser l’accroissement des capacités des acteurs en matière d’appropriation de l’IA.

Promouvoir un dialogue constructif et démocratique par une appropriation de l’IA et du numérique accessible

Les développements technologiques qui ont cours ne sont pas toujours au diapason avec la société. Par exemple, pensons aux applications de notification de contact ou aux technologies de reconnaissance faciale. Ces développements technologiques nécessitent un débat démocratique ouvert et inclusif pour bien comprendre les enjeux et les impacts éthiques, juridiques et sociétaux qui les sous-tendent. Ce dialogue vise à favoriser une plus grande compréhension et capacitation des citoyens envers ses développements. La promotion du dialogue a pour but de clarifier les enjeux, bâtir la confiance et saisir ce que la société considère acceptable. L’acceptabilité sociale est souvent mise de côté lorsque les développements technologiques sont déployés et pourtant cette acceptabilité s’avère essentielle, car elle participe à des dynamiques
sociales qui peuvent faciliter ou faire obstacle aux nouvelles technologies.

Sous forme de dialogue social inclusif, l’OBVIA souhaite entamer une réflexion collective sur cette acceptabilité sociale. L’exercice permettra de comprendre les obstacles de même que les possibilités des développements technologiques et ainsi obtenir une intégration plus en phase avec les besoins de la population.

Téléchargez la Stratégie scientifique de l’OBVIA

Nous joindre

Abonnez-vous à l'infolettre

Recevez nos récentes actualités, nos événements à venir, des nouvelles de nos collaborateurs et plus encore!

L'Observatoire international sur les impacts sociétaux de l'IA et du numérique est rendu possible grâce au soutien des Fonds de recherche du Québec.