Articles

Colloque international – Des tests qui gênent : Comment mieux protéger le droit à la vie privée à l’ère des tests génétiques en ligne

Voir plus

Midi-Webinaire – Fracture numérique et populations marginalisées : pistes d’intervention à la portée des organismes communautaires

Voir plus

Symposium – Pulvériser les barrières

Voir plus

Communiqué : Comment encadrer l’intelligence artificielle ?

Voir plus

Colloque international – Vers un droit de l’IA : perspectives comparées

Voir plus

Conférence – Métavers: Quels enjeux et quelles opportunités pour le milieu culturel?

Voir plus

Activité: Données et société: état des lieux, projets innovants et perspectives

Voir plus

Communiqué – En faire plus pour l’utilisation des données numériques par et pour les collectivités, au service des citoyens et de l’intérêt général

Voir plus

Colloque international – Société, IA et normativités: Contributions scientifiques à l’agenda international sur la régulation de l’ia

Voir plus

4e Journée d’étude en éthique de l’IA sur l’informatique affective

Voir plus

[REPORTÉ] – Webinaire: Tour d’horizon des enjeux éthiques liés au développement et au déploiement de l’IA en santé

Voir plus

Table-ronde: Quelles approches pour une gouvernance responsable de l’IA ? – SophIA Summit 2022

Voir plus

Webinaire: Enjeux éthiques et critiques des systèmes d’IA en éducation: entre tensions et risques

Voir plus

Colloque international: Les données numériques en santé : peut-on bâtir la confiance et préserver la santé comme bien commun?

Voir plus

Webinaire: « Algocratie » par Arthur Grimonpont

Voir plus

Workshop: Critical AI and Labour: Power, Value Chains, and Reproduction

Voir plus

Webinaire: Mettre le Big Data au service de l’intérêt général

Voir plus

Webinaire: Données publiques et données privées : quelle mise en partage au service du bien commun ?

Voir plus

Webinaire: La qualité des données de santé ? Pour qui ? Pour quoi ? Comment s’y prendre ?

Voir plus

Cycle de midi-conférences sur la gouvernance des données

Voir plus

Webinaire: L’IA et le futur des professions: Quels enjeux? Quelles actions?

Voir plus

Table ronde: Modèle d’évaluation des facteurs relatifs à la circulation des données

Voir plus

Webinaire: L’intelligence artificielle en santé: de la définition aux enjeux éthiques et juridiques

Voir plus

De la collecte de la donnée à la prise de décision par un algorithme d’intelligence artificielle: comment élaborer une gouvernance collaborative et responsable?

Voir plus

L’observation de la Terre: en 1re ligne pour faire face aux défis environnementaux et sociétaux

Voir plus

Des communications de masse aux transformations de l’écosystème médiatique numérique

Voir plus

Approche responsable de l’IA et du numérique du développement de l’apprentissage tout au long de la vie

Voir plus

Conférence: Algorithmic Habits and Precluded Transformations

Voir plus

Éthique et simulation: de l’IA à la réalité virtuelle

Voir plus

Webinaire: Quelle place pour l’ÉDI dans les IA qui guident vos décisions professionnelles?

Voir plus

Colloque: Vers une réforme de l’accès aux renseignements sur la santé pour des fins de recherches au Québec: Réactions préliminaires au projet de loi 19

Voir plus

Panel sur le projet de règlement européen sur l’intelligence artificielle

Voir plus

Séminaire gradué #3: Technologies et groupes marginalisés: biais et injustices sociales

Voir plus

Symposium: Former pour agir en contexte numérique: CLE de la relance post-COVID

Voir plus

École d’été OBVIA-SCAI sur l’IA responsable

Voir plus

Chercheurs

Chercheurs responsables

  • Philip Jackson

    Professeur à l'École de psychologie de la Faculté des sciences sociales

    Université Laval

Explorer les autres fonctions

Articles récents

Nous joindre

Abonnez-vous à l'infolettre

Recevez nos récentes actualités, nos événements à venir, des nouvelles de nos collaborateurs et plus encore!

L'Observatoire international sur les impacts sociétaux de l'IA et du numérique est rendu possible grâce au soutien des Fonds de recherche du Québec.