4e Journée d’étude en éthique de l’IA sur l’informatique affective

Informations sur l'événement

Date

3 février 2023

Heure

9:30 - 16:45

Lieu

Salle DS-2220, Pavillon J.-A.-Desève, 320 rue Sainte-Catherine Est, École des sciences de la gestion, UQAM / Hybride sur Zoom

Le Centre de recherche en éthique (CRÉ) et l’OBVIA vous convient à sa prochaine journée d’étude en éthique de l’IA qui portera sur l’informatique affective.

Si vous comptez venir participer en personne, merci d’écrire à Hazar Haidar (hazar_haidar@uqar.ca) avant le 31 janvier pour que nous commandions suffisamment de boîtes à lunch véganes (offertes gracieusement par nos partenaires).

Programme

Chair: Hazar Haidar (UQAR)

9h30: A. Prégent (Leiden U.) Les systèmes de reconnaissance des émotions: ami ou ennemi de l’agentivité?

Quels sont les impacts des systèmes de reconnaissance des émotions (SRÉ) sur les structures sociales, sur nos relations humaines, sur le bien-être? Je propose d’explorer les impacts que l’utilisation de ces systèmes peut avoir sur certaines de nos valeurs fondamentales telles que la vie privée, les relations humaines (amitié, amour) ainsi que sur notre possibilité d’atteindre le bien-être en tant qu’agent autonome.

10h15: J. Martineau et M. Lafond, (HEC Montréal) Enjeux éthiques et acceptabilité sociale des technologies mobilisant l’informatique affective.

Les systèmes d’IA mobilisant la reconnaissance, l’expression et l’utilisation de données émotionnelles à diverses fins sont de plus en plus développés et déployés dans les organisations privées et publiques, et leur utilisation soulève de nombreux questionnements et débats. Cette présentation vise à cerner certains des enjeux éthiques liés aux technologies d’informatique affective, et à discuter des facteurs et conditions d’acceptabilité sociale de celles-ci dans les organisations et dans la société.

10h45 : M. Gibert, (U. de Montréal) Intelligence émotionnelle artificielle: le cas ChatGPT.

L’intelligence émotionnelle (IE) désigne notre capacité à réguler nos émotions et celles des autres (Salovey et Mayer). À quelles conditions peut-on dire qu’un algorithme comme ChatGPT fait preuve d’intelligence émotionnelle et qu’est-ce qui distingue cette IE artificielle d’une IE humaine? Quelles sont les implications morales? Je m’appuierai notamment sur L’emprise insidieuse des machines parlantes de Serge Tisseron et proposerai un lien avec l’hypothèse des robots vertueux.

11h15: Pause

 

Chair: Alexandra Prégent (U. Leiden)

11h30: M-H Tessier, C. Pouliot, J. N. Phuong Trieu et P. Jackson (U. Laval) Les progrès et dangers des algorithmes de reconnaissance automatique de la douleur.

Les systèmes de reconnaissance automatique des expressions faciales ont le potentiel de devenir un atout pour la gestion de la douleur. Ils peuvent détecter rapidement et précisément les manifestations de douleur, surpassant même des observateurs humains entraînés. Cependant, il est important de saisir leurs limites, comme les informations partielles relatives à la douleur ressentie, et de formuler des recommandations pour circonscrire certains risques à leur utilisation tels que le sous-traitement de la douleur.

12h00: T. Adetou, (U. de Montréal), Une machine sans émotion peut-elle être un agent moral ?

Les carebots, les chatbots, etc., sont parfois considérés comme des agents moraux artificiels. Or traditionnellement, l’agentivité morale se fonde sur la rationalité (Kant), la responsabilité ou les émotions (Hume). Si nous prenons au sérieux la centralité des émotions dans la décision morale (Rietti), comment alors, des agents artificiels sans émotions peuvent réellement agir moralement. Nous discuterons cette question en évoquant notamment l’approche perceptuelle de Mark Coekelbergh.

12h30: Lunch

 

Chair: Martin Gibert (U. de Montréal)

14:00 P. Plusquellec (EmoScienS), Mobiliser éthiquement l’informatique affective pour promouvoir la santé mentale ?

Une personne sur 4 va déclarer un trouble de santé émotionnelle au travail. À la suite de la pandémie de covid-19, cette proportion a tellement augmenté que nous craignons une pandémie de troubles de santé mentale. Les progrès en apprentissage profond dans la reconnaissance automatique d’émotions peuvent être mobilisés pour faire face à ce problème global. Le développement d’un outil qui permettrait à chacun de veiller sur ses émotions en temps réel présente cependant son lot de défis éthiques que nous adresserons.

14:30 J. Pierre (U. Sherbrooke) et M-J. Catoir-Brisson, (U. Audencia Nantes), L’IA émotionnelle face aux émotions de ses concepteurs

Dans le cadre d’une recherche-intervention, nous avons accompagné un industriel souhaitant développer une IA émotionnelle pour la famille. En repartant de l’empathie supposée de l’artefact, nous avons proposé aux concepteurs de prendre la place de la machine et de capturer les éléments de vie affective dans leurs familles. Ce dispositif d’enquête a permis de cadrer une éthique de la conception pour les technologies affectives, combinant les valeurs morales des innovateurs et le potentiel commercial de l’innovation.

15:00: Pause

 

Chair: Hazar Haidar (UQAR)

15:15 A. Sabourin Laflamme et F. Bruneault (UQAM), Le statut moral de nos restes numériques à la lumière de l’éthique de l’information.

Nous lèguerons après notre mort un héritage numérique imposant. La quantité astronomique de données personnelles recueillies de notre vivant couplée aux progrès fulgurants en intelligence artificielle permettent d’envisager des types de relations affectives inédites aux défunts. Nous proposons, partant de l’éthique de l’information telle que développée par Luciano Floridi, de réfléchir à la question du statut moral des restes numériques ainsi qu’aux question éthiques que soulèvent les nouveaux produits offerts par l’industrie de l’après-vie numérique.
15:45 Table ronde avec Philip Jackson (U. Laval), Pierrich Plusquellec (EmoScienS), Dominic Martin (UQAM), Joé Martineau (HEC Montréal).

16:45: fin

 

Appel à communication - terminé

Date limite pour les propositions de communication: 2 octobre 2022

L’informatique affective est un domaine en pleine expansion qui recouvre tous les systèmes d’IA qui reconnaissent, expriment, synthétisent et modélisent les émotions humaines. Les types de technologies concernés sont notamment les robots sociaux, sexuels et conversationnels mais aussi les systèmes de surveillance et de marketing. Déjà sur le marché dans plusieurs pays dont le Canada, la Chine et la Grande Bretagne, ces systèmes sont le plus souvent utilisées à des fins de sécurité (aéroports, parcs, compagnies privées, cour pénale), de profilage marketing (magasins, réseaux sociaux, ressources humaines, entrevues d’embauches) ou encore dans le domaine du care, avec des robots sociaux comme Leka et Buddy. Mentionnons aussi la formule améliorée des lunettes Google qui permettent d’aider un individu à détecter les émotions d’autrui. Ces diverses tehnologies soulèvent toutefois de nombreuses questions éthiques, notamment au regard de valeurs telles que la non-discrimination, la justice, le respect de l’intimité et de la vie privée ou encore l’autonomie.

Lors de cette journée d’étude, nous souhaitons explorer les divers enjeux éthiques que soulèvent l’informatique affective. Les propositions de communication peuvent aborder les pistes suivantes sans nécessairement s’y restreindre:

  • Interactions humain-machine (avec relations affectives)
    • Comment programmer en tenant compte de la dimension émotionnelle des robots ou des systèmes d’IA?
    • Les enfants sur le spectre de l’autisme et les robots sociaux
    • Enjeux avec les personnes âgées et vulnérables
    • Robots sexuels et affects
  • Détection et simulation des émotions
    • Enjeux éthiques et techniques liés à la différence culturelle, genrée, ou de classe sociale dans l’expression des émotions
    • Doit-on attribuer des émotions genrées à des systèmes d’IA (voix féminine pour suggérer la bienveillance et l’empathie)?
    • Est-il acceptable de faire croire qu’une machine ressent des émotions?
  • Spécificité des données émotionnelles
    • À qui devrait appartenir les données émotionnelles (public, privé, individu, collectif)?
    • Quels risques particuliers suscitent les données émotionnelles (sécurité, intrusion, manipulation, discrimination, biais, etc.)?
    • Y a-t-il une tension ou une contradiction entre la nature subjective des émotions et la nécessité d’objectivation et de mesure par les systèmes d’IA?
  • Régulations:
    • Quelles lois/règlements devraient encadrer l’utilisation de l’informatique affective?
    • Si une machine avait des émotions, cela changerait-il son statut moral et/ou légal?
    • Devrait-on reconnaître un droit à l’intériorité, c’est-à-dire un droit de garder ses états intérieurs pour soi?
    • A-t-on le droit de traiter l’espace public comme un «laboratoire émotionnel»?
    • Certains groupes sont-ils plus vulnérables que d’autres face à l’utilisation des systèmes de reconnaissance des émotions?

Soumettre une communication

Durée maximale de présentation: 20 minutes
Période de questions: 10 minutes

Envoyez votre proposition avant le 2 octobre 2022 par courriel à l’adresse hazar_haidar@uqar.ca, en y précisant:

  • le titre de la présentation
  • un résumé (maximum 300 mots)
  • Votre prénom, nom, titre,  établissement, affiliation et/ou organisation

Les candidats et les candidates peuvent provenir de différents domaines  (par exemple: philosophie, science cognitive, psychologie, bioéthique, droit, informatique, génie, cinéma, communication, sociologie, etc.). Les candidatures étudiantes sont les bienvenues.

Quelques références sur l’informatique affective

COMITÉ D’Organisation

Articles récents

Nous joindre

Abonnez-vous à l'infolettre

Recevez nos récentes actualités, nos événements à venir, des nouvelles de nos collaborateurs et plus encore!

L'Observatoire international sur les impacts sociétaux de l'IA et du numérique est rendu possible grâce au soutien des Fonds de recherche du Québec.