Efficacité et enjeux sociétaux des apps de traçage de contacts

Des chercheur(e)s de l’OBVIA ont publié une tribune dans le journal Le Devoir sur les conditions d’efficacité et les enjeux sociétaux des apps de traçage de contacts (« contact tracing ») déployées pour lutter contre la pandémie de Covid-19. Ces applications soulèvent de nombreux enjeux relatifs au consentement, à la fracture numérique, à la fiabilité des données et des modèles, au faux sentiment de sécurité qu’elles feront naître, aux risques d’exclusion et de discriminations, à la protection des données personnelles, mais aussi à la banalisation de la surveillance technologique.

Lire la tribune sur Le Devoir

 

Nous vous proposons également de lire la version longue en français et en anglais de cette tribune :

Efficacité et enjeux sociétaux des applications de traçage de contacts pour lutter contre la pandémie de Covid-19

Après une vague de confinement sans précédent pour faire face au risque d’explosion des systèmes de santé, la plupart des gouvernements travaillent à mettre en œuvre une politique de déconfinement alors que le virus et les risques de contamination sont toujours très présents. En quête de solutions, les systèmes d’intelligence artificielle et autres outils numériques paraissent porteurs de promesses et d’espoirs. Plusieurs applications mobiles sont développées de par le monde sur la base notamment d’outils de contact tracing pour identifier des sujets « contact » et anticiper les risques de contamination (comme StopCovid en France, Immuni en Italie ou TraceTogether à Singapour). Pourtant, les conditions d’efficacité de telles solutions laissent présager dans de nombreux cas leur inutilité, alors que les risques d’atteinte aux droits et libertés sont, eux, bien réels.

D’abord, une première condition d’efficacité de telles applications tient au nombre d’utilisateurs et à la quantité de données disponibles. En effet, des études tendent à démontrer qu’au moins 60% de la population devrait utiliser ces applications pour assurer leur efficacité. Certains pays seraient prêts à contraindre la population à télécharger une telle application et à conditionner les déplacements ou certaines activités à son utilisation. Au Québec, cela serait assurément perçu comme beaucoup trop intrusif.

À l’inverse, si ces applications reposent sur le consentement, il n’est pas certain que tout le monde en accepte l’utilisation. À Singapour, pourtant ville ultra-connectée et souvent cité en exemple pour avoir déployé rapidement l’application TraceTogether, le gouvernement annonce qu’un peu plus de 20% de la population seulement l’a téléchargé. L’acceptabilité sociale est un facteur essentiel de la confiance. Toute forme de pression sociale exercée sur les citoyens ferait alors douter de la réalité du consentement.

Par ailleurs, l’ensemble de la population n’a pas matériellement accès à un téléphone intelligent, ce qui réduit d’autant le nombre d’utilisateurs potentiels. Au Québec par exemple, moins d’un aîné sur deux a accès à un téléphone intelligent alors qu’ils constituent le groupe de population le plus à risque. La fracture numérique va exclure une partie de la population, sans doute la plus vulnérable. Ainsi, dans toutes ces hypothèses, il y a peu de chance qu’il y ait suffisamment d’utilisateurs et de données pour que ces outils puissent produire un résultat fiable.

Une seconde condition tient à la qualité des données. Le fonctionnement de plusieurs de ces dispositifs repose en partie sur l’utilisation de données déclaratives qui, dans bien des cas, pourraient s’avérer erronées. Les individus pourraient se tromper, omettre des informations ou même mentir sur leur état de santé, ce qui compromettrait la qualité de la donnée et les résultats escomptés. Cet effet pervers et la volonté de dissimuler pourraient être exacerbés si ces applications conduisent à des stigmatisations envers certaines personnes.

De plus, les études tendent à montrer qu’une grande partie des porteurs de la COVID-19 sont asymptomatiques. Ce sont autant d’utilisateurs qui ne seront pas en mesure d’être pris en compte adéquatement par les applications sur la base des informations déclarées par l’utilisateur. Sans une réelle augmentation des capacités de dépistages, il sera alors difficile pour ces applications de renseigner correctement sur l’évolution de la propagation du virus.

Plus globalement, la qualité des données utilisées pour créer les modèles et calculer le risque de contamination est fondamentale, alors que l’on ne comprend pas encore toutes les caractéristiques de la maladie et son impact sur certains sujets comme les enfants et les jeunes. Nous ne disposons pas du recul nécessaire pour mieux évaluer la pertinence des modèles et données utilisées, si bien que le taux d’erreur peut s’avérer élevé et fausser l’information que l’on cherche à collecter et à faire circuler par un système de tracking.

Un excès de confiance envers ces applications pourrait décevoir, d’autant que ces outils ont un impact psychologique fort. Ils peuvent ainsi contribuer à créer un faux sentiment de sécurité qui pourrait démobiliser les populations sur les efforts individuels nécessaires pour endiguer l’épidémie. Il suffit de considérer la fausse promesse dans l’intitulé même de certaines de ces applications comme StopCovid en France ou Immuni en Italie pour s’en convaincre.

L’efficacité de telles applications ne pourrait s’apprécier sans le déploiement toujours plus important de moyens humains, matériels et logistiques. Ces technologies ne sont potentiellement qu’une partie de la solution et leur utilisation nécessite un accompagnement humain considérable et une politique d’accès aux tests et d’isolement des personnes contaminées. Par exemple, en Corée du sud ou à Singapour l’utilisation d’une application s’est accompagnée d’une forte mobilisation de personnes compétentes pour accompagner les personnes alertées par leur téléphone faire respecter les mesures d’isolement.

Si l’efficacité de ces applications demeure incertaine, les risques d’atteintes aux droits et libertés sont eux avérés. Les enjeux relatifs à la vie privée et à la protection des renseignements personnels, spécifiquement les données sensibles de santé et de géolocalisation, ont été amplement dénoncés par les autorités de protection de par le monde, comme le Commissariat à la protection de la vie privée du Canada et la Commission nationale de l’informatique et des libertés (CNIL) en France, pour qu’il ne soit pas nécessaire d’y revenir. Le débat se cristallise alors principalement sur quelques caractéristiques techniques en lien avec la protection de la vie privée : Bluetooth vs GPS, centralisation vs pair-à-pair, données collectées vs conservées sur le téléphone, acteurs publics de santé vs acteurs privés. Ces questions méritent d’être posées mais occultent les autres enjeux sociaux.

L’utilisation de ces applications pourrait en outre générer des stigmatisations, discriminations et exclusions. D’abord à l’égard de tous ceux qui refuseraient de les utiliser ou qui n’y auraient pas accès, comme des populations défavorisées ou certaines personnes âgées, et qui pourraient se voir interdire des déplacements ou l’accès à certains lieux publics, voire même à leur travail. De plus, les populations les plus vulnérables, spécialement les plus pauvres et les afro-américains aux États-Unis, semblent être celles qui subissent le plus le virus. La discrimination à leur égard pourrait être renforcée par l’usage d’une technologie qui peut conduire à refuser l’entrée dans des commerces et l’accès à certains services. La Commission ontarienne des droits de la personne a ainsi alerté sur les risques d’exclusion des populations déjà particulièrement fragilisées par la pandémie.

Enfin, à plus long terme, le développement et l’utilisation de ce type de technologies contribuera à la banalisation et à une forme d’acceptation par la société d’une surveillance technologique généralisée. Il sera plus facile de déployer à l’avenir ce genre de procédés techniques si les individus ont intériorisé leur utilisation pour réguler le fonctionnement de l’espace public. D’un point de vue juridique, il faut absolument veiller à ce que les règles adoptées pour permettre le recours à ces technologies restent exceptionnelles et limitées dans le temps. Par le passé, la proclamation de l’état d’urgence pour lutter contre le terrorisme aux États-Unis et en Europe a conduit à l’intégration de mesures spéciales au droit commun. Il ne faudrait pas que l’état d’urgence sanitaire actuelle nous conduise aux mêmes résultats.

Ce « solutionnisme technologique » ne doit pas être vu comme la solution providentielle pour se sortir de la pandémie de COVID-19. Il s’agit d’un moyen parmi d’autres et qui nécessite un encadrement. Certains exemples démontrent l’intérêt d’utiliser l’IA, notamment pour aider à mieux comprendre le fonctionnement de la maladie, la recherche de molécules nouvelles et la mise au point d’un vaccin. Mais dans d’autres projets, le recours à l’IA ou à des outils numériques présente des avantages incertains et des risques sociaux majeurs. Alors que l’épidémie va s’installer dans le temps, il convient d’évaluer les réels gains que peut nous apporter la technologie sans pour autant transférer sur elle tout le fardeau de la gestion de cette crise, ni fonder tous nos espoirs sur elle seule au détriment d’implications humaines, certes lourdes, mais indispensables. Le défi aujourd’hui est donc d’encourager les solutions technologiques les plus prometteuses pour le bien commun dont l’efficacité est avérée et les risques sociétaux contrôlables.

Efficiency and social impacts of Covid-19 contact tracing applications

As a number of countries, hit by the COVID-19 epidemic for several months, start to consider phasing out of social distancing measures, artificial intelligence-based surveillance solutions are starting to look appealing. Several mobile applications have been developed around the world, notably based on contact tracing tools to identify « contact » subjects and anticipate the risks of contamination (such as StopCovid in France, Immuni in Italy or TraceTogether in Singapore). However, in many cases, these applications can not be efficient in practice, whereas the risks for the infringement of rights and freedoms are very real.

In order for these applications to be efficient, they must have a high acceptance rate. Indeed, studies show that in order to work, they require that at least 60% of the population need to actively use them. In Singapore, for example, just over 20% of the population downloaded the TraceTogether application, which was rapidly deployed. While some countries might be ready to enforce and make travel or other activities conditional to using these applications, this is certainly too intrusive in the Canadian context.

In addition, even if people were willing to use these applications, the reality is that not everyone actually has physical access to a smartphone. In Quebec, for example, less than one in two seniors have access to a smartphone. This means that part of the highest risk population would be excluded from anything requiring a mobile application. Under these assumptions, there is little chance that there would be enough users in the Canadian population for these tools to produce a reliable result.

Secondly, many of these devices rely on self-reporting of symptoms and diagnosis. In doing so, people could make mistakes and omissions or even lie about their state of health, misunderstanding their symptoms or worrying about being stigmatized by their diagnosis. Moreover, since a large proportion of COVID-19 carriers appear to be asymptomatic, current testing capacity would not allow for many infected people to be detected at all.

A further risk is that overconfidence in these applications could have an adverse psychological impact. Bearing in mind that there is a strong desire to return to normal in many parts of our society; the use of these applications could contribute to a false sense of security, which could compromise individual efforts to stem the epidemic. The name of some of these applications, such as StopCovid or Immuni, does not help the psychological overhype.

The effectiveness of such applications could not be appreciated without the ever greater deployment of human, material and logistical resources. These technologies are potentially only part of the solution and their use requires considerable human support and a policy of access to tests and isolation of contaminated people. For example, in South Korea or Singapore, the use of an application was accompanied by a huge recruitment of skilled labour to accompany people alerted by their telephone to enforce isolation measures.

Generaly, we still don’t have a fundamental understanding of all of the characteristics of the disease, its reproduction rate and impact on certain parts of the population, such as children. We therefore still have a very skewed perception of how, these applications could impact the spread of the disease, even if they were used correctly.

While the effectiveness of these applications remains uncertain, what is clear is the potential violation of rights and freedoms. The issues relating to privacy and the protection of personal information, specifically sensitive health and geolocation data, have been widely denounced by protection authorities around the world, such as the Office of the Privacy Commissioner of Canada and the National Commission for Computing and Liberties (CNIL) in France. The debate often raises a few technical characteristics related to the protection of privacy: Bluetooth vs GPS, centralization vs peer-to-peer, data collected vs stored on the phone, public health actors vs private actors. These questions, while relevant, obscure important social questions.

The use of these applications could lead to stigmatisation, discrimination and exlusion. First, those who refuse to use them or do not have access to them could be prohibited from traveling or accessing certain public places, even at their work. In addition, the most vulnerable parts of our popuiation – the poor, the historically excluded, are naturally the ones most affected by the virus. Discrimination against them could be reinforced by the use of technology which can lead to refusal to enter shops and access to certain services. The Ontario Human Rights Commission has warned of the risks of exclusion of populations already particularly vulnerable to the pandemic.

Finally, the use of this type of technology will contribute to a form of acceptance by our society of generalised technological surveillance. As our tolerance to surveillance mechanisms in public spaces increases, it is likely that this kind of tool will continue being used beyond the pandemic. From a legal point of view, it is absolutely necessary to ensure that the rules adopted to allow the use of these technologies remain exceptional and limited in time. In the past, the declaration of a state of emergency to combat terrorism in the United States and in Europe has led to the incorporation of special measures into ordinary law. The current state of health emergency should not lead to the same results.

This « technological solutionism » should not be seen as the catch-all solution to the COVID-19 pandemic. It is one of many ways to address deconfinement and must be addressed with careful consideration. There have been, of course, valuable uses of AI, in particular in understanding the disease and its spread, searching for new molecules and developing a vaccine. But for surveillance, the use of AI and tracing tools has uncertain advantages and major social risks. We must weigh the benefits of such technologies with their considerable risks. Instead, we must focus on encouraging technological solutions that are effective and that have much more limited societal risks.

  • Céline Castets-Renard

    Professeure à la Faculté de droit, titulaire de la Chaire L'intelligence artificielle responsable à l'échelle mondiale

    Université d’Ottawa

  • Guillaume Macaux

    Conseiller scientifique

    Observatoire international sur les impacts sociétaux de l’IA et du numérique

  • Philippe Besse

    Professeur au Département de Génie Mathématique et Modélisation

    Université de Toulouse – INSA

  • Eleonore Fournier-Tombs

    Scientifique des données dans le domaine humanitaire

    Université d’Ottawa et Nations Unies

Articles récents

Nous joindre

On reste en contact?

Vous souhaitez être au courant des dernières activités de l’Observatoire? Inscrivez-vous à notre infolettre.

L'Observatoire international sur les impacts sociétaux de l'IA et du numérique est rendu possible grâce au soutien des Fonds de recherche du Québec.