Manque de confidentialité et de transparence dans le traitement des données, manipulation des algorithmes de classement, diffusion incontrôlée de fausses nouvelles: Facebook se voit pointé du doigt alors que son impact dans le domaine de la santé ne cesse de croître. Au bénéfice ou au détriment du patient?
Boosté par le Covid-19
...
Nul ne niera que l'objectif initial du grand réseau social, connecter les gens, ait rencontré les faveurs de publics variés, parmi lesquels de nombreux patients isolés luttant contre une maladie grave en recherche d'un groupe de soutien, d'une parole d'encouragement ou d'un complément d'avis médical venant de personnes atteintes des mêmes pathologies que la leur. La récente pandémie, son confinement et l'insécurité ambiante ont accentué ce rôle. La greffe de l'outil de communication WhatsApp à la plate-forme Facebook, largement utilisé dans le cadre de la télémédecine pour accéder en ligne directe à son médecin, a familiarisé le patient avec une médecine dématérialisée, gratuite, aux réponses instantanées. En certains endroits, il a également joué un rôle important dans la communication gouvernementale, tels aux États-Unis où on estime que 20% des personnes se sont inscrites aux messages WhatsApp de leurs gouvernements locaux soucieux d'améliorer la diffusion de leurs messages sur la santé. De nombreux patients se tournent ainsi vers leurs pairs pour un compte rendu non filtré de procédures médicales particulières, ou sur les effets secondaires d'un nouveau médicament ou d'un vaccin. Cette recherche de témoins ayant déjà vécu ce qu'ils vivent favorise l'émergence d'un nouveau type d'influenceurs, des "patients leaders" aux audiences impressionnantes pour des pathologies ciblées où l'information manque. Ainsi cette patiente atteinte de gastroparésie qui gère un groupe Facebook privé de quelques 21.000 membres. Ou cette mère de famille souffrant de glaucome congénital qui a créé la communauté de soutien Mommies with Guides après avoir rencontré une autre maman aveugle comme elle, groupe qui compte déjà quelques 2.500 personnes en quelques mois d'existence. Les exemples similaires sont nombreux, de qualité scientifique fort diverse, où le meilleur côtoie le pire. Une initiative faisant appel à l'IA (Intelligence artificielle) dans la prévention du suicide est exemplaire des bénéfices et risques de la démarche. Depuis des années, la plate-forme sociale a permis aux utilisateurs de signaler des contenus suicidaires, qui étaient envoyés à des examinateurs internes pour évaluation avant de proposer une assistance téléphonique ou, dans les cas extrêmes, de faire intervenir une équipe d'intervention. Le réseau social a intensifié ses efforts après que plusieurs personnes aient diffusé en direct leur suicide sur Facebook Live au début de 2017. Il y a un an, Facebook a même ajouté une technologie basée sur l'intelligence artificielle qui signale automatiquement les messages contenant des expressions de pensées suicidaires aux examinateurs humains de l'entreprise afin de les analyser. La société utilise désormais à la fois des algorithmes et des rapports d'utilisateurs pour signaler d'éventuelles menaces de suicide. Facebook affirme que le programme amélioré par le recours à l'Intelligence artificielle signale 20 fois plus de cas d'idées suicidaires aux examinateurs de contenu, doublant le recours actif aux supports de prévention de passage à l'acte. Des experts en santé mentale tirent la sonnette d'alarme, arguant des dangers collatéraux que ces appels du géant des médias sociaux à la police comportent. Le risque existe en effet de précipiter involontairement le passage à l'acte, ou d'obliger des personnes non suicidaires à subir des évaluations psychiatriques abusives. L'étude, américaine, évoque même le risque d'arrestations administratives ou de fusillades en cas de résistance musclée. Fort investie dans la recherche en IA (Facebook Artificial Intelligence Research - FAIR), le groupe se déploie aussi dans l'imagerie médicale, afin de réduire considérablement le temps d'interprétation des examens par résonance magnétique (IRM) grâce à l'interprétation à distance couplée au recours à l'intelligence artificielle. Autres chantiers, cette application détectant des maladies rares à partir du visage d'un patient, celle précisant le risque de cancer du poumon de nodules pulmonaires détectés par tomodensitométrie ou diagnostiquant la maladie d'Alzheimer plusieurs années avant les méthodes traditionnelles. Un pareil enthousiasme mérite de se voir pondéré, d'autant plus qu'il n'est de bénéfice sans risque, on y reviendra plus loin. Plus accessibles au grand public, des applications médicales en dehors de l'écosystème Facebook collectent un grand nombre de données fournies par les patients qui les utilisent telle la célèbre Smartwatch, véritable couteau suisse de surveillance continue. Qu'il s'agisse de monitorer la qualité du sommeil, le rythme cardiaque et ses anomalies, la saturation en oxygène, la pression artérielle, l'attrait constitué par une connexion en direct avec les services de santé et autres fonctionnalités sociales doit être contrebalancé par l'opacité qui entoure la sauvegarde et le traitement ultérieur de ces données personnelles échappant complètement à tout contrôle. Le lien que permet Facebook entre ces données et des initiatives commerciales proposant des traitements est tout aussi problématique. De nombreux accessoires et applications de santé participent à ces pratiques, ciblées par une récente publication du Wall Street Journal. Rares sont celles (11 sur les 70 étudiées) ayant pris la peine d'informer les utilisateurs du partage de leurs données avec le réseau social. La même inquiétude existe par ailleurs pour le traitement partagé des données recueillies en imagerie médicale, en reconnaissance de coupes anatomopathologiques, d'analyse de lésions dermatologiques et de fond d'oeil, ou de suspicion de maladie d'Alzheimer. Dr Facebook et Mr Hyde font fort bon ménage.