...
Différents éléments rapprochent les deux professions.L'indépendance de jugement par exemple, qui est garantie tantôt par la liberté diagnostique et thérapeutique chez les uns, tantôt par l'indépendance des avocats et des juges chez les autres. S'ajoutent à cette indépendance de jugement le secret professionnel et le devoir de compétence, qui oblige à la formation continue. Cela s'accompagne d'une responsabilité double : juridique d'une part, éthique d'autre part. " Nous sommes donc face à deux professions libérales, avec un contrôle d'accès à la profession, des règles déontologiques propres, une autoréglementation par un ou plusieurs organes spécialement habilité(s) ", note le Pr Gregory Lewkowicz.C'est dans ce contexte que le tournant numérique s'inscrit et provoque un ensemble de craintes. La crainte d'être remplacé par la machine, ce qui touche à l'indépendance de jugement. La crainte de la standardisation des pratiques, ou encore la crainte de perdre le sens de la relation patient/client.Va-t-on avoir de nouveaux juristes et de nouveaux médecins ? " C'est la même histoire que l'on raconte des deux côtés : le droit P4 - prédictif, préventif, personnalisé et participatif - et la médecine P4 - prédictive, préventive, personnalisée et participative. Cette transformation des professions est basée sur l'idée que l'amoncellement de données permet d'aller plus loin dans l'approche evidence-based. On aura donc droit à une médecine basée sur les faits et un droit basé sur les faits. C'est la même chose. Cette mouvance est poussée par des acteurs institutionnels ", répond le professeur de droit.Mais on est encore loin, car de nombreux demeurent.Premièrement, si la machine semble dépasser l'humain, elle le fait dans un cadre précis. Si on la sort de ce cadre, les résultats sont différents. " On a eu droit à des exemples calamiteux en droit, notamment pour l'attribution des aides sociales aux États-Unis, car les modèles statistiques étaient dysfonctionnels ", explique le Pr Lewkowicz. En médecine, le problème de reproductibilité se pose. Car si une machine permet de trouver un diagnostic différentiel pour une base de donnée X, elle peut ne pas y arriver pour une base de données Y.Ce premier problème en pose en deuxième : le risque d'une standardisation d'erreurs. C'est un effet boule de neige : si l'on fait aveuglément confiance à la machine, il est possible de standardiser des processus erronés qui ne seront valables que pour une base de données mais pas pour l'ensemble de la population.Qui endossera la responsabilité ?Dans le futur, qui endossera la responsabilité : le fabricant de la machine, ou le médecin ? Car si la machine fonctionne dans 98% des cas, elle est faillible. Et on le répète à tue-tête : la machine ne remplace pas le médecin. Donc c'est à ce dernier que revient la décision. "Quelle est sa responsabilité s'il ne suit pas l'avis de la machine ? Dans quelle mesure, en tant que directeur d'hôpital, vous acceptez que des médecins ne suivent pas la machine ? À l'inverse, êtes-vous dédouané de toute responsabilité si vous suivez les recommandations de la machine sans les comprendre ? Ce sont des questions réelles et sérieuses ", note Gregory Lewkowicz.Des questions d'autant plus légitimes dans le climat actuel, où l'insécurité des données règne. Il suffit de compter combien d'hôpitaux sont hackés par mois. " Cela remet en cause le secret professionnel ", estime le professeur de droit.Comment garantir la valeur des professions ?Dans ce climat où toutes les craintes ne sont pas injustifiées, l'homme de droit conseille : " Il ne faut pas courir derrière la technologie, mais chercher le consensus avec les acteurs. " Le but : éviter le phénomène black box medecine, où les soins sont appliqués sans que l'on comprenne le raisonnement de la machine pour arriver à tel diagnostic différentiel. " Il faut une stratégie pour imbriquer l'IA dans le secteur de la santé ", conclut le Pr Lewkowicz.