Le recours à des robots dits sociaux qui simulent des interactions sociales, sous une forme parfois humanoïde ou animale, peut être utile, notamment comme outil de médiation et de stimulation ludique. À condition de respecter un cadre précis.
Les robots sociaux posent des questions éthiques
L'usage de machines dotées d'une intelligence artificielle susceptibles de capter et d'analyser des données doit être strictement encadré et accompagné afin de respecter les droits des personnes, surtout si celles-ci présentent une maladie neurocognitive.
En principe, toute interaction avec un robot social devrait être précédée d'une information de la personne et du recueil de son consentement. Le cadre juridique et éthique de référence pour guider les équipes trouve sa source dans divers textes intégrés dans les codes de la santé publique, civil, consommation, action sociale et des familles, ou encore le règlement général sur la protection des données personnelles (RGPD). Ce dernier ne cesse par ailleurs de s'enrichir avec de nouvelles recommandations de bonnes pratiques.
Quels droits pour les personnes (droit à l'information/droit civil...) ?
En qualité de patientes, clientes et utilisatrices, les personnes bénéficient du droit de recevoir une information loyale, claire et appropriée, c'est-à-dire adaptée à leur capacité de compréhension. Il est recommandé d'utiliser un langage simple et clair en ayant recours à la méthode FALC (facile à lire et à comprendre) avec des images, des vidéos explicatives, des affichages accessibles. De même, le droit au respect de la vie privée est une priorité. Les informations privées recueillies doivent être conservées en toute sécurité et toujours utilisées à bon escient.
Comment rechercher le consentement ?
Le consentement se définit comme une « manifestation de volonté, libre, spécifique, éclairée et univoque par laquelle la personne concernée accepte, par une déclaration ou par un acte positif clair[1] ». Quatre critères cumulatifs doivent ainsi être remplis pour que le consentement soit reconnu comme valablement recueilli. Il doit également être régulièrement renouvelé ou être retiré à tout moment.
Lorsqu'il n'est plus possible de recueillir un authentique consentement, il importe de rechercher l'assentiment de la personne, c'est-à-dire un accord fondé sur des capacités partielles de compréhension de la situation. Il convient d'analyser la réaction de la personne, pour vérifier qu'elle apprécie et accepte le robot.
Lorsque la personne est hors d'état d'exprimer sa volonté, il est préconisé de recourir à la personne de confiance désignée, son représentant, la famille ou l'un de ses proches, comme en matière de soins. Dans tous les cas, la création d'un « registre des consentements » permet de démontrer les informations transmises et la manière dont la personne a exprimé son consentement, son assentiment ou son refus.
Comment s'assurer de la qualité de l'information donnée ?
En avril 2022, la Cellule éthique (issue de la Délégation au numérique en santé du ministère des Solidarités et de la Santé - DNS) a publié des recommandations de bonnes pratiques pour intégrer l'éthique dès le développement des solutions d'intelligence artificielle en santé. Cette approche « éthique by design » est pertinente pour les robots. Nous l'avions d'ailleurs prescrit dans le rapport sur l'usage des technologies rédigé avec Fabrice Gzil en 2019. Cette méthodologie propose une liste de questions à se poser notamment sur le processus d'information, ainsi que les mécanismes mis en oeuvre pour s'assurer de leur bonne compréhension. Elle constitue un repère intéressant pour les équipes. Au-delà, un audit de la méthodologie pour évaluer la pertinence des informations peut être judicieux. Ces questionnements peuvent s'inscrire dans des réflexions collectives dans le cadre de comités d'éthique.