Les chatbots, auxiliaires utiles contre la crise du coronavirus?
publié le 14 juillet 2020
Depuis déjà quelque temps, les chatbots ou “agents conversationnels” (automatisés) ont fait leur apparition dans le secteur de la santé, utilisés essentiellement comme outils permettant d’effectuer un suivi d’observance de traitement, chez les patients soignés à domicile ou récemment hospitalisés, ou encore pour préparer une visite chez le médecin.
Pendant la pandémie, les chatbots ont reçu une nouvelle mission. En l’occurence, du screening Covid-19, afin de déterminer si les symptômes éprouvés sont le signal d’une infection par le coronavirus, ou si de récents comportements ont potentiellement accentué les risques d’infections, ou encore afin de trier les patients en amont et de les orienter vers le service ad hoc…
Ces agents conversationnels sont basés sur l’usage de questions dont l’enchaînement s’effectue en cascade “intelligente”, chaque réponse étant analysée en temps réel par des algorithmes qui déterminent quelle est la meilleure question suivante ou la meilleure réponse possible. L’“échange” entre utilisateur et chatbot s’effectue encore majoritairement par écrit, en pianotant sur son clavier, que ce soit celui d’un ordinateur ou d’un smartphone. Certaines variantes de chatbot sont toutefois orales, pour ceux qui s’appuient sur la reconnaissance vocale.
Dans les deux cas, l’évolution technologique tend à rendre les agents conversationnels plus “sensitifs”. L’analyse automatique de “sentiment” commence à être utilisée: les mots et formulations utilisés par le requérant – écrits ou oraux – sont analysés pour détecter l’humeur, les émotions… Dans le cas d’un chatbot vocal, c’est par exemple l’intonation vocale, le débit de parole de l’utilisateur qui sont pris en considération.
Mais ces chatbots sont-ils considérés comme fiables et efficaces par les utilisateurs? Leur fait-on confiance? Les réponses voire conseils qu’ils prodiguent sont-ils dès lors suivis? C’est ce qu’une étude récente de chercheurs de l’Université d’Indiana et de Temple (Pennsylvanie), dans le cadre du Covid-19, a voulu déterminer.
Pour les besoins de l’étude, réalisée auprès de 371 personnes, les réactions de ces dernières ont été analysées face aux réponses et recommandations qu’elles recevaient soit d’un chatbot (textuel), soit d’une personne en chair et en os. Les deux “interlocuteurs” donnant les mêmes réponses.
Le but était de vérifier quel degré de confiance elles accordaient à leur “interlocuteur” et, dès lors, de déterminer si le chatbot était aussi bien perçu ou non qu’un interlocuteur humain.
Les auteurs de l’étude ont pu en tirer comme conclusion que la confiance était dans une large mesure induite par la perception de ce qu’est la source d’informations (en ce compris le prestataire de services prodiguant l’information sur le coronavirus) et par la perception des “aptitudes” de l’“interlocuteur”.
D’une manière générale, “les chatbots sont perçus comme ayant moins de “compétences”, moins d’intégrité et moins de bienveillance.
Ce déficit de perception et une certaine dose de méfiance vis-à-vis des chatbots de “screening Covid-19” ont sans doute été influencés, dans une certaine mesure, par certaines informations parues dans la presse concernant les chatbots, estiment encore les auteurs de l’étude.
Certains participants, toutefois, considèrent les chatbots comme tout autant “performants” – en termes de qualité de service – qu’un opérateur humain. Et, dans ce cas, les auteurs de l’étude posent un autre constat intéressant: “lorsque les chatbots sont perçus comme fournissant la même qualité de service qu’un humain, les utilisateurs ont tendance à les considérer comme plus persuasifs, à être davantage satisfaits et plus enclins à y avoir recours.”
D’où leur recommandation aux acteurs du secteur de la santé qui désirent recourir à ce genre d’outil: “To offset users’ biases, a necessary component in deploying chatbots for Covid-19 screening is a strong messaging campaign that emphasizes the chatbot’s ability. Because trust in the provider strongly influences perceptions of ability, building on the organization’s reputation may also prove useful.”
L’étude estime par ailleurs que le niveau de familiarité de l’utilisateur avec des outils numériques et des interfaces artificielles ne semble pas influencer fortement la manière dont les chatbots sont perçus.
Les résultats de l’étude réalisée par les universités d’Indiana et de Temple ont été publiés dans le journal de l’association américaine d’informatique médicale.