L. Bardon . – Déjà en 2016, une étude publiée dans la revue Suicide and Life-Threatening Behaviour avait montré que le taux de précision du machine learning dans l’identification de personnes suicidaires était supérieur à 93%. Pour obtenir un tel résultat, les chercheurs avaient analysé le langage verbal et non verbal, puis envoyé les données à un algorithme de d’apprentissage machine qui avait ensuite déterminer avec une précision remarquable si la personne était suicidaire, mentalement malade mais pas suicidaire, ou ni l’une ni l’autre.
Il n’existe aucun test sanguin pour diagnostiquer la dépression, ni de scanner du cerveau qui puisse repérer l’anxiété avant qu’elle ne se manifeste. Les pensées suicidaires ne peuvent pas être diagnostiquées par une biopsie, et même si les psychiatres craignent que la pandémie de covid-19 ait de graves répercussions sur la santé mentale, ils n’ont pas de moyen facile d’en assurer le suivi. Dans le langage de la médecine, il n’existe pas un seul biomarqueur fiable qui puisse être utilisé pour aider à diagnostiquer une quelconque condition psychiatrique. Le diagnostic demeure un processus lent, difficile et subjectif et empêche les chercheurs de comprendre la véritable nature et les causes du spectre des maladies mentales ou de mettre au point de meilleurs traitements.
Mais s’il y avait d’autres moyens ? Et si nous n’écoutions pas seulement les mots mais les mesurions ? Cela pourrait-il aider les psychiatres à suivre les indices verbaux qui pourraient nous ramener à notre état d’esprit ?
Dans le passé, capture les informations liées à une personne ou analyser des déclarations d’une personne pour établir un diagnostic reposait sur les compétences, l’expérience et les opinions de chaque psychiatre. Mais grâce à l’omniprésence des smartphones et des médias sociaux, le langage des gens n’a jamais été aussi facile à enregistrer, numériser et analyser. Et un nombre croissant de chercheurs passent au crible les données que nous produisons – de notre choix de langue ou de nos habitudes de sommeil à la fréquence à laquelle nous appelons nos amis et à ce que nous écrivons sur Twitter et Facebook- pour rechercher des signes de dépression, d’anxiété, de trouble bipolaire et d’autres syndromes.
Pour Rezaii et d’autres, la possibilité de collecter ces données et de les analyser est la prochaine grande avancée de la psychiatrie. Ils l’appellent « phénotypage numérique ». Environ une personne sur quatre dans le monde souffrira d’un syndrome psychiatrique au cours de sa vie. Deux personnes sur quatre possèdent aujourd’hui un smartphone. L’utilisation de ces gadgets pour capturer et analyser les modèles de parole et de texte pourrait servir de système d’alerte précoce. Cela donnerait aux médecins le temps d’intervenir auprès des personnes les plus à risque, peut-être pour les surveiller de plus près – ou même pour essayer des thérapies visant à réduire le risque d’un événement psychotique.
Mais certains éthiciens craignent que le phénotypage numérique ne brouille les pistes sur ce qui pourrait ou devrait être classé, réglementé et protégé en tant que données médicales. Facebook, par exemple, prétend utiliser des algorithmes d’IA pour détecter des personnes risquant de se suicider, en filtrant le langage dans les messages et les commentaires préoccupants des amis et de la famille. La société affirme avoir alerté les autorités pour qu’elles aident les gens dans au moins 3 500 cas. Mais des chercheurs indépendants se plaignent qu’elle n’a pas révélé comment son système fonctionne ni ce qu’elle fait des données qu’elle recueille.