Les agents conversationnels intelligents peuvent donner à leurs utilisateurs des illusions de grandeur et les mener à une «psychose liée à l’IA», préviennent deux psychiatres de l’UdeM.
Votre agent conversationnel intelligent est-il d’accord avec vous sur tout, allant jusqu’à vous qualifier de génie? Deux professeurs au Département de psychiatrie et d’addictologie de la Faculté de médecine de l’UdeM mettent en garde contre la «psychose liée à l’intelligence artificielle» si vous ne faites pas preuve de vigilance.
Dans un article publié dans le JMIR Mental Health, Alexandre Hudon et Emmanuel Stip examinent un phénomène social: des personnes prédisposées à la psychose se laissent entraîner par les flatteries de ChatGPT et d’autres agents conversationnels basés sur de grands modèles de langage.
«Avec l’arrivée de nouveaux agents conversationnels, certains individus plus vulnérables peuvent commencer à percevoir ces systèmes comme humains», explique Alexandre Hudon, médecin psychiatre à l’Institut universitaire en santé mentale de Montréal, affilié à l’UdeM.
«Lorsque l’intelligence artificielle [IA] répond de manière trop convaincante, elle peut parfois amplifier des inquiétudes ou des croyances qui prennent alors une tournure délirante. Les médias ont récemment fait état de plusieurs cas problématiques, notamment des délires et des suicides», ajoute-t-il.
Ainsi, en septembre, un reportage de CBC a présenté le cas d’Anthony Tan, un jeune développeur d’applications de Toronto qui a sombré dans une paranoïa délirante après des mois d’échanges intenses avec ChatGPT d’OpenAI et qui a dû être hospitalisé.
Les médias ont aussi rapporté l’histoire d’Allan Brooks, un recruteur d’entreprise d’âge moyen de Cobourg, en Ontario, qui était persuadé d’avoir découvert une théorie mathématique révolutionnaire après que ChatGPT eut validé et amplifié ses idées à plusieurs reprises.
Ironiquement, c’est un autre agent conversationnel – Gemini AI de Google – qui a convaincu cet homme qu’il n’était pas victime de délires.
Allan Brooks fait partie des sept personnes nommées dans des poursuites intentées le mois dernier contre OpenAI aux États-Unis par le Tech Justice Law Project et le Social Media Victims Law Center, qui affirment que ChatGPT, utilisé par 800 millions de personnes, a entraîné des dépressions nerveuses et des suicides.



