La dépendance à l’IA est un sujet de préoccupation majeur pour les psychiatres et les experts du secteur. Alors que de nouvelles IA conversationnelles font leur apparition chaque jour, aussi bien dans la sphère privée qu’au travail, il est crucial de se pencher sur les conséquences de nos nouveaux usages. Réflexion.

L’anthropomorphisation et la dépendance à l’IA
Plus humains que nature
Même si elles ne sont pas douées de raisonnement ou d’émotions, les intelligences artificielles conversationnelles (les « chats » ou « chatbots », pour aller plus vite) sont programmées pour donner illusion. L’imitation du vivant poussée à l’extrême. Au point que ces robots sont désormais capables de prodiguer des conseils de cœur ou de tenir des discussions philosophiques.
De plus en plus, les développeurs donnent même des voix à ces intelligences. Elles qui ne captaient que notre vue vont donc désormais bien au-delà des simples échanges texto, en monopolisant deux de nos cinq sens. Cette petite révolution a encore donné un coup d’accélérateur à l’IA en démultipliant ses possibilités. En usant de ces atouts, les IA qui étaient de simples outils de conversation, de recherche ou de divertissement deviennent des… proches. Vous pensez qu’on exagère ? Et pourtant.
Amis, confidents, amoureux ou même psys
De nombreuses applications se spécialisent dans la création d’un « lien » idéalisé avec l’IA. Des jeux mobiles, accessibles même aux adolescents, permettent par exemple de donner un avatar à l’IA pour qu’elle assume le rôle de « petit(e)-ami(e) ». Grâce à ses formidables capacités d’adaptation, l’IA permet de poursuivre le jeu indéfiniment en créant des scénarii conçus spécialement pour le joueur. Des fantasmes plus ou moins innocents, savamment entretenus. Et ce qui démarre généralement comme un jeu devient vite très addictif…
Dans un contexte géopolitique et social anxiogène, se tourner vers le monde virtuel est particulièrement tentant. On l’a constaté avec les jeux vidéo. Les IA, avec leur sens du réalisme si caractéristique, amplifient naturellement le phénomène. Après tout, elles permettent le meilleur des mondes : le plaisir des relations sociales sans leurs (nombreux) inconvénients. Les jeunes générations, bercées au numérique depuis l’enfance, sont particulièrement impactées. On peut également imaginer une percée progressive chez les seniors, premières victimes de la solitude rampante.
Pour les uns comme pour les autres, les chatbots permettent de s’évader, mais pas uniquement. Les IA fonctionnent également comme une source d’informations, de divertissement, et comme des confidents. Les études montrent que les utilisateurs réguliers d’IA confient des informations très intimes, qui ne sortent généralement pas du cadre le plus privé. Et encore !
Confident numérique, doudou, journal intime, psychanalyste, ami : les IA sont tout cela à la fois. Le contrôle en plus. Le jugement en moins.
La dépendance à l’IA et l’isolement social
Des bénéfices potentiellement toxiques
On l’a vu, l’IA a énormément d’avantages pour qui s’y intéresse :
- outil de divertissement et d’évasion,
- qui procure un sentiment sécurisant de contrôle,
- et permet de combler un manque,
- en se donnant l’illusion d’entretenir une relation sociale,
- sans devoir fournir les efforts attendus lors de toute relation.
Évidemment, ce constat est très tentant. Et en même temps assez alarmant.
Les experts se sont donc demandés si l’utilisation abusive d’IA conversationnelles pouvait entraîner ou aggraver l’isolement social et mettre en péril la santé mentale des utilisateurs. OpenAI, la société derrière ChatGPT, a commandé une large étude sur le sujet, s’appuyant sur plusieurs millions d’interactions avec son système.
Un impact psychologique et sur l’humeur
Cette étude, commandée par un acteur privé et directement impliqué, doit bien sûr être prise avec des pincettes. Elle apporte toutefois de premiers éléments de réponse très intéressants. Par ailleurs, elle a été menée par une institution parmi les plus reconnues et totalement indépendante, à savoir le MIT.
Cette étude se concentre d’abord sur l’humeur générale des utilisateurs. Il en ressort plusieurs données importantes :
- la plupart des utilisateurs utilisent les IA conversationnelles comme un soutien émotionnel ou un antistress,
- et cela fonctionne pour la majorité, qui constate une légère amélioration de l’humeur,
- cette amélioration ne dure pas, toutefois,
- et dureraient même moins longtemps que les améliorations apportées par de véritables interactions sociales (par exemple, une discussion avec un ami proche).
Contrairement à ce qu’on pourrait imaginer, les conversations pare synthèse vocale ont moins d’impactant sur l’humeur. En revanche, elles seraient plus addictives, du fait du temps de latence extrêmement faible et de l’anthropomorphisation.
Un lien de corrélation… pas encore de cause à effet
Malgré tout, ces premières informations semblent positives. Sauf que…
Une minorité non négligeable des utilisateurs (10 % de ceux qui conversent le plus avec l’IA générative au quotidien) présente des signaux préoccupants tels que l’augmentation du sentiment de solitude, une dépendance émotionnelle accrue, ainsi qu’une diminution des interactions sociales réelles.
Source : usbeketrica.com
Toujours dans cette étude, le MIT a mis en évidence une corrélation entre l’utilisation intensive de l’IA par certains utilisateurs et une dépendance affective ainsi qu’un sentiment accru de solitude. Toutefois, l’étude n’est pas parvenue à démontrer un lien de cause à effet clair. Ce sont plutôt les individus déjà isolés socialement qui s’engouffrent dans les chatbots, sans que ceux-ci ne soient à l’origine de cet isolement.

Lutter contre la dépendance à l’IA aujourd’hui et demain
Des mesures préventives et de contrôle
Cette analyse du MIT et les autres menées en parallèle doivent servir de base à notre réflexion autour de l’IA. Puisque les outils d’intelligence artificielle ne sont pas prêts de disparaître – bien au contraire – il est crucial de s’emparer des questions autour de la sécurité, de l’éthique et du bien-être. Il en va de notre responsabilité collective et individuelle.
Collective, parce que les législateurs, les experts de la psychologie humaine et les entreprises doivent se rassembler pour définir des garde-fous efficaces. Pourquoi pas, des systèmes d’alerte, ou bien des paramètres qui empêcheraient l’IA de relancer indéfiniment une conversation sur des sujets intimes ou chargés émotionnellement. Peut-être que l’IA doit être capable de dire, demain, à l’utilisateur qu’il a passé beaucoup de temps à converser avec elle et qu’il lui faut s’aérer l’esprit… Tout est à imaginer.
Enfin, la responsabilité est individuelle. Si les experts mettent à disposition les outils, chacun devra encore se former et sensibiliser son entourage, être attentif aux signes d’isolement et de mal-être parmi ses proches, configurer les systèmes de contrôle parental sur les appareils des mineurs, et ainsi de suite.
Ça vous paraît compliqué ? Eh bien, pas tant que ça. Toutes ces choses, nous sommes déjà supposés les faire au quotidien. Il s’agit seulement d’être attentif les uns aux autres et de faire preuve d’empathie.
Nous en sommes tous capables.