un phénomène en pleine expansion — RT en français



La dépendance émotionnelle à ChatGPT, un sujet de plus en plus discuté, soulève d’importantes questions sur les effets psychologiques et sociaux des nouvelles technologies. Si l’IA, grâce à sa capacité à écouter peut offrir un réconfort immédiat, elle pose aussi des risques, en particulier pour ceux qui cherchent un soutien constant.

L’Intelligence artificielle (IA), de plus en plus avancée, répond à tout type de besoin, notamment en période de solitude ou de détresse émotionnelle. Cependant, cette proximité avec la machine soulève des questions sur ses effets psychologiques et émotionnels, relève dans son article le 6 avril France 24

Le 21 mars dernier, une étude menée par OpenAI et l’Institut de technologie du Massachusetts (MIT) a révélé que les utilisateurs interagissant quotidiennement avec le bot d’OpenAI ont tendance à développer des sentiments de solitude, une dépendance émotionnelle et une addiction à l’IA.

Les chercheurs ont analysé plus de 4 millions de conversations et interrogé plus de 4 000 utilisateurs. Ils en concluent que l’utilisation quotidienne accrue de ChatGPT, sous toutes ses formes, est due à la solitude, la dépendance, ainsi qu’à une peur de sociabiliser.

L’étude souligne également que les utilisateurs ayant un attachement émotionnel prononcé et une plus grande confiance envers ChatGPT sont particulièrement vulnérables à cette solitude accrue.

« Dépendance à la gratification immédiate »

 

Ce mécanisme de dépendance s’applique aussi aux applications de rencontres, où des individus peuvent développer des sentiments excessifs pour des personnes qu’ils n’ont jamais rencontrées.

Le smartphone, en tant que support, amplifie ce risque de dépendance. Les agents conversationnels comme ChatGPT offrent des réponses instantanées, ce qui crée une « dépendance à la gratification immédiate », activant ainsi les mécanismes de récompense dans le cerveau.

Ce phénomène touche particulièrement les jeunes, déjà exposés à d’autres chatbots, comme « My AI » sur Snapchat, utilisé principalement par les 18-24 ans. Cette intrusion dans la vie privée des adolescents a récemment suscité des inquiétudes chez certains parents.

Une solution temporaire ou une fausse promesse?

En 2024, une enquête menée par YouGov a révélé qu’environ la moitié des jeunes adultes américains se sentent à l’aise de discuter de leurs problèmes de santé mentale avec une IA. Cela se produit dans un contexte où les professionnels de santé mentale sont de plus en plus rares, où les coûts des soins sont élevés et où les thérapeutes sont souvent surchargés.

En France, la situation est comparable, avec des disparités territoriales marquées, notamment dans les zones classées « déserts médicaux ». 

L’article précise que l’IA peut intervenir à certaines étapes de la psychothérapie, en complément d’un traitement traditionnel. Elle peut aider les personnes en crise émotionnelle ou en difficulté de résolution de problème, tout en capitalisant sur le travail effectué en thérapie.

En conclusion, l’usage excessif d’outils comme ChatGPT pour gérer des problèmes émotionnels soulève des questions de fond sur l’impact des technologies sur la santé mentale. Si l’IA peut être un soutien précieux, notamment pour ceux qui ne peuvent accéder facilement à un professionnel, il est essentiel de comprendre ses limites.

ChatGPT, l’agent conversationnel d’OpenAI, compte plus de 400 millions d’utilisateurs actifs hebdomadaires dans le monde, dont une part croissante recherche des conseils personnels et de la compagnie.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *