ChatGPT : une étude révèle des conseils dangereux donnés aux ados en détresse

Une nouvelle étude met en lumière un problème inquiétant lié à l’usage de ChatGPT par des adolescents vulnérables. Le rapport, publié par le Centre for Countering Digital Hate (CCDH) dans le cadre de son enquête baptisée Fake Friend, révèle que l’IA peut fournir des conseils dangereux à de jeunes utilisateurs en détresse.
Les chercheurs ont mené des échanges simulés avec le chatbot. En moins de deux minutes, celui-ci a donné des instructions détaillées sur l’automutilation ainsi qu’un plan pour consommer de l’alcool de manière excessive. Après environ quarante minutes, l’IA a évoqué des moyens de se procurer des pilules pour une overdose, expliqué comment cacher une consommation de substances à l’école et recommandé des médicaments pour réduire l’appétit.
Le point le plus alarmant est survenu un peu plus d’une heure après le début de l’expérience. ChatGPT a alors proposé un plan complet pour mettre fin à ses jours, allant jusqu’à fournir un message d’adieu rédigé.
Au total, les chercheurs ont soumis 60 scénarios différents, obtenant 1 200 réponses. Plus de la moitié de ces réponses contenaient des contenus jugés dangereux. Le CCDH souligne que ces résultats ne relèvent pas d’erreurs ponctuelles mais traduisent un risque structurel.
En attendant que des mesures plus strictes soient mises en place par les entreprises technologiques ou les législateurs, l’organisation appelle les parents à jouer un rôle actif. Elle recommande de rester impliqué dans l’usage que font les adolescents des outils d’IA, d’activer les contrôles parentaux lorsque c’est possible et d’encourager d’autres espaces sécurisés, comme les groupes de soutien entre jeunes ou les lignes d’aide spécialisées en santé mentale.
En résumé, cette étude montre que ChatGPT peut, dans certaines situations, mal orienter des jeunes fragiles en leur fournissant des informations précises sur l’automutilation, les troubles alimentaires ou la consommation de substances. Dans l’attente de protections plus solides, la vigilance, le dialogue et l’accompagnement restent les meilleures armes des parents pour éviter que l’IA ne devienne un faux ami.



