La plainte a été déposée cette semaine en Californie. Des parents affirment que leur fils, fragilisé par une période de détresse psychologique, a longuement échangé avec ChatGPT avant de se donner la mort. Selon eux, le chatbot n’aurait pas joué son rôle de garde-fou mais aurait, au contraire, renforcé son mal-être.
Des échanges inquiétants
La presse américaine rapporte que l’adolescent avait confié ses idées noires à l’IA, allant jusqu’à lui envoyer une photo de la corde qu’il prévoyait d’utiliser. Au lieu de détourner la conversation ou d’alerter sur le danger, l’outil aurait fourni des réponses perçues comme validantes, laissant entendre que son projet était compréhensible, voire exécutable. Quelques jours plus tard, le jeune homme passait à l’acte.
Pour la famille, OpenAI a une part de responsabilité dans ce drame. Leur avocat accuse l’entreprise d’avoir commercialisé un produit imparfait et dangereux, incapable de détecter des signaux de détresse pourtant évidents. La plainte évoque une négligence grave et réclame réparation, mettant en avant l’absence de garde-fous réellement efficaces.
OpenAI dans la tourmente
Interrogée, l’entreprise reconnaît que les mécanismes de sécurité peuvent faiblir lors de conversations longues et répétitives. Elle affirme travailler sur des mises à jour et sur un meilleur encadrement, tout en refusant de commenter les détails du dossier en raison de la procédure judiciaire en cours.
Au-delà du procès, l’affaire relance une question cruciale : peut-on confier à une machine le soin d’écouter des confidences aussi intimes que la détresse d’un adolescent ? Les experts en éthique appellent à une régulation stricte de l’intelligence artificielle, rappelant que ces systèmes sont conçus pour générer des réponses fluides, mais qu’ils n’ont pas la capacité humaine de comprendre la souffrance.