OpenAI a mis à jour sa politique d’utilisation de ChatGPT, interdisant désormais le recours à son système d’intelligence artificielle pour donner des conseils médicaux, juridiques ou tout autre type d’avis nécessitant une licence ou une certification professionnelle.
Les nouvelles règles figurent dans les Usage Policies officielles de l’entreprise.
Selon ces directives, les utilisateurs ne peuvent plus employer ChatGPT pour :
-
des consultations nécessitant une certification professionnelle, y compris les conseils médicaux ou juridiques ;
-
la reconnaissance faciale ou personnelle sans le consentement explicite des personnes concernées ;
-
la prise de décisions critiques dans des domaines tels que la finance, l’éducation, le logement, la migration ou l’emploi, sans supervision humaine ;
-
des actes de tricherie académique ou toute manipulation des résultats d’évaluation.
OpenAI explique que cette révision de sa politique vise à renforcer la sécurité des utilisateurs et à prévenir les dommages potentiels pouvant résulter d’un usage inapproprié ou excessif du système.
Plus tôt, la société avait annoncé travailler sur de nouvelles fonctionnalités destinées à améliorer les réponses du modèle sur les sujets sensibles tels que le stress, le bien-être psychologique ou les dilemmes éthiques. « Nous nous efforçons de faire en sorte que ChatGPT reste un outil utile, sûr et responsable pour tous les utilisateurs », a déclaré OpenAI dans un communiqué officiel.