Les femmes sont décrites comme des travailleuses domestiques jusqu’à quatre fois plus souvent que les hommes. Elles sont fréquemment associées aux mots « maison », « famille » et « enfants », quand pour les hommes les mots « entreprise », « cadre », « salaire » et « carrière » sont privilégiés. Ce constat est fait par l’UNESCO qui dévoile son étude « Préjugés contre les femmes et les filles dans les grands modèles de langage (LLM) ». Ces derniers sont des outils de traitement du langage naturel qui sous-tendent les plateformes d’IA générative les plus répandues dont GPT-3.5 et GPT-2 (OpenAI) et Llama 2 (META).
« Chaque jour, de plus en plus de personnes utilisent de grands modèles de langage dans leur travail, leurs études et chez elles, alerte Audrey Azoulay, directrice générale de l’UNESCO. Ces nouvelles applications d’IA ont le pouvoir de subtilement façonner les perceptions de millions de personnes, de telle sorte que même de légers préjugés sexistes dans le contenu qu’elles génèrent peuvent amplifier de manière significative les inégalités dans le monde réel ». Et d’ajouter : « Notre Organisation appelle les gouvernements à élaborer et à faire appliquer des cadres réglementaires clairs, et les entreprises privées à effectuer un suivi et une évaluation continus des préjugés structurels, comme le prévoit la Recommandation de l’UNESCO sur l’éthique de l’intelligence artificielle, adoptée à l’unanimité par nos États membres en novembre 2021 ».