ChatGPT, en tant que modèle de langage basé sur des probabilités et entraîné sur des données issues du web, n’a pas vocation à fournir des réponses exactes. N’est-ce pas une erreur de le considérer comme une source de savoir?

À aucun moment, au sens strict, ChatGPT n’est explicitement entraîné à dire des choses vraies. Non pas par négligence, mais simplement parce que nous ne savons pas comment enseigner la vérité à une intelligence artificielle de ce type.
Ce que l’on sait faire, en revanche, c’est lui apprendre à éviter certaines réponses, notamment celles jugées inappropriées ou socialement sensibles — selon les critères définis par ses concepteurs.
Autrement dit, l’IA est orientée pour produire des réponses plausibles et acceptables, mais la véracité n’est pas, en soi, le critère central de l’apprentissage — c’est une exigence bien plus complexe, que nous ne maîtrisons pas encore.