Un développeur s'est inquiété du fait que le nouveau modèle d'intelligence artificielle de la startup chinoise DeepSeek est moins enclin à s'engager dans des discussions sur des sujets controversés, en particulier ceux liés au gouvernement chinois.
Dans un thread publié sur X, un développeur pseudonyme connu sous le nom de « xlr8harder » a partagé une série de remarques critiques concernant DeepSeek R1-0528, un modèle open source récemment mis en ligne.
Les tests partagés révèlent une nette baisse de la capacité du modèle à discuter de sujets liés à la liberté d’expression, surtout lorsqu’ils sont jugés polémiques, par rapport aux versions précédentes.
« DeepSeek mérite des critiques pour cette version : ce modèle représente un véritable recul pour la liberté d’expression », a écrit le développeur. « Ce qui atténue un peu le problème, c’est que le modèle est open source et sous licence permissive. La communauté pourra donc intervenir (et le fera). »
Le modèle censure les critiques directes de la Chine
L’un des exemples partagés montre que le modèle refuse de défendre l’existence de camps d’internement, tout en reconnaissant que la région du Xinjiang en Chine est associée à des violations des droits humains. Une réponse jugée contradictoire, car le modèle admet l’existence d’abus, mais évite de critiquer explicitement le gouvernement chinois.
Les camps d’internement du Xinjiang ont pourtant été largement documentés par des ONG, des gouvernements et des journalistes. Ils seraient utilisés pour détenir des musulmans ouïghours et d’autres minorités ethniques. Des rapports internationaux évoquent des cas de travail forcé, d’endoctrinement et d’abus divers dans ces centres.
Malgré la reconnaissance de ces violations, le modèle se montre très prudent lorsqu’il s’agit de mettre directement en cause la Chine. Sur la base d’un test d’évaluation de la censure, le développeur affirme que DeepSeek R1-0528 est « la version la plus censurée » en ce qui concerne les critiques envers le régime chinois.
Interrogé plus directement sur les camps du Xinjiang, le modèle aurait proposé une réponse édulcorée, en contradiction avec ses précédents propos reconnaissant les violations des droits humains.
« C’est intéressant, même si ce n’est pas surprenant : le modèle peut évoquer les camps comme exemple d’abus, mais se dérobe quand on lui pose une question directe », a noté xlr8harder.
DeepSeek vante pourtant des capacités accrues de raisonnement
Ces accusations interviennent peu après l’annonce du 29 mai, dans laquelle DeepSeek présentait une mise à jour de son modèle, censée améliorer ses performances en matière de raisonnement et d’inférence.
La société affirme que les résultats globaux de son modèle s’approchent de ceux des leaders du secteur comme ChatGPT version o3 d’OpenAI ou Gemini 2.5 Pro. DeepSeek promet désormais une meilleure logique, des capacités renforcées en mathématiques et en programmation, ainsi qu’un taux réduit de réponses erronées.