Alors, voilà une nouvelle qui pique la curiosité : « o1 » le modèle qui précède o3 le prochain modèle de raisonnement d’OpenAI se met parfois à raisonner en chinois, même quand on lui parle en anglais.
Oui, tu as bien lu. Sympa l’ambiance multilingue, mais ça soulève une vraie question : pourquoi diable fait-il ça ?
Eh bien personne ne sait vraiment. Mais tout le monde a une théorie.
Une histoire de data made in China ?
La première hypothèse qui circule : le problème vient des données.
Certains experts pensent que ça pourrait être lié à la façon dont ces modèles sont entraînés.
Beaucoup de données viennent de prestataires chinois, où les annotations (ou « étiquettes ») utilisées pour aider l’IA à comprendre les infos sont abondantes… et bon marché.
Du coup, quand « o1 » se retrouve devant un casse-tête, il pourrait inconsciemment (enfin, façon de parler, hein) se rabattre sur le chinois parce que c’est là que son « cerveau » a appris certaines bases.
Mais ce n’est pas si simple…
D’autres experts, eux, ne croient pas à l’hypothèse « data chinoise ».
Selon eux, l’IA ne sait même pas ce qu’est une langue.
Elle ne voit que des tokens (des morceaux de texte, en gros), pas des mots ou des phrases comme nous.
Alors, quand elle passe d’une langue à l’autre, ce n’est pas pour être exotique : c’est juste qu’elle trouve ça plus efficace à ce moment-là.
Comme si elle suivait un raccourci, sans se soucier de la langue dans laquelle elle roule.
Langues, biais et… hallucinations ?
Certains ont une autre explication : l’IA hallucine.
Pas dans le sens où elle voit des licornes, mais elle mélange un peu tout ce qu’elle sait.
Si elle a appris des concepts mathématiques en chinois ou des idées de biologie en anglais, elle pourrait associer les deux à sa sauce. Un peu comme toi quand tu rêves que tu parles couramment japonais après avoir binge-watché une saison de Demon Slayer.
La vraie question : Que dit OpenAI ?
Pour l’instant, OpenAI reste muet comme une carpe sur le sujet.
Pas d’explications, pas de FAQ, juste des spéculations d’experts qui se grattent la tête. Et ça, c’est problématique : les modèles comme « o1 » sont de véritables boîtes noires. On ne sait pas pourquoi ils font ce qu’ils font, ni comment ils prennent leurs décisions.
Parce qu’avec des IA qui prennent de plus en plus de place dans nos vies, on mérite un peu plus de transparence.
Et là, ça pose un problème :
Pourquoi « o1 » switch entre les langues ?
Est-ce qu’il y a un biais caché là-dedans ?
Alors, on pense quoi ?
Personnellement, je ne sais quoi penser mais je trouve toutes les théories plus ou moins crédibles surtout la deuxième.
Mais bon, ce petit bug multilingue d’o1 accessible en illimité dans l’offre ChatGPT pro d’OpenAI est peut-être juste une bizarrerie sans conséquences.
Pas de quoi s’alarmer.
En attendant, si ton chatGPTte répond en chinois à une question posée en français… dis-toi qu’il est peut-être juste en train de chercher la solution la plus simple. Ou qu’il a, lui aussi, binge-watché Demon Slayer.☺️