La semaine dernière, un certain nixCraft a balancé une rumeur sur X (oui, Twitter s’appelle comme ça maintenant, tu ne t’y fais pas toujours ? Moi non plus).
Bref, il a déclaré que Microsoft a discrètement planqué une option dans Office 365 pour récupérer nos données afin de former ses modèles d’IA.
Evidemment, ça a créé un tollé d’indignation, tweets en caps lock… Bref, le scandale quoi.
Face à cette rumeur, Microsoft a réagi illico.
Le feu s’est calmé, mais pas les soupçons.
Et avec le recul, moi je dis la parano des utilisateurs va peut-être un peu trop loin.
La méfiance est légitime
Il n’y a pas de fumée sans feu. On est bien d’accord.
Les entreprises de la trempe de Microsoft traînent un passif lourd niveau transparence.
Meta, Google, OpenAI, même Perplexity : tous ont déjà été pris la main le sac quand il s’agit d’utiliser les données des utilisateurs.
Alors forcément, dès qu’un tweet comme celui de nixCraft pointe une ombre au tableau, tout le monde part au quart de tour.
On peut comprendre que certains imaginent la firme de Redmond récupérer les contenus des utilisateurs de Microsoft Copilot 365 pour entraîner ses IA. Surtout qu’ils ont investi beaucoup chez OpenAI.
Mais jusqu’ici, aucun élément ne prouve que les fameuses « expériences connectées » servent à ça.
Si Microsoft n’utilise pas les « expériences connectés » pour entraîner son IA, pourquoi c’est là ?
Selon les explications de la firme de Redmond, ces options activées par défaut dans Office 365 sont là pour améliorer l’expérience utilisateur :
- Te donner des idées de mise en page sur PowerPoint.
- Proposer des corrections de texte sur Word.
- Fournir des graphiques automatiques à partir de données Excel.
Et sur le papier, ça a du sens.
Mais pour que ça marche, ils doivent analyser ce que tu écris.
Oui si tu bosses sur un projet confidentiel ou un rapport stratégique, l’idée que des bouts de ton contenu passent par leurs serveurs peut faire grincer des dents.
Mais voilà, il n’y a pas d’utilisation malveillante avérée pour l’instant.
Tu veux des options avancées, sois prêt à faire quelques concessions
Oui, je sais qu’on adore détester les géants de la Tech, qui soit dit en passant, l’ont souvent cherché. Mais bon pour une fois, laissons le bénéfice du doute à Microsoft qui travaille d’ailleurs en ce moment sur les IA à mémoire infinie.
Ce n’est pas pour les défendre (ils n’ont pas besoin de moi), mais arrêtons d’être parano. parce que là, les preuves manquent.
T’as peur pour tes données sensibles ? c’est simple désactive « Les expériences connectées » dans Microsoft Copilot 365.
Mais, si tu veux profiter des fonctionnalités avancées, tu vas devoir faire un compromis : accepter que Microsoft te pique deux ou trois miettes de données puisqu’il ne nous laisse pas trop le choix.
Sources :