Tu connais ce moment gênant où tu essaies d’impressionner tout le monde, et ça ne se passe pas exactement comme prévu ? Eh bien, c’est exactement ce qui est arrivé à Apple avec sa nouvelle fonctionnalité d’IA qui agrège et résume l’actualité.
Alors que la firme testait cette fonctionnalité sur ses iPhone, elle a décidé de la désactiver temporairement après plusieurs boulettes mémorables.
Qu’est ce qui s’est vraiment passé ?
Tout a commencé quand la fonctionnalité « Notifications Actualités » a commencé à déconner.
Comme un étudiant qui invente des citations pour son exposé, l’IA s’est mise à créer des informations de toutes pièces au lieu de les résumer.
Les utilisateurs ont eu droit à des alertes franchement embarrassantes. Un suicide qui jamais eu lieu, une arrestation fictive, un prétendu coming-out, des licenciements imaginaires…

T’imagine un peu la tête des journalistes de la BBC, du Washington Post, du New York Times... quand ils découvrent qu’on leur attribue des scoops qu’ils n’ont jamais écrits.
Résultat ? Tollé général. Même des institutions comme Reporters sans frontières ont levé le drapeau rouge.
Apple fait marche arrière
Face aux critiques et à la pression, la marque à la pomme n’a pas eu d’autres choix que de retirer pour le moment cette fonctionnalité.
L’entreprise précise que cette pause servira à revoir sa copie pour éviter d’autres dérives.
- Mais ils ont aussi décidé d’apporter des modifications aux résumés de toutes les autres notifications suggérées par Apple Intelligence.
- Donc en attendant, toutes les notifications générées par l’IA seront affichées en italique, histoire que les utilisateurs sachent qu’il faut les prendre avec des pincettes.
- En outre, les utilisateurs pourront désactiver les résumés depuis leur écran de verrouillage, et Apple ajoutera un avertissement dans les paramètres, précisant que cette fonctionnalité est encore en phase bêta.
Pourquoi ce fiasco est plus qu’une simple erreur technique
Dans un monde où les fake news se propagent plus vite qu’un tweet, prendre le risque de laisser dans la nature une IA qui confond réalité et fiction n’est pas juste une erreur technique – c’est un vrai faux pas.
A mon avis, l’IA n’est pas encore prête pour gérer des tâches aussi sensibles que la diffusion d’informations, surtout sans encadrement humain et Apple semble l’avoir oublié.
Bien entendu, les hallucinations font partie de l’ADN des modèles et ne sont pas une exclusivité de la marque. Et jusque-là, que ce soit OpenAI, Google ou Apple, aucun n’a encore trouvé la parade pour empêcher leurs IA de divaguer.
ChatGPT et Gemini et même SearchGPT nous ont déjà habitués à ses moments de créativité débridée. Mais quand tu es Apple, qu’on associe ton nom à la perfection depuis des décennies, tu ne peux pas te permettre de jouer les apprentis sorciers avec l’information.
Alors c’est quoi la suite ?
Déployée il y a quelques mois aux États-Unis, la suite de fonctionnalité IA « Apple Intelligence » était censée être l’arme de la marque pour conquérir le terrain de l’IA générative.
Rédaction de messages, gestion des notifications, bref, un assistant complet pour simplifier la vie des utilisateurs. Mais, visiblement, il y a encore du chemin à faire… surtout que Siri leur a causé des ennuis dernièrement.
Alors en attendant que Apple Intelligence débarque en Europe en Avril, espérons que la firme américaine aura appris de ses erreurs. Parce qu’on ne peut pas se contenter d’un « C’est une bêta, donc ça va bugger ».
Ce qu’il faut retenir
- La désinformation, c’est pas un jeu : Une IA qui génère des fake news est plus dangereuse qu’utile. Dans un monde où la fiabilité est une denrée rare, c’est un gros carton rouge.
- Un faux pas stratégique : Si Apple, avec toutes ses ressources, n’arrive pas à gérer cette problématique, ça n’inspire pas confiance pour les autres.
- L’IA reste fragile : Oui, l’IA a du potentiel. Mais quand elle est mise sur le terrain trop tôt, elle fait plus de dégâts que de bien.