En l’espace d’une seule nuit, d’hier à aujourd’hui, Google vient de renforcer ses protections antiscraping. Premières victimes de ce changement brusque, des plateformes renommées telles que Haloscan.com, Semrush France ou YourTextGuru sont bloquées.
Pour l’écosystème SEO, ce n’est que le début des ennuis.
Les conséquences potentielles du changement brusque de Google
- Les manœuvres de contournement des nouvelles barrières de Google entraîneront une hausse des coûts
- Pour compenser, les tarifs d’abonnement SEO vont s’envoler
- Certains spécialistes SEO seront contraints ou verront l’opportunité de tester d’autres moteurs de recherche
Quelle est l’utilité des protocoles antiscraping pour les sites web ?
Habituellement, les sites web utilisent des protections antiscaping pour prévenir l’accès des concurrents, les sociétés de création de leads, les spammeurs et autres spécialistes malveillants. Cette pratique empêche le spam, le vol de propriété intellectuelle ou la commercialisation frauduleuse de leurs données.
Les conséquences économiques pour les entreprises touchées sont désastreuses, sans compter la dégradation de l’image de marque. Plusieurs méthodes efficaces permettent de protéger un site internet du scraping, en particulier :
- La limitation de débit, qui limite les requêtes par agent utilisateur ou par IP dans un délai déterminé. Elle est simple à installer et à rentabiliser.
- La validation de l’agent utilisateur, qui vérifie l’agent avant toute admission sur le site. Il est particulièrement efficace pour détecter les bots basiques.
- L’analyse comportementale, qui scanne les mouvements habituels de l’utilisateur tels que la vitesse des clics, les mouvements de la souris et les modèles de navigation. Très précise, elle démasque les bots avancés.
- Le blocage IP et les vérifications de la e-réputation qui bloquent les adresses IP de mauvaise réputation ou malveillantes. Elle agit pour les menaces identifiées.
- Le captcha, qui présente des énigmes à résoudre pour les sources de trafic douteuses. Il est réputé pour contrer les scripts automatisés.
- Les trappes ou pièges à bots, qui trompent les robots pour qu’ils se démasquent. Elles sont réputées efficaces face aux robots naïfs
Pour certains observateurs, Google souhaite faire monter les enchères et engranger plus de bénéfices avec le lancement de Gemini 2. Pour d’autres, Google renforce ses protections antiscraping en réponse à une réalité critique et actuelle. En effet, les pirates ont amélioré significativement leurs méthodes de contournement des protections.
S’il est très remarqué, le durcissement de la politique de protection de Google est loin d’être inédit. Plus discrets, des outils SEO tels que Monitorank ont déjà franchi le cap de l’augmentation des prix sans faire de tapage.
Professionnel du SEO : Que pouvez-vous faire ?
Agacés, de nombreux spécialistes du SEO ne vont pas s’embarrasser de procédures : ils vont tout simplement changer de moteur de recherche. D’autres modifieront leurs habitudes et changeront d’outil de travail.
De manière plus modérée, vous pouvez profiter des changements de Google pour passer à une stratégie multi moteurs. Après l’examen des forces et des faiblesses de chacun, vous pourrez ajuster vos tactiques pour une meilleure rentabilité assortie d’un investissement réduit.
En mettant ensemble vos ressources, vous renforcez vos chances de succès dans la tourmente.
Google est plus strict
S’agit-il d’un ajustement technique ordinaire, ou le début d’une refonte définitive de l’environnement SEO de Google ? Actuellement, on n’en sait pas plus concernant les ajustements des protections antiscraping de l’entreprise.
Nous recommandons de rester à l’écoute et de maintenir la plus haute vigilance pour la suite des événements.