J’ai vu le piège se refermer de mes propres yeux.

Depuis un an, des entrepreneurs du Bassin m’appellent, désemparés :

“On a payé pour du contenu SEO régulier, mais Google ne nous montre plus.”


Alors je regarde leurs sites.

Tout est propre.

Trop propre.

Titres calibrés, mots-clés bien rangés, paragraphes sans faute et pourtant, aucun souffle, aucune trace d’auteur.

Ces blogs ont été écrits par personne.

1. L’illusion du “contenu optimisé”

Pendant longtemps, les agences ont su rassurer avec des promesses :

“On s’occupe de vos articles”, “votre blog sera actif”, “Google adore la régularité”.


Et, soyons honnêtes, beaucoup d’entreprises locales y ont cru parce qu’elles n’ont ni le temps, ni l’équipe, ni la maîtrise technique pour produire elles-mêmes.

Mais depuis l’arrivée de l’intelligence artificielle, la tentation est devenue irrésistible : rédiger à la chaîne, sans intervention humaine, pour livrer du volume à petit prix.

Résultat : des blogs entiers produits par IA, livrés en lot, parfaitement inutiles.

Les mots sont bons, mais vides.

Et Google vient de trouver comment les reconnaître.

2. Le radar secret de Google : Firefly

En 2024, une fuite interne de Google a révélé l’existence d’un module appelé “QualityCopiaFireflySiteSignal”  un nom barbare pour ce qu’il est vraiment : un radar à “contenu fabriqué en série”.

Firefly ne lit pas les textes comme nous.

Il mesure le comportement d’un site : la vitesse à laquelle il publie, la cohérence entre ses clics et son engagement, la proportion de pages “vivantes” versus pages “mortes”.

En clair : il sait faire la différence entre une production humaine, irrégulière mais sincère, et une usine à textes.

Techniquement, Firefly analyse :

  • Le volume d’URLs créées sur une période courte.
  • Le ratio entre “dailyClicks” et “dailyGoodClicks” (clics utiles, signe que les visiteurs trouvent vraiment ce qu’ils cherchaient).
  • L’évolution des impressions avant et après publication (les pics suspects sont notés).

Les sites qui “poussent” du contenu sans respiration, sans cohérence, se voient classés dans la catégorie “Scaled Content Abuse”  abus de contenu à grande échelle.

Autrement dit : sanctionnés, discrètement mais durablement.  (Source : Hobo Web, analyse de la documentation interne Google, avril 2024.)

3. Ce que Google dit officiellement (et ce qu’il ne dit pas)

Sur son propre blog développeur, Google a écrit noir sur blanc :

“Utiliser l’automatisation  y compris l’IA pour produire du contenu dont le but principal est de manipuler le classement est une violation de nos politiques anti-spam.”
(Source : Google Search Central Blog, février 2023.)

Le message est clair : ce n’est pas la technologie qu’il punit, c’est l’intention.

Créer pour tromper l’algorithme, pas pour informer le lecteur.

Et Firefly est précisément le dispositif qui matérialise cette politique dans les faits.

4. Les chiffres ne mentent pas

Une étude menée par Rankability sur 487 résultats de recherche a montré que 83 % des pages les mieux classées ne contiennent pas de texte entièrement rédigé par IA.

Elles ont toutes un point commun :

  • des révisions humaines
  • des anecdotes locales
  • une structure narrative
  • un ton identifiable.

Des analyses techniques (source : DonHesh.com.au, 2024) confirment que Google croise désormais trois familles de signaux pour repérer le “contenu automatisé” :

  • Analyse linguistique (NLP) : phrases trop symétriques, absence de ruptures, vocabulaire sans aspérités.
  • Signaux d’engagement : taux de rebond élevé, clics rapides, temps moyen sur page trop court.
  • Rythme de publication : cadence mécanique, sans saisonnalité ni logique éditoriale.

Google sait écouter les textes. Il entend quand ça respire… et quand ça ne respire plus.

5. Ce que ça veut dire pour les entreprises locales

Sur le Bassin, beaucoup de PME ont fait confiance à des prestataires qui leur promettaient “un blog actif”.

Sauf qu’un blog actif ne veut rien dire si le lecteur, lui, s’endort.

Et surtout, si Google identifie ce contenu comme artificiel.

La conséquence, je la vois tous les mois dans les chiffres :

  • chute brutale du trafic après quelques semaines de “boost”,
  • disparition des pages dans les résultats,
  • et parfois, pire : un domaine entier considéré comme peu fiable.


L’ironie, c’est que les entreprises paient pour se rendre invisibles.

6. L’erreur n’est pas d’utiliser l’IA

Je ne suis pas de ceux qui la diabolisent.

L’IA, bien utilisée, est un outil de création formidable.

Mais un texte IA livré brut, sans réécriture, sans stratégie, sans ancrage local, c’est une coquille vide.

Et Google, aujourd’hui, le lit comme tel.

Mon rôle celui que je revendique depuis vingt ans n’est pas de produire plus vite, mais de ré accorder les instruments : de donner du sens à chaque mot, du rythme à chaque paragraphe, une intention à chaque article.

Le SEO n’est plus un jeu de mots-clé.

C’est une partition où chaque note doit tomber juste.

7. Google ne punit pas les robots. Il punit l’absence d’humains


Le web de demain ne sera pas écrit contre l’IA.

Il sera écrit avec elle sous la direction de ceux qui savent encore écouter, structurer, raconter.

Les agences qui vous vendent des textes IA sans vous le dire jouent une partition creuse.

Et Google, désormais, a l’oreille absolue.