Il me semble avoir lu d'une part que le filtre était principalement dédié au marché US. Le marché francophone, comme les autres sera sans aucun doute aussi touché, mais visiblement dans une moindre mesure, même si des dommages collatéraux sont bien évidemment à prévoir.
Quand on regarde les sites US qui ont pris les plus grosses claques, il me semble tout de même que les filtres de Panda les plus dommageables sont liés au contenu, type de site.
Comme toujours Google ne peut pas non plus se couper l'herbe sous le pied. N'oublions pas que déclasser des sites en régie chez the big one, entrainerait des dommages financiers réciproques chez ce dernier (via les éditeurs et via les annonceurs). Tout risque de se faire dans une certaine mesure.
Lu également que le changement d'algo panda aurait (en partie au moins) été développé à la base sur des observations humaines, qui se recoupaient par la suite à plus de 80% avec le nouvel algo.
Donc essayons de penser : humain et intérêt de Google.
Aussi de comprendre l'intérêt de la démarche de filtrage : plus de pertinence dans les serps.
Amha on devrait peut être essayer de déterminer les différents cas de figures de ce que GG pourrait estimer comme dommageable :
- Les ndd suroptimisés au niveau des keywords avec extensions mineures et contenu clairement spammy (contenu uniquement commercial, souvent ciblé "marque" avec un max de liens d'affil)
exemple * : buy-viagra-online.biz
- Les ndd suroptimisés au niveau des keywords, peu importe l'extension, servant clairement de pages satellites visant un objectif purement seo. On pourrait imaginer une distinction entre les surqualifications : adjectif ou marque (et surement un traitement différent)
exemple * : hoteldecharmeaparis.tld - parfumchanelpascher.tld
Dans cette catégorie on pourrait imaginer des domaines pages satellites / SEO d'un site plus corporate ou du MFA hyper ciblé
> Les deux catégories précédentes ne représenteraient pas vraiment de purs ranking websites. Sur des thématiques généralistes on les retrouve plus ou moins dans les 100 premiers résultats et sur les "keywords longue traine", ne se trouvent dans les Top 10 thématiques que les plus pertinents (toutes proportions gardées) au niveau du contenu. Ces deux cat rassemblent très certainement des tonnes de NDD / sites, peu voir pas pertinents, avec un taux de rebond largement au dessus de la moyenne et souvent pas rémunérateurs pour GG.
- Après ça on peu retrouver des keywords domains "corrects" (humainement parlant, donc par rapport aux précédents, pas suroptimisés) sous diverses extensions, mais plus souvent extensions mineures (Gtld mineures ou cctld non adaptés à la zone). Ils seront rarement exploités par de "véritables éditeurs", seront souvent des MFA ou des landing pages SEO.
Exemple * : locationcotedazur.biz - annoncesvoitures.de - banqueenligne.tk
On peut imaginer qu'une partie de ces NDD rapportent un petit peu d'argent à GG et qu'un effort de contenu peu avoir été fait pour le ranking. Si non, ils retombent dans les catégories précédentes.
- Les keywords domains intéressants, voir premium (???) extension correctes (pas nécessairement majeures) en parking ou autres MFA indexés de ce type.
Exemple : keywordsympa.org renvoyé sur un parking indexé. En gros aucune utilité pour les internautes mais peut être un peu de gain pour GG.
- Les keywords domain avec extensions adaptées et contenu original.
Là on se retrouve avec une tonne de variables, mais elles seraient surtout liées au contenu, au développement. Donc là peu de changement / avant. cela dépend des limites de suroptimisation SEO ou de sous-optimisation contenu qui te balance illico en catégorie MFA. Mais une fois plus aussi, qui rapporte quoi à GG ?
- Domaines génériques avec extensions adaptées.
Si les NDD sont en parking, mieux vaut que ça soit en noindex,nofollow amha. Sinon ici tout dépend du contenu une fois de plus, mais quoi qu'il en soit parmi ces domaines bon nombre sont corporates, ou/et rapportent des sous à GG.
N'oublions pas que si GG peut s'avérer bourin, c'est aussi une boite qui tente depuis des années de développer un haut niveau technologique. Il me semble alors que les complexités linguistiques ne seront pas mises de côté. GG devrait aujourd'hui savoir qu'un "de", genre "agenceDEpresse", est correct. Mais cette complexité fait aussi que GG a bel et bien annoncé que la majeure partie du filtrage se ferait sur le marché US et amha surtout centré sur le contenu, mise en page, les pubs ...
Bon attention je n'ai pas réfléchi plus que ça en distinguant des catégories, mais il me semble que ce sont des bases de réflexion. Parmi ces distinctions même si pas mal de cas nous sembleraient humainement délicat, il me semble qu'on serait tout à même déjà de déterminer des catégories de sites, NDD, n'apportant pas ou trop peu de pertinence aux serps.
Je pense aussi que le filtre ne peut pas être envisagé comme généraliste mais plus certainement assez thématique. On voit bien dans les serps que des thématiques financières, immobilier etc ... en intégrant de plus en plus Google place, sont déjà de plus en plus filtrées.
Aussi, si l'algo s'attache entre autre à caractériser des website / suroptimisation de leurs NDD au niveau des mots clés, je ne peut pas imaginer que ce travail ne se fasse pas du coup sur la suroptimisation des Url (fini le rewriting ?).
Quoi qu'il en soit, si le poids du mot clé dans le nom de domaine sera certainement réévalué, il n'est pas non plus dit les ndd seront sanctionnés.
A savoir aussi qu'au delà de toutes considérations techniques, il existe une whitelist de NDD/Sites intouchables. (me souviens plus la source de l'info)
* : exemples pouvant être super foireux et NDD pris au hasard de mes réflexions matinales.
Pour finir, même si je me contredirais moi même vu le pavé que je viens de laisser, il me semble que ce n'est pas hyper utile de spéculer, à part pour faire un peu de Buzz pour un des principaux acteurs du web qui quoi qu'il en soit n'a jamais été, depuis le début des années 2000, en mesure de véritablement faire de la R&D et proposer une véritable alternative au niveau de la recherche et du classement. GG fait plein de choses, pose des pierres dans tous les sens, mais ne fait pas véritablement évoluer la recherche, en tous cas, pour préciser ma pensée, pas dans le sens de l'internaute, plus dans le sens de l'actionnaire.
Jusqu'à lors, sur la réussite de l'algo de base GG a surtout concentré ses efforts sur des évolutions techniques visant à indexer et analyser plus de contenu, puis sur des couches et surcouches de filtrage et un bon début de flicage, dénonciations etc ... mais les évolutions on avant tout visé à satisfaire les actionnaires plus que les internautes.
Aujourd'hui on fait un peu de populisme en nous disant qu'on améliore la recherche pour le bien du peuple, mais au fond GG veut surtout optimiser les ressources techniques utilisés, et prépare le fait qu'au fond, d'un point de vue financier, il est plus intéressant de voir du gros acteur économiquement viables, en haut des serps. Bon aller .... faut que je bosse moi
Désolé si j'ai dit trop de bêtises.