citation :Kivan dit : Le design général est très peu flexible, cela prendrai un temps fou de tout reprendre. Sauf éventuellement si on se limite à des sections specifiques (eg: page d'album). |
Ouais, enfin... Un design, ça reste des images et des feuilles de style CSS. Même sans refaire une refonte complète, tu peux sans doute donner un coup de jeune au site avec très peu de moyens. Et ça c'est clairement un argument de compétitivité.
citation :Kivan dit : La compatiblité W3C, je ne suis pas du tout d'accord avec ces argument. Google analyse le contenu des pages et je trouve exagéré le "largement" invalide. |
Y'a tout de même plusieurs centaines d'erreurs par page quand on passe tout ça à la validation W3C (d'ailleurs il n'y a même pas de DTD). Ce n'est pas un drame en soi, et je ne suis pas là pour critiquer négativement le travail que tu as accompli (d'autant qu'il est conséquent et que j'aime bien ce site). Moi je suggère juste des pistes d'amélioration car, comme tu le sais, le
WEB évolue très vite et il faut savoir s'adapter pour rester compétitif. Or j'ai tendance à penser que le non respect des standards pose des problèmes en matière de compatibilité internavigateurs et de référencement, ce qui est fâcheux. OK, certains gros sites s'assoient sur les standards, mais eux ils ont une puissance médiatique mondiale que SOM n'a pas forcément.
Sinon, bien sûr que Google analyse le contenu à partir du moment où il y a du HTML. Mais tu sais aussi bien que moi que le moteur est de plus en plus exigent avec tous ses nouveaux algorithmes. Donc autant lui faire plaisir en lui offrant une structuration de contenu irréprochable.
citation :Kivan dit : Le referencement naturel est par définition naturel. |
Pour avoir fait du SEO dans deux entreprises différentes (en agence et chez l'annonceur), je vais avoir du mal à être d'accord.
Le référencement naturel commence par une optimisation interne du site, qui passe par un polissage du code source, par l'atténuation des technologies ou démarches bloquantes (Flash, frameset, etc.), par une réflexion sur la redistribution du PageRank entre les pages, et par un ensemble de dispositifs qui vont permettre de booster et de contrôler la visibilité du site (fichier « robots.txt », plans du site en HTML et XML, amélioration de la densité de mots-clés, unicité des balises « title », maximisation de l'impact des « meta description », etc.). Indexation et positionnement sont deux choses très différentes. S'il n'y a pas eu d'étude de longue traîne en amont, ou du moins une analyse des mots-clés pour la maîtrise d'une part du trafic, c'est que le site n'est pas aussi optimisé que ça.
Après l'optimisation interne, le référencement naturel devient externe, et là c'est aux « link builders » de ramener des backlinks par divers moyens ; que ce soit par l'inscription du site dans les annuaires qualitatifs, l'échange de liens (de préférence triangulaire), ou le guest blogging (dans la limite du raisonnable pour ne pas fâcher Google).
Mettre une « meta keywords » et une « meta robots » en attendant que les choses se passent, c'est donc insuffisant pour faire du référencement naturel (d'autant que la première balise est ignorée par Google, et la seconde est facultative).
« Sans la musique, la vie serait une erreur. » (Friedrich Nietzsche)