Question sur l’optimisation de la vitesse de chargement des pages

  • Auteur de la discussion Auteur de la discussion hibou57
  • Date de début Date de début
WRInaute passionné
Bijour,

J’ai appris par les sources d’actualités dédiés, que Google allait tenir compte de la vitesse de chargement des vitesses dans son algorithme de classement. Je n’ouvre pas ce topic pour l’annoncer, parce que je suis certain que l’annonce a déjà été faite ici.

Rappel avant tout : évidement, il n’est pas prévu d’en faire un critère fondamental pour le positionnement dans les résultats de recherche, comme le rappel cette vidéo : Is speed more important than relevance?. On y apprend que ce n’est qu’un critère (« signale », selon l’expression apparemment consacrée chez Google), parmis environ plus de 200 autres. De plus, ceci n’est actuellement (mais ça ne le sera pas toujours) effectif que pour les recherche en langue Anglaise effectuée depuis Google.com.

Well, ces petits rappel effectués, voici ma question :

Je viens de faire un tour du côté des Webmaster Tools, et il me propose de faire des économies sur le nombre de requête DNS, en plaçant certaines resource sous le même domaine que les sites. Mais voilà, il y a un hic : si ces resources sont externes, c’est parce qu’elles ne sont pas de moi. Il s’agit par exemple des logos de Google pour les recherche, ou des script requis par Analytics.

Pour les logo des champs de recherche, je pense que je peux les placer sur les domaines des sites sans trop de risque. Ça m’arrangerait même, parce que je pourrais même mieux les assortir à la couleur du fond (la transparence GIF n’étant pas ce qu’il y a de mieux, avec ses airs de « découpage brut au ciseaux »). Je sais que Google demande de ne pas modifier le code des champs de recherche, mais je ne pense pas que cela pose de problème de re-héberger les logos.

Mais pour les scripts Analytics, heuuu.... j’ai un doute. Je serais bien étonné qu’il soit permis de les copier pour les re-héberger sur des domaines.

Ou est-ce que je me trompe ?

D’ailleurs, n’est-il pas étonnant finalement que Google ne reconnaisse même pas les URL de ses propres ressources et n’en fassent pas un traitement particulier ou donne des indications particulières à leur sujet ?

En vous remerciant pour toutes vos idées, connaissances ou expériences, sur la question.

Read you soon.
 
WRInaute accro
pour le script GA oui tu peux le sotcker chez toi en local, tu peux même faire script PHP qui permet de DL le fichier GA.js vers ton serveur FTP au cas ou y aurai des maj

regade mon CODE HTML j'ai viré certains requêtes DNS en tapant directement les IP lorsque s'était possible, et le SCRIPT GA est en local sur mon FTP.

mais se qui fait plus gagner du temps, c'est:

lorsque c'est possible:

fusion des fichiers CSS en un seul fichier pareil pour les JS(si c'est possible).
ordre de chargement les fichiers CSS en premier puis les fichier JS en suite le tous dans le [HEAD][/HEAD](ceci afin de permettre le téléchargement multiple au chargement de la page HTML du site.
-et le plus important la compression GZIP ou DEFLATE lorsque c'est possible, soit via un fichier .HTACCESS ou un PHP.ini, ou si on accès à la configuration serveur en SSH.
-possible aussi de minifier(réduire la taille) les fichier CSS;JS;HTML;PHP, attention méfiance la minification automatique proposer par google pagespeed n'est pas compatible google chrome, mais suffit de recopier de doctype à body la page HTML qui était compatible, et dans remplacer la partis non compatible de la version minified, bien sur pour un version dite minified on aura la version de travail équivalente ceci afin de faire des modifications et de la minifier après coup, on ne travail jamais directement avec un version minified.
 
WRInaute passionné
Depuis plusieurs semaines, j'optimise le chargement de mes pages en suivant les conseils trouvés ci et là.

Résultat, en moyenne, mes pages se chargent deux fois plus vite qu'auparavant. Même si cela n'est pas utile pour le référencement, les visiteurs y trouvent leur compte.

Ce que je remarque entre autres sur le taux de rebond qui diminue légèrement.

Comme quoi, avant de penser référencement, penser au visiteurs est une bonne chose.
 
WRInaute passionné
Waw, adorable, je ne m’attendais pas à des réponses si rapides, et cerise sur le gâteau, pour de bonnes nouvelles en plus :)

mipc a dit:
pour le script GA oui tu peux le sotcker chez toi en local, tu peux même faire script PHP qui permet de DL le fichier GA.js vers ton serveur FTP au cas ou y aurai des maj
D’accord, donc je pense qu’il faut comprendre que en fait, c’est la modification du JavaScript d’Analytics qui est interdite (ce point allant de soi) et seulement ça, mais pas de changer sa source.

J’ai toujours cru le contraire.

Connais-tu un texte officiel de Google qui le stipule ? … c’est juste pour la forme (et pour être sûr à 100% plutôt qu’à 90)

mipc a dit:
regade mon CODE HTML j'ai viré certains requêtes DNS en tapant directement les IP lorsque s'était possible, et le SCRIPT GA est en local sur mon FTP.
Oh, j’ai pas envie de faire du copier-coller, j’ai faire mon p’tit bricolage tout seul. J’ai 4 ans, j’suis grand déjà :D

medium69 a dit:
Depuis plusieurs semaines, j'optimise le chargement de mes pages en suivant les conseils trouvés ci et là. Résultat, en moyenne, mes pages se chargent deux fois plus vite qu'auparavant.
Les plugins proposés par Google, sont pour FireFox. Je craignais de ne pas avoir de solution(s) pour Opera, mais il existe des outils d’analyse en ligne, dont celui-ci, qui rempli les fonctions requises : www.webpagetest.org.

J’ai des grosses boulettes à corriger... j’avoue
9.gif
, des choses sur lesquelles j’avais pourtant pensé à me pencher il y a longtemps, mais je ne sais pas pourquoi je n’ai jamais effectivement pris le temps de m’en occuper.

medium69 a dit:
Même si cela n'est pas utile pour le référencement, les visiteurs y trouvent leur compte.

Ce que je remarque entre autres sur le taux de rebond qui diminue légèrement.

Comme quoi, avant de penser référencement, penser au visiteurs est une bonne chose.
Ouiii ! C’est exactement ce que je me disais. D’ailleurs, à l’époque, quand j’avais cette idée en tête, c’était aux visiteurs que je pensais. Je suis trop bête de ne pas m’en être occupé comme je me l’étais… à moitié… promis.

Merci pour vos messages qui donnent envie de s’y mettre :)
 
WRInaute passionné
Les optimisations possibles sont multiples :

Déjà dans ton code. Moi qui utilise beaucoup les preg, chaque fois que cela était possible, j'ai utilisé str_replace au lieu de preg_replace et strpos au lieu de preg_match.

De la même manière, au lieu de faire des traitements divers sans filtres, prenant donc du temps si non nécessaire, j'utilise des conditions pour savoir si tel traitement est nécessaire.

Toujours dans mon cas, une grande partie des liens sont mis en place automatiquement. Je me suis aperçu que certaines pages arrivaient à contenir allègrement 150 liens. Désormais, mis à part les liens "indispensable", arrêt des liens automatique si 100 liens présent.

Optimisations des requêtes SQL en se servant des index régulièrement entre autre.

Mise en cache des pages, bien que la grande majorité de mon site ne le soit pas.

Toujours dans la mise en cache, si tu as un site qui génère des vignettes, inutile de la créer à chaque fois. Tu la crée une fois pour toute et tu l'enregistre dans un répertoire. si tu peux te servir de plusieurs tailles selon les emplacement, tu construit le nom de ton image avec la largeur :
mon-image.jpg est l'originale
mon-image-100px.jpg (100px de largeur)
mon-image-150px.jpg (150 de largeur)

Ainsi, avec ce genre de pratique, tu peux utiliser des tailles différentes en ne construisant tes vignettes qu'une seule fois.

Pour rester avec les images, possibilité de mettre une durée de cache pour les visiteurs.

Avec les images qui reviennent sur chaque page de ton site, les sprites CSS sont très bien. Juste un peu prise de tête à mettre en place, mais ce n'est pas compliqué non plus.

Dans mon cas, j'avais plusieurs CSS ; désormais, une seule CSS. Le seul inconvénient, est que j'ai 6 CSS différentes, et que je dois modifier à 6 endroits le code commun à toutes. Mais on s'y retrouve.

Le Javascript, idem : tout dans un seul fichier.

J'en oubli certainement encore beaucoup...
 
WRInaute impliqué
medium69 a dit:
Les optimisations possibles sont multiples :

Déjà dans ton code. Moi qui utilise beaucoup les preg, chaque fois que cela était possible, j'ai utilisé str_replace au lieu de preg_replace et strpos au lieu de preg_match.

De la même manière, au lieu de faire des traitements divers sans filtres, prenant donc du temps si non nécessaire, j'utilise des conditions pour savoir si tel traitement est nécessaire.

Optimisations des requêtes SQL en se servant des index régulièrement entre autre.

20% du temps est passé en back end (génération du fichier HTML), ces optimisations ne sont donc pas les plus productives/nécessaires.
Il vaut mieux comme vous l'avez dit concaténer fichiers script et CSS, compresser, ...
 
WRInaute discret
Moi j'aime bien ce "compilateur" :
http://code.google.com/p/minify/

en fait il permet de garder ses fichiers classiques en dev, avec les espace et tout le tralala et en prod d'avoir juste une url JS et une CSS appelée...

il y a juste a définir un groupe JS avec le nom des X fichiers, pareils pour le CSS et c'est bon.

simple d'utilisation, et vraiment efficace (je gagne 200ko par page environ) pour un site utilisant pas mal de jquery and co....
 
WRInaute accro
samsamsam a dit:
Perso, j'aime bien ce compileur Javascript : http://closure-compiler.appspot.com/home
On gagne vite 30 à 40% du poids original d'un fichier .js avec cette méthode.
question : est-ce le l'upload d'un js qui est chronophage ou bien son exécution dans le navigateur ?
dans ce dernier cas, il semble plus bénéfique d'optimiser le js (par exemple en expurgeant les fonctions non nécessaires) plutôt qu'en ne faisant qu'une compression des sources. Pourquoi vouloir charger toute la bibliothèque ajax alors qu'on n'a besoin que d'une seule fonction ?
 
WRInaute discret
Les 2 mon Général ! (enfin, je crois). Donc effectivement, pas la peine de publier un .js de 4000 lignes si on ne se sert que de 2 fonctions à l'intérieur.
 
WRInaute accro
oui, mais la compression d'un js ne va faire gagner que quelques millisecondes, alors qu'optimiser le code js en fonction de ses besoins pourrait faire gagnes quelques secondes.
De plus, un code js compressé, risque de poser problème en cas de deboggage, car le numéro de ligne ne correspondra plus.
 
Discussions similaires
Haut