mboost-dp1

Google Inc.

Ny Google-tjeneste optimerer din hjemmeside for dig

- Via Google - , redigeret af Pernicious

Google har lanceret en ny tjeneste ved navn Page Speed Service, som skal hjælpe udviklere med at få deres hjemmesider til at blive hurtigere indlæst.

Page Speed Service fungerer ved, at tjenesten henter web-indholdet fra brugerens server og derefter optimerer det, så det loader hurtigst muligt. Den omskrevne hjemmeside returneres så til brugeren via Googles servere verden over.

I øjeblikket kan udvalgte webmastere forsøge sig med Page Speed Service gratis, men tjenesten vil på et tidspunkt skifte til en betalingsmodel med priser, der af Google beskrives som konkurrencedygtige.

For at kunne benytte Page Speed Service skal man udfylde et ansøgningsskema, og hvis man bliver valgt, skal man derefter pege sin hjemmeside over på ghs.google.com via et DNS CNAME.





Gå til bund
Gravatar #1 - nielsbrinch
29. jul. 2011 07:09
Det lyder til at være en pænt skidt løsning til alt andet end statiske sider.
Gravatar #2 - cryo
29. jul. 2011 07:14
Ja, og hvad kan der i det hele taget "optimeres" på bortset fra billeder?
Gravatar #3 - Henr1k
29. jul. 2011 07:21
cryo (2) skrev:
Ja, og hvad kan der i det hele taget "optimeres" på bortset fra billeder?

Ironisk?
Hvis ikke så prøv at installere en af disse Firefox plugins: YSlow eller Google Page Speed og sæt dem til at måle på nogen sider.
Man kan også optimere mere end de foreslår, men med dem kommer man ret langt.
Gravatar #4 - mbp
29. jul. 2011 07:22
#2

Javascript og css filer.
Gravatar #5 - myplacedk
29. jul. 2011 07:35
nielsbrinch (1) skrev:
Det lyder til at være en pænt skidt løsning til alt andet end statiske sider.

Ja, det er naturligvis kun de statiske dele der er tale om her. Det er i dag helt normalt at dele en enkelt hjemmeside ud over flere domæner.

Fx. bare denne side jeg sidder og skriver på lige nu:
- ajax.googleapis.com (her kommer jquery fra)
- newz.dk.cdn.zfour.dk
- newz.dk.css.zfour.dk
- login.newz.dk
- openx.newzmedia.dk

(Dertil kommer reklamer, Google Analytics osv.,)

Bermærk at én af dem hedder noget med "cdn", det står for "Content Delivery Network", hvis er lige det Google tilbyder.
Gravatar #6 - TuxDK
29. jul. 2011 07:38
#2

MANGE ting.
JS og CSS som #4 blandt andet nævner.
Minify af JS og CSS, saml alt JS i en fil, det samme med CSS.
Optimere HTML koden, drop unødvendige deklarationer, smid JS i bunden osv osv osv osv
Gravatar #7 - nielsbrinch
29. jul. 2011 07:38
#5 Det lyder altså til at være en anden service end en simpel CDN, ud fra beskrivelsen i nyheden her og på Google. De indlæser hele siden.

"Page Speed Service fetches content from your servers, rewrites your pages by applying web performance best practices and serves them to end users via Google's servers across the globe."

Det er ikke fremgangsmåden for en almindelig CDN.
Gravatar #8 - Henr1k
29. jul. 2011 07:44
TuxDK (6) skrev:
#2
saml alt JS i en fil, det samme med CSS.

Der er nogen der argumenterer for at man ikke skal gøre det fordi man kan downloade det hurtigere hvis man downloader flere filer parallelt.
Gravatar #9 - kasperd
29. jul. 2011 08:11
Henr1k (8) skrev:
Der er nogen der argumenterer for at man ikke skal gøre det fordi man kan downloade det hurtigere hvis man downloader flere filer parallelt.
Det synes jeg lyder ret usandsynligt. TCP er godt til store datamængder, de enkelte filer er i forvejen mindre end hvad TCP er bedst til.
Gravatar #10 - bjerh
29. jul. 2011 08:16
#8 Det kommer an på hvor mange JS-filer der er at tale om.

Man skal også huske på, at HTTP-requests også tager tid. Man skal gerne forsøge dem så meget som muligt. Det er også derfor at man laver CSS sprites, så man ikke skal åbne en forbindelse hver gang man skal hente et billede.
Gravatar #11 - zymes
29. jul. 2011 09:00
Så det virker lidt som Opera Turbo? Det virker ihvertfald fx. lige nu hvor jeg sidder i et tog og bruger min telefon til net på den bærbare..
Gravatar #12 - Nikkelmann
29. jul. 2011 14:23
Henr1k (8) skrev:
TuxDK (6) skrev:
#2
saml alt JS i en fil, det samme med CSS.

Der er nogen der argumenterer for at man ikke skal gøre det fordi man kan downloade det hurtigere hvis man downloader flere filer parallelt.

Man skal gøre det. I en browser er det som standard kun to (2!) åbne forbindelser på samme tid. Plus det der tager længst tid er at åbne en forbindelse og vente på indhold. Selve download af indholdet tager relativt kort tid i forhold til førnævnte rutiner.

Kilde: Mig.
Kildekritik: Jeg er udvikler og arbejder med web til dagligt.
Gravatar #13 - Nix
29. jul. 2011 16:41
zymes (11) skrev:
Så det virker lidt som Opera Turbo? Det virker ihvertfald fx. lige nu hvor jeg sidder i et tog og bruger min telefon til net på den bærbare..
Nja, ikke helt. Jeg tror faktisk bare Opera Turbo bare laver nogle lavkvalitetsbilleder, som så bliver cached på Operas egne servere. Jeg tror ikke, at den også komprimerer din slamkode, men jeg er ikke helt hundrede på det. Det fungerer dog ret godt!

Nikkelmann (12) skrev:
Henr1k (8) skrev:
TuxDK (6) skrev:
#2
saml alt JS i en fil, det samme med CSS.

Der er nogen der argumenterer for at man ikke skal gøre det fordi man kan downloade det hurtigere hvis man downloader flere filer parallelt.

Man skal gøre det. I en browser er det som standard kun to (2!) åbne forbindelser på samme tid. Plus det der tager længst tid er at åbne en forbindelse og vente på indhold. Selve download af indholdet tager relativt kort tid i forhold til førnævnte rutiner.
Der er nogle, der er galt på den. :) Som Nikkelmann kommer ind på, så tager det lang tid at lave et HTTP request, medens selve download tiden er ret snappy. Det er derfor frontendudviklere gerne sigter efter at have så få requests som muligt, ved at samle billeder i et spritemap, samle JS og CSS, og cache så meget som man kan. Det er dog helt korrekt, at man kan downloade flere filer parallelt, og i nogle få tilfælde, kan det rent faktisk ikke svare sig at samle dine sager, specielt hvis du har et meget stort site, hvor du f.eks. har noget tungt JS, som kun bruges på en obskur side, som er sjældent brugt.

Du kan i nye browsere faktisk hente fire filer parallelt (mener det er fire), fra ét domæne. Dvs., du kan også hente fire filer fra et andet domæne, men du skal stadig lave et request. Dog er der et problem, der hedder progressiv rendering. Det betyder, at du kan hente et stylesheet og rendere det, og hente et nyt, der så vil overskrive eller style videre. Det er dog kun Opera, der understøtter dette, så vidt jeg husker — andre browsere venter lige til alle stylesheets er hentet. Ældre versioner af IE, vil også vente til dit javascript er hentet færdig, og det giver noget, der hedder "white flash", hvor den viser en hvid skærm, indtil alt er hentet færdig.

Der, hvor lorten dog ligger begravet, er at man svjh. stadig kun kan hente to javascriptfiler ad gangen, ligegyldigt om det ligger på en CDN. Og det der er værre, er at al rendering og anden download hører op, så længe der henter JS.
Gravatar #14 - Windcape
29. jul. 2011 16:42
nielsbrinch (1) skrev:
Det lyder til at være en pænt skidt løsning til alt andet end statiske sider.
Måske skulle vi få newz til at tilmelde sig!
Gravatar #15 - HydrA
29. jul. 2011 20:21
Dette minder mig om CloudFlare. Samme teknologi?
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login