mboost-dp1

Google Inc.
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
cryo (2) skrev:Ja, og hvad kan der i det hele taget "optimeres" på bortset fra billeder?
Ironisk?
Hvis ikke så prøv at installere en af disse Firefox plugins: YSlow eller Google Page Speed og sæt dem til at måle på nogen sider.
Man kan også optimere mere end de foreslår, men med dem kommer man ret langt.
nielsbrinch (1) skrev:Det lyder til at være en pænt skidt løsning til alt andet end statiske sider.
Ja, det er naturligvis kun de statiske dele der er tale om her. Det er i dag helt normalt at dele en enkelt hjemmeside ud over flere domæner.
Fx. bare denne side jeg sidder og skriver på lige nu:
- ajax.googleapis.com (her kommer jquery fra)
- newz.dk.cdn.zfour.dk
- newz.dk.css.zfour.dk
- login.newz.dk
- openx.newzmedia.dk
(Dertil kommer reklamer, Google Analytics osv.,)
Bermærk at én af dem hedder noget med "cdn", det står for "Content Delivery Network", hvis er lige det Google tilbyder.
#5 Det lyder altså til at være en anden service end en simpel CDN, ud fra beskrivelsen i nyheden her og på Google. De indlæser hele siden.
"Page Speed Service fetches content from your servers, rewrites your pages by applying web performance best practices and serves them to end users via Google's servers across the globe."
Det er ikke fremgangsmåden for en almindelig CDN.
"Page Speed Service fetches content from your servers, rewrites your pages by applying web performance best practices and serves them to end users via Google's servers across the globe."
Det er ikke fremgangsmåden for en almindelig CDN.
Det synes jeg lyder ret usandsynligt. TCP er godt til store datamængder, de enkelte filer er i forvejen mindre end hvad TCP er bedst til.Henr1k (8) skrev:Der er nogen der argumenterer for at man ikke skal gøre det fordi man kan downloade det hurtigere hvis man downloader flere filer parallelt.
#8 Det kommer an på hvor mange JS-filer der er at tale om.
Man skal også huske på, at HTTP-requests også tager tid. Man skal gerne forsøge dem så meget som muligt. Det er også derfor at man laver CSS sprites, så man ikke skal åbne en forbindelse hver gang man skal hente et billede.
Man skal også huske på, at HTTP-requests også tager tid. Man skal gerne forsøge dem så meget som muligt. Det er også derfor at man laver CSS sprites, så man ikke skal åbne en forbindelse hver gang man skal hente et billede.
Henr1k (8) skrev:TuxDK (6) skrev:#2
saml alt JS i en fil, det samme med CSS.
Der er nogen der argumenterer for at man ikke skal gøre det fordi man kan downloade det hurtigere hvis man downloader flere filer parallelt.
Man skal gøre det. I en browser er det som standard kun to (2!) åbne forbindelser på samme tid. Plus det der tager længst tid er at åbne en forbindelse og vente på indhold. Selve download af indholdet tager relativt kort tid i forhold til førnævnte rutiner.
Kilde: Mig.
Kildekritik: Jeg er udvikler og arbejder med web til dagligt.
Nja, ikke helt. Jeg tror faktisk bare Opera Turbo bare laver nogle lavkvalitetsbilleder, som så bliver cached på Operas egne servere. Jeg tror ikke, at den også komprimerer din slamkode, men jeg er ikke helt hundrede på det. Det fungerer dog ret godt!zymes (11) skrev:Så det virker lidt som Opera Turbo? Det virker ihvertfald fx. lige nu hvor jeg sidder i et tog og bruger min telefon til net på den bærbare..
Der er nogle, der er galt på den. :) Som Nikkelmann kommer ind på, så tager det lang tid at lave et HTTP request, medens selve download tiden er ret snappy. Det er derfor frontendudviklere gerne sigter efter at have så få requests som muligt, ved at samle billeder i et spritemap, samle JS og CSS, og cache så meget som man kan. Det er dog helt korrekt, at man kan downloade flere filer parallelt, og i nogle få tilfælde, kan det rent faktisk ikke svare sig at samle dine sager, specielt hvis du har et meget stort site, hvor du f.eks. har noget tungt JS, som kun bruges på en obskur side, som er sjældent brugt.Nikkelmann (12) skrev:Henr1k (8) skrev:TuxDK (6) skrev:#2
saml alt JS i en fil, det samme med CSS.
Der er nogen der argumenterer for at man ikke skal gøre det fordi man kan downloade det hurtigere hvis man downloader flere filer parallelt.
Man skal gøre det. I en browser er det som standard kun to (2!) åbne forbindelser på samme tid. Plus det der tager længst tid er at åbne en forbindelse og vente på indhold. Selve download af indholdet tager relativt kort tid i forhold til førnævnte rutiner.
Du kan i nye browsere faktisk hente fire filer parallelt (mener det er fire), fra ét domæne. Dvs., du kan også hente fire filer fra et andet domæne, men du skal stadig lave et request. Dog er der et problem, der hedder progressiv rendering. Det betyder, at du kan hente et stylesheet og rendere det, og hente et nyt, der så vil overskrive eller style videre. Det er dog kun Opera, der understøtter dette, så vidt jeg husker — andre browsere venter lige til alle stylesheets er hentet. Ældre versioner af IE, vil også vente til dit javascript er hentet færdig, og det giver noget, der hedder "white flash", hvor den viser en hvid skærm, indtil alt er hentet færdig.
Der, hvor lorten dog ligger begravet, er at man svjh. stadig kun kan hente to javascriptfiler ad gangen, ligegyldigt om det ligger på en CDN. Og det der er værre, er at al rendering og anden download hører op, så længe der henter JS.
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.