mboost-dp1

newz.dk
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Hold da op, som web udvikler gør det at ens speedl laod hacks måske kan være borte!
JEg glæder mig som et lille barn! og så får vi forhåbligt 100% udnyttlse af computers krafter + internettet
har oplevet før hvor man har haft en side på max 300kb størrelse at det har taget over 5sec at hente fordi man er kommet itl at plasere javascript, css og andet snusk i headeren. isted for i bunden!
håber edet bliver før 2014, men ska vi nok ikke regne med ;)
JEg glæder mig som et lille barn! og så får vi forhåbligt 100% udnyttlse af computers krafter + internettet
har oplevet før hvor man har haft en side på max 300kb størrelse at det har taget over 5sec at hente fordi man er kommet itl at plasere javascript, css og andet snusk i headeren. isted for i bunden!
håber edet bliver før 2014, men ska vi nok ikke regne med ;)
NeoNmaN (1) skrev:håber edet bliver før 2014, men ska vi nok ikke regne med ;)
Det er fint at det tager tid, standarder skal formes, og det tager tid hvis man skal gøre det korrekt. Hvis vi ikke får HTTP2.0 rigtigt så risikerer vi at skulle leve med en dum standard de næste 20 år. Hvis HTTP2.0 ikke bliver ordentligt, og ikke løser problemerne som vi ser idag, så kommer det også til at påvirke antallet af folk der ønsker at benytte det.
Men på den anden side så har de også lidt travlt. Det kan nemlig være at IETF bliver løbet indenom af en anden protokol som folk skifter til, inden de bliver færdige med at forme en standard, her tænker jeg på SPDY.
PHK mener bl.a. at vi skal gennemtænke cookies, og måske helt fjerne dem. Og i stedet have en session-header.
Et af problemerne er også at når man har fastsat en standard, så skal man jo teste den, så man skal ud og bygge protokollen ind i en browser og i en server.
artikel skrev:det betyder at browseren kun kan hente et element ad gangen
Hvad forhindrer browseren i at åbne flere forbindelser?
markjensen (3) skrev:Hvad forhindrer browseren i at åbne flere forbindelser?
Intet, men HTTP 1.1's RFC siger at en klient max skal må have 2 persistente forbindelser til en server på samme tid. Du kan læse mere her
Browserne er dog begyndt at sætte antallet af forbindelser op, og bryder dermed med RFC'en. En anden ting som webudviklerne er begyndt på, er at bruge en masse CDN'er og placere deres assets derude, så klienten kan hente siden hurtigere. Du kan også begyndte at bruge symbols, istedet for billedikoner, da de ikke kræver et GET-request ekstra :)
KaW (6) skrev:Du kan også begyndte at bruge symbols, istedet for billedikoner, da de ikke kræver et GET-request ekstra :)
Hvad er symbols?
Dette er ikke korrekt at http/1.0 kun understøtter GET. Den understøtter så sandelig også POST og HEAD. Anyway, da alle alligevel kører med http/1.1 så må det være denne protokol som http/2.0 skal sammenlignes med og det passer altså ikke at den kun understøtter et request af gangen.
1) Den understøtter persistente forbindelser som de fleste browsere bruger flittigt, hvor at en forbindelse genbruges til at sende nye GET requests når den foregående request er besvaret. Det forbedrer svartider, fordi du sparer et roundtrip til at åbne en TCP forbindelse.
2) Http/1.1 understøtter pipelining som giver mulighed for at requeste mange resourcer i ét ryk, nemlig at du kan åbne en TCP forbindelse og sende requests afsted i en kø assynkronent med at du modtager responses. At det så kun er Opera som indtil videre benytter sig af denne smarte teknik, det er så bare ærgerligt. Men den findes altså allerede.
1) Den understøtter persistente forbindelser som de fleste browsere bruger flittigt, hvor at en forbindelse genbruges til at sende nye GET requests når den foregående request er besvaret. Det forbedrer svartider, fordi du sparer et roundtrip til at åbne en TCP forbindelse.
2) Http/1.1 understøtter pipelining som giver mulighed for at requeste mange resourcer i ét ryk, nemlig at du kan åbne en TCP forbindelse og sende requests afsted i en kø assynkronent med at du modtager responses. At det så kun er Opera som indtil videre benytter sig af denne smarte teknik, det er så bare ærgerligt. Men den findes altså allerede.
Du kan nok finde servere og browsere med support for de nuværende drafts. Risikoen ved at begynde at bruge det før standarden er godkendt er, at du kan blive nødt til at lave det om fordi den endelige standard ikke bliver fuldt kompatibelt med nuværende drafts.NeoNmaN (1) skrev:håber edet bliver før 2014, men ska vi nok ikke regne med ;)
Jeg vil dog hellere vente et år eller to ekstra og så få en god standard fremfor noget makværk der er gjort færdig i en fart.
Selv når standarden er officiel vil der gå lang tid før alle brugere har support for den nye protokol. Men når standarden har været ude et par år kan det nok forsvares at lave løsninger, som er langsomme for brugere, som ikke har opdateret.
Uden at have sat sig ind i detaljerne vil jeg sige det lyder som en god idé. Men det afhænger alt sammen af detaljerne.KaW (2) skrev:PHK mener bl.a. at vi skal gennemtænke cookies, og måske helt fjerne dem. Og i stedet have en session-header.
Noget andet jeg mener bør ændres er måden man logger ind på websites. En zero-knowledge protokol, hvor serveren aldrig finder ud af passwordet er efter min mening vejen frem.
F.eks. begrænsninger i NAT enheder. To forbindelser er ikke noget problem, men en forbindelse per resurse er et problem. Derudover koster det et ekstra roundtrip hver gang man åbner en forbindelse.markjensen (3) skrev:Hvad forhindrer browseren i at åbne flere forbindelser?
Jeg går ud fra der menes version 0.9.MadiZone (8) skrev:Dette er ikke korrekt at http/1.0 kun understøtter GET.
Man kan sende flere requests i version 1.1, men serveren er vist tvunget til at besvare dem i rækkefølge. SPDY fungerer som et ekstra multiplexing og komprimeringslag mellem TCP og det vi i dag kender som HTTP. Desuden giver det mulighed for at serveren kan begynde at sende resurser som klienten vil få brug for allerede inden klienten ved at den skal bruge dem.MadiZone (8) skrev:da alle alligevel kører med http/1.1 så må det være denne protokol som http/2.0 skal sammenlignes med og det passer altså ikke at den kun understøtter et request af gangen.
lorric (4) skrev:#3 - intet. Og det gør de svjv også, så jeg forstår ikke rigtig argumentet. Måske er det fordi det belaster webserverne. Men den belastning forsvinder vel ikke bare fordi man kan bruge færre connections til at overføre samme mængde data?
Faktisk, jo. En af de store issues ved det moderne web er det store antal af forbindelser der konstant åbnes og lukkes. Keepalive i http 1.1 mindsker dog dette problem.
...Men det tager desværre meget lang tid at åbne en ny forbindelse, og serverne kan kun håndtere en begrænset mængde. Eksempelvis tager det uforholdsvis lang tid at overføre 10 billeder af 30 kb fremfor 1 billede af 300 kb. En populær metode til at omgås dette er feks CSS sprites, hvor flere billeder lægges sammen, for at undgå flere forespørgsler. Det kræver dog ekstra arbejde for udviklerens side, men eksempelvis Google selv har måtte gøre det i *meget* stor grad på google maps og lign. services.
Hvis vi skal have en praktisk analog til dette, kan du prøve at kopiere 1000 filer á 1 MB filer fra ét drev til et andet, versus at overføre 1 fil á 1000 MB. Én fil er hurtigere. Meget hurtigere. (Men dog af andre tekniske årsager - det er udelukkende illustrativt)
kasperd (9) skrev:To forbindelser er ikke noget problem, men en forbindelse per resurse er et problem. Derudover koster det et ekstra roundtrip hver gang man åbner en forbindelse.
Det er helt sikkert et problem at skulle åbne nye forbindelser, men i nyheden lyder det som om det slet ikke er muligt
Om det er muligt afhænger af browser og NAT. Det er ikke noget som et website har direkte indflydelse på.markjensen (11) skrev:Det er helt sikkert et problem at skulle åbne nye forbindelser, men i nyheden lyder det som om det slet ikke er muligt
Hvis man ikke laver nogle tricks i sit website, så er man typisk begrænset til de to forbindelser, som browsere bruger per default.
Man kan narre browseren til at bruge flere forbindelser ved at bruge forskellige domænenavne. Men den slags tricks har ført til at man ramte en begrænsning i nogle routere. Det kan betyde at der er resurser som ikke indlæses.
LazerFuture (14) skrev:Skrifttypers symboler som f.eks pile ►▼◄
Nemlig, og man kan finde nogle lidt pænere her: http://sixrevisions.com/resources/free-icon-fonts/
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.