mboost-dp1

newz.dk

http2.0 er på vej

- Via TechCrunch - , redigeret af Net_Srak

En del af grundlaget for internettet er protokollen http, der første gang blev dokumenteret i 1991. Den første version af http (0.9) havde kun en ’get’-method, der requestede en HTML-side.

I 1999 blev http/1.1 officielt anerkendt som en standard. Dog blev http/1.1 allerede udarbejdet i 1995, og tiden mellem 1995 og 1999 gik med at få de store browsere og brugerne til at anvende http/1.1.

Nu arbejder IETF på en ny version af http (v2.0), som blandt andet skal tage højde for den stigende brug af internettet. http/1.1 kan kun understøtte en forespørgsel ad gangen, og det betyder at browseren kun kan hente et element ad gangen. Hvis der er mange elementer på en hjemmeside, kan det godt tage ”lang” tid at hente hjemmesiden. Desuden er der på mobilnetværk også en større latency, som også forsinker loading af en hjemmeside.

Både Google og Microsoft har indsendt forslag til http/2.0, hvor Google har indsendt deres SPDY-protokol, der blandt andet understøtter flere samtidige forspørgsler og en komprimering og kryptering af elementer. Desuden giver SPDY-protokollen også mulighed for at reducere latency ved at serverne kan ”skubbe” indhold ud til browseren i stedet for at vente på en forespørgsel.

Microsoft har også indsendt deres eget forslag, HTTP Speed+Mobility, der faktisk bygger videre på Googles SPDY-protokol og også bruger forskning omkring WebSockets. HTTP Speed+Mobility har i modsætning gjort det valgfrit at benytte CPU-tunge opgaver som kryptering og komprimering, samt har et større fokus på at protokollen skal anvendes af mobilenheder.

Fornylig blev det besluttet at bruge SPDY som grundlag for http/2.0, uden at det nødvendigvis er præcis SPDY som definerer protokollen.

Dog har forskning udført af Microsoft vist, at SPDY ikke nødvendigvis er hurtigere end http/1.1, og anden forskning viser også at SPDY kan være langsommere end http/1.1.

http/2.0 forventes at være færdigt i 2014.





Gå til bund
Gravatar #1 - NeoNmaN
11. aug. 2012 09:09
Hold da op, som web udvikler gør det at ens speedl laod hacks måske kan være borte!

JEg glæder mig som et lille barn! og så får vi forhåbligt 100% udnyttlse af computers krafter + internettet

har oplevet før hvor man har haft en side på max 300kb størrelse at det har taget over 5sec at hente fordi man er kommet itl at plasere javascript, css og andet snusk i headeren. isted for i bunden!

håber edet bliver før 2014, men ska vi nok ikke regne med ;)
Gravatar #2 - KaW
11. aug. 2012 09:35
NeoNmaN (1) skrev:
håber edet bliver før 2014, men ska vi nok ikke regne med ;)

Det er fint at det tager tid, standarder skal formes, og det tager tid hvis man skal gøre det korrekt. Hvis vi ikke får HTTP2.0 rigtigt så risikerer vi at skulle leve med en dum standard de næste 20 år. Hvis HTTP2.0 ikke bliver ordentligt, og ikke løser problemerne som vi ser idag, så kommer det også til at påvirke antallet af folk der ønsker at benytte det.

Men på den anden side så har de også lidt travlt. Det kan nemlig være at IETF bliver løbet indenom af en anden protokol som folk skifter til, inden de bliver færdige med at forme en standard, her tænker jeg på SPDY.

PHK mener bl.a. at vi skal gennemtænke cookies, og måske helt fjerne dem. Og i stedet have en session-header.

Et af problemerne er også at når man har fastsat en standard, så skal man jo teste den, så man skal ud og bygge protokollen ind i en browser og i en server.
Gravatar #3 - markjensen
11. aug. 2012 09:47
artikel skrev:
det betyder at browseren kun kan hente et element ad gangen


Hvad forhindrer browseren i at åbne flere forbindelser?
Gravatar #4 - lorric
11. aug. 2012 10:00
#3 - intet. Og det gør de svjv også, så jeg forstår ikke rigtig argumentet. Måske er det fordi det belaster webserverne. Men den belastning forsvinder vel ikke bare fordi man kan bruge færre connections til at overføre samme mængde data?
Gravatar #5 - hyænen
11. aug. 2012 10:07
For *satan* denne nyhed er dårligt skrevet.
Gravatar #6 - KaW
11. aug. 2012 10:09
markjensen (3) skrev:
Hvad forhindrer browseren i at åbne flere forbindelser?

Intet, men HTTP 1.1's RFC siger at en klient max skal må have 2 persistente forbindelser til en server på samme tid. Du kan læse mere her

Browserne er dog begyndt at sætte antallet af forbindelser op, og bryder dermed med RFC'en. En anden ting som webudviklerne er begyndt på, er at bruge en masse CDN'er og placere deres assets derude, så klienten kan hente siden hurtigere. Du kan også begyndte at bruge symbols, istedet for billedikoner, da de ikke kræver et GET-request ekstra :)
Gravatar #7 - markjensen
11. aug. 2012 10:22
KaW (6) skrev:
Du kan også begyndte at bruge symbols, istedet for billedikoner, da de ikke kræver et GET-request ekstra :)


Hvad er symbols?
Gravatar #8 - nielsbuus
11. aug. 2012 10:33
Dette er ikke korrekt at http/1.0 kun understøtter GET. Den understøtter så sandelig også POST og HEAD. Anyway, da alle alligevel kører med http/1.1 så må det være denne protokol som http/2.0 skal sammenlignes med og det passer altså ikke at den kun understøtter et request af gangen.

1) Den understøtter persistente forbindelser som de fleste browsere bruger flittigt, hvor at en forbindelse genbruges til at sende nye GET requests når den foregående request er besvaret. Det forbedrer svartider, fordi du sparer et roundtrip til at åbne en TCP forbindelse.

2) Http/1.1 understøtter pipelining som giver mulighed for at requeste mange resourcer i ét ryk, nemlig at du kan åbne en TCP forbindelse og sende requests afsted i en kø assynkronent med at du modtager responses. At det så kun er Opera som indtil videre benytter sig af denne smarte teknik, det er så bare ærgerligt. Men den findes altså allerede.
Gravatar #9 - kasperd
11. aug. 2012 11:26
NeoNmaN (1) skrev:
håber edet bliver før 2014, men ska vi nok ikke regne med ;)
Du kan nok finde servere og browsere med support for de nuværende drafts. Risikoen ved at begynde at bruge det før standarden er godkendt er, at du kan blive nødt til at lave det om fordi den endelige standard ikke bliver fuldt kompatibelt med nuværende drafts.

Jeg vil dog hellere vente et år eller to ekstra og så få en god standard fremfor noget makværk der er gjort færdig i en fart.

Selv når standarden er officiel vil der gå lang tid før alle brugere har support for den nye protokol. Men når standarden har været ude et par år kan det nok forsvares at lave løsninger, som er langsomme for brugere, som ikke har opdateret.

KaW (2) skrev:
PHK mener bl.a. at vi skal gennemtænke cookies, og måske helt fjerne dem. Og i stedet have en session-header.
Uden at have sat sig ind i detaljerne vil jeg sige det lyder som en god idé. Men det afhænger alt sammen af detaljerne.

Noget andet jeg mener bør ændres er måden man logger ind på websites. En zero-knowledge protokol, hvor serveren aldrig finder ud af passwordet er efter min mening vejen frem.

markjensen (3) skrev:
Hvad forhindrer browseren i at åbne flere forbindelser?
F.eks. begrænsninger i NAT enheder. To forbindelser er ikke noget problem, men en forbindelse per resurse er et problem. Derudover koster det et ekstra roundtrip hver gang man åbner en forbindelse.

MadiZone (8) skrev:
Dette er ikke korrekt at http/1.0 kun understøtter GET.
Jeg går ud fra der menes version 0.9.

MadiZone (8) skrev:
da alle alligevel kører med http/1.1 så må det være denne protokol som http/2.0 skal sammenlignes med og det passer altså ikke at den kun understøtter et request af gangen.
Man kan sende flere requests i version 1.1, men serveren er vist tvunget til at besvare dem i rækkefølge. SPDY fungerer som et ekstra multiplexing og komprimeringslag mellem TCP og det vi i dag kender som HTTP. Desuden giver det mulighed for at serveren kan begynde at sende resurser som klienten vil få brug for allerede inden klienten ved at den skal bruge dem.
Gravatar #10 - scarlac
11. aug. 2012 11:27
lorric (4) skrev:
#3 - intet. Og det gør de svjv også, så jeg forstår ikke rigtig argumentet. Måske er det fordi det belaster webserverne. Men den belastning forsvinder vel ikke bare fordi man kan bruge færre connections til at overføre samme mængde data?

Faktisk, jo. En af de store issues ved det moderne web er det store antal af forbindelser der konstant åbnes og lukkes. Keepalive i http 1.1 mindsker dog dette problem.

...Men det tager desværre meget lang tid at åbne en ny forbindelse, og serverne kan kun håndtere en begrænset mængde. Eksempelvis tager det uforholdsvis lang tid at overføre 10 billeder af 30 kb fremfor 1 billede af 300 kb. En populær metode til at omgås dette er feks CSS sprites, hvor flere billeder lægges sammen, for at undgå flere forespørgsler. Det kræver dog ekstra arbejde for udviklerens side, men eksempelvis Google selv har måtte gøre det i *meget* stor grad på google maps og lign. services.

Hvis vi skal have en praktisk analog til dette, kan du prøve at kopiere 1000 filer á 1 MB filer fra ét drev til et andet, versus at overføre 1 fil á 1000 MB. Én fil er hurtigere. Meget hurtigere. (Men dog af andre tekniske årsager - det er udelukkende illustrativt)
Gravatar #11 - markjensen
11. aug. 2012 11:50
kasperd (9) skrev:
To forbindelser er ikke noget problem, men en forbindelse per resurse er et problem. Derudover koster det et ekstra roundtrip hver gang man åbner en forbindelse.


Det er helt sikkert et problem at skulle åbne nye forbindelser, men i nyheden lyder det som om det slet ikke er muligt
Gravatar #12 - johan
11. aug. 2012 14:47
#1
Css skal i head
Gravatar #13 - kasperd
11. aug. 2012 22:06
markjensen (11) skrev:
Det er helt sikkert et problem at skulle åbne nye forbindelser, men i nyheden lyder det som om det slet ikke er muligt
Om det er muligt afhænger af browser og NAT. Det er ikke noget som et website har direkte indflydelse på.

Hvis man ikke laver nogle tricks i sit website, så er man typisk begrænset til de to forbindelser, som browsere bruger per default.

Man kan narre browseren til at bruge flere forbindelser ved at bruge forskellige domænenavne. Men den slags tricks har ført til at man ramte en begrænsning i nogle routere. Det kan betyde at der er resurser som ikke indlæses.
Gravatar #14 - LazerFuture
14. aug. 2012 14:07
markjensen (7) skrev:
Hvad er symbols?


Skrifttypers symboler som f.eks pile ►▼◄
Gravatar #15 - KaW
14. aug. 2012 14:15
LazerFuture (14) skrev:
Skrifttypers symboler som f.eks pile ►▼◄

Nemlig, og man kan finde nogle lidt pænere her: http://sixrevisions.com/resources/free-icon-fonts/
Gravatar #16 - markjensen
14. aug. 2012 19:46
Ah, men så skal du vel stadig hente skrifttypen, og så kunne du vel lige så godt hente et stort billede med alle dine ikoner og så "beskære" det med css. Eller er der noget jeg har overset/misforstået?

Edit: Okay, de kan skaleres og man kan nemt skifte farve, men stadig
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login