mboost-dp1

unknown
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Hmm ikke at manden sikkert ikke har fat i noget, men det er lidt dumt at brokke sig over at Google ikke index'ere sider med frame, javascript menu og Flash, i hvert fald ikke specielt godt. Er det Google problem eller en fejl i de teknologier, evt. et problem som vedkommende der har lavet siden burde have overvejet?
Måske er google en dårlig søgemaskine, men nævn en der er bedre? Eller måske LAV en der er bedre hr Eriksen...!
#3
Nu siger han jo allerede at google bare er en dårlig søgemaskine blandt endnu dårligere. Så jeg vil mene han er dækket ind.
Vil måske mene han har ret til et vist punkt. Men vil ikke kalde google en dårlig søgemaskine før jeg har set et bedre alternativ.
Så længe der ikke findes noget bedre så må den i det mindste være god.
Nu siger han jo allerede at google bare er en dårlig søgemaskine blandt endnu dårligere. Så jeg vil mene han er dækket ind.
Vil måske mene han har ret til et vist punkt. Men vil ikke kalde google en dårlig søgemaskine før jeg har set et bedre alternativ.
Så længe der ikke findes noget bedre så må den i det mindste være god.
Måske er det bare manden der søger der er en dårlig søger, der findes mange måder at søge på, men hvilken er rigtigst ?
Jeg finder sgu også altid det jeg skal bruge,..
Men hvis han er så fandens klog kunne han jo lave en ny, ik smarte fyr.
Men hvis han er så fandens klog kunne han jo lave en ny, ik smarte fyr.
Altavista er meget bedre end google fordi den kan meget mere end google.
Men google er meget godt hvis det kun er hjemmesider man skal finde.
Men google er meget godt hvis det kun er hjemmesider man skal finde.
Så lav dog selv en bedre søgemaskine end Google. Nøj hvor er han lam at høre på. Mr. Ekspert.
"stikkprøver med 2000 norske nettssteder og Google manglet 400 av dem helt"
- Hmmm hvis de ikke kan finde ud af at få deres side i Google gider jeg heller ikke se deres latterlige side.
Google er den største, lær at leve med det, eller lad din side stå uden besøgende...
"stikkprøver med 2000 norske nettssteder og Google manglet 400 av dem helt"
- Hmmm hvis de ikke kan finde ud af at få deres side i Google gider jeg heller ikke se deres latterlige side.
Google er den største, lær at leve med det, eller lad din side stå uden besøgende...
Hvordan ved man at man finder det man søger efter, når man kun præsenteres for det google kan finde? Hvem siger der ikke er både mere relevante sider og flere end google finder?
Lever søgemaskiner ikke af at finde information? Hvis den ikke kan finde det er den vel ikke god nok, også selvom dem der har lavet pågældende side ikke er gode til at "søgemaskineoptimere".
I en ideel verden lavede man bare sine sider og lod søgemaskinerne indeksere en efter hvilken information man bidrog med (og hvordan pågældende søgemaskine vægtede denne). Istedet for alt det her hø med søgemaskineoptimering....eller?
Lever søgemaskiner ikke af at finde information? Hvis den ikke kan finde det er den vel ikke god nok, også selvom dem der har lavet pågældende side ikke er gode til at "søgemaskineoptimere".
I en ideel verden lavede man bare sine sider og lod søgemaskinerne indeksere en efter hvilken information man bidrog med (og hvordan pågældende søgemaskine vægtede denne). Istedet for alt det her hø med søgemaskineoptimering....eller?
altså, når Google finder min private hjemmeside, og altaviste ikke gør, så ved jeg hvilken søgemaskine jeg bruger.
Jeg har søgt efter overskriften på min HP, og google finder den som den første, mens altavista ikke finder den..
Kom igen og sig den er dårlig..
Jeg har søgt efter overskriften på min HP, og google finder den som den første, mens altavista ikke finder den..
Kom igen og sig den er dårlig..
#11:
Hvordan ved man at man finder det man søger efter, når man kun præsenteres for det google kan finde? Hvem siger der ikke er både mere relevante sider og flere end google finder?
Hvis jeg fx vil finde ud af hvem der vandt OL-guld i 400 meter løb i 1904, og jeg finder resultatet på første side, så har jeg vel fundet hvad jeg søger efter.
Sådan er det i 90% af tilfældende (for mig) at jeg bare kan bruge "I feel lucky" knappen, og så har jeg den information jeg skal bruge!
Hvordan ved man at man finder det man søger efter, når man kun præsenteres for det google kan finde? Hvem siger der ikke er både mere relevante sider og flere end google finder?
Hvis jeg fx vil finde ud af hvem der vandt OL-guld i 400 meter løb i 1904, og jeg finder resultatet på første side, så har jeg vel fundet hvad jeg søger efter.
Sådan er det i 90% af tilfældende (for mig) at jeg bare kan bruge "I feel lucky" knappen, og så har jeg den information jeg skal bruge!
Hvis alle folk udfyldte deres meta tags rigtigt, og ingen snød med det
- så ville det være noget lettere at lave en god søgemaskine. Google har en svær opgave for sig, og det er ikke deres skyld, at folk derude snyder på diverse måder.
Det sagt, så synes jeg måske godt jeg kunne savne et par features på Google som fx. at søge efter præcis det man beder den om. Hvis man fx. søger efter "H.9", søger den også efter "H 9" og "H-9" osv.
Det er også irriterende at man ikke kan bede den om at give én "html og plain text only". Den smider ofte pdf'er, .doc og postscript efter en. :(
- så ville det være noget lettere at lave en god søgemaskine. Google har en svær opgave for sig, og det er ikke deres skyld, at folk derude snyder på diverse måder.
Det sagt, så synes jeg måske godt jeg kunne savne et par features på Google som fx. at søge efter præcis det man beder den om. Hvis man fx. søger efter "H.9", søger den også efter "H 9" og "H-9" osv.
Det er også irriterende at man ikke kan bede den om at give én "html og plain text only". Den smider ofte pdf'er, .doc og postscript efter en. :(
16#
Enig!
Enten er google blevet en dårligere og dårligere søgemaskine... eller også kan den bare ikke følge med alle de sider den indekserer.
Enig!
Enten er google blevet en dårligere og dårligere søgemaskine... eller også kan den bare ikke følge med alle de sider den indekserer.
Sig mig, er det ikke bare at flytte nogle trin ned af stigen?
Svarer vel i grunden lidt til at ændre på spedometrene istedet for vejskiltene...?
Svarer vel i grunden lidt til at ændre på spedometrene istedet for vejskiltene...?
Nåh, ja. Han ska da være velkommen til at lave en der er bedre.
Men jeg synes stadig, at Google er den bedste:
Enkel
Ingen reklame-bannere
Superhurtig (i mine øjne)
Jeg finder det jeg skal bruge
Så ham nordmanden har vist drukket lidt for meget af natpotten, eller også fik han ikke lov ti lat lege med lorten som lile :-D
Zkii
Men jeg synes stadig, at Google er den bedste:
Enkel
Ingen reklame-bannere
Superhurtig (i mine øjne)
Jeg finder det jeg skal bruge
Så ham nordmanden har vist drukket lidt for meget af natpotten, eller også fik han ikke lov ti lat lege med lorten som lile :-D
Zkii
Hvis folk vil prøve lidt alternativer så kan de jo prøve www.altheweb.com eller Amazons nye www.a9.com (baseret på google, imdb, amazon og lidt andet). Synes båede Google, atw og a9 virker ganske glimrende til forskellige ting.
Det er vel google, der hat opfundet den mest brugte algoritme til sortering af søgeresultater, ikke?
Men jo, det kunne da være smart, hvis de brugte færre penge på nye ting som gmail (ikke fordi jeg har noget imod den) og mere på at optimere deres gamle søgemaskine. Det burde vel også være muligt at lave algoritmer til at sorterer sider fra, der bruger hacks? (Eller hedder det cracks?)
Men jo, det kunne da være smart, hvis de brugte færre penge på nye ting som gmail (ikke fordi jeg har noget imod den) og mere på at optimere deres gamle søgemaskine. Det burde vel også være muligt at lave algoritmer til at sorterer sider fra, der bruger hacks? (Eller hedder det cracks?)
Det er nok nærmere internettes opbygning der udgør problemet. Hvis en søgemaskine skal fungere optimalt, skal den have alle sider med. Dvs. den skal have registreret alle eksisterende sider (også alle de "døde"), og hele tiden tilføje alle ny-oprettede sider. Samtidig skal den hele tiden opdatere informationerne (idag går der dage, hvis ikke uger, mellem hver opdatering). Og her snakker vi hele sider. Google indekserer idag kun de første ca. 100 KB af web-sider, og ca. 120 KB af PDF-dokumenter.
Alternativt kunne det fungere, hvis alle sider var forsynet med standardiserede data (ophav, emneord, o.lign., f.eks. som meta tags), men bare tanken er utopisk.
Så selvom jeg er enig i, at Google ikke er et optimalt søgeværktøj, så tror jeg ikke det kan gøres meget bedre så kaotisk som nettet er.
Alternativt kunne det fungere, hvis alle sider var forsynet med standardiserede data (ophav, emneord, o.lign., f.eks. som meta tags), men bare tanken er utopisk.
Så selvom jeg er enig i, at Google ikke er et optimalt søgeværktøj, så tror jeg ikke det kan gøres meget bedre så kaotisk som nettet er.
#23
Den skal kun have de sider med, der er i dens scope. Hvor mange sider den har er ikke direkte relevant for hvor "optimal" den er. Jeg mener f.eks. ikke at Google skal indeholder døde sider. At sider dør skyldes som regel at de er forældede, har mistet relevans, og ikke længere opdateres. Derfor gider jeg ikke læse dem. Og derfor skal Google ikke kende dem, for så bliver mit søgeresultat fyldt med ubrugeligt skrammel. Og det er næppe optimalt.
Hvis man sætter sig andre målsætninger end designerne af noget, så er man dømt til at synes at det ikke er optimalt. Jeg vil mene at Google er så optimal som noget kan blive. Også i kraft af at designerne ikke bare sidder på sin flade og glor på folk, der trykker på søgeresultater. De udvikler på den i takt med at det er nødvendigt.
Roar Eriksen er en klovn. Han kunne ligeså godt kritisere en Bosch-boremaskine for at være en dårlig dildo...brug tingene som du vil, men bedøm dem efter den kontekst de er udviklet. En boreskine er trodsalt lavet til at LAVE huller. Ikke at fylde dem...eller noget... :P
Den skal kun have de sider med, der er i dens scope. Hvor mange sider den har er ikke direkte relevant for hvor "optimal" den er. Jeg mener f.eks. ikke at Google skal indeholder døde sider. At sider dør skyldes som regel at de er forældede, har mistet relevans, og ikke længere opdateres. Derfor gider jeg ikke læse dem. Og derfor skal Google ikke kende dem, for så bliver mit søgeresultat fyldt med ubrugeligt skrammel. Og det er næppe optimalt.
Hvis man sætter sig andre målsætninger end designerne af noget, så er man dømt til at synes at det ikke er optimalt. Jeg vil mene at Google er så optimal som noget kan blive. Også i kraft af at designerne ikke bare sidder på sin flade og glor på folk, der trykker på søgeresultater. De udvikler på den i takt med at det er nødvendigt.
Roar Eriksen er en klovn. Han kunne ligeså godt kritisere en Bosch-boremaskine for at være en dårlig dildo...brug tingene som du vil, men bedøm dem efter den kontekst de er udviklet. En boreskine er trodsalt lavet til at LAVE huller. Ikke at fylde dem...eller noget... :P
Jeg ved ikke hvormange penge han har fået af microsoft for at sige det men sikke noget sluder....
ejok..
Jeg bruger selv Altavista.com og Google.dk som mine primære søge maskiner og syntes klart at Google er den bedste på nettet!
ejok..
Jeg bruger selv Altavista.com og Google.dk som mine primære søge maskiner og syntes klart at Google er den bedste på nettet!
Der kan være mange grunde til at lade en søgemaskine beholde resultatet af indekseringen af en død side. Husk på at webgrafen er en retningsbestemt graf, og at fjerne alle sider i samme øjeblik at et crawl ikke "opdager" dem i en iteration, kan medføre at store dele af webgrafen pludselig er disjunkte og på den måde bliver hivet med i faldet. Derudover så kunne det være at siden kun var nede lige da crawleren kom forbi.
Crawling, indexing, ranking og præsentation er mere en kunst end en videnskab. At "google's" PageRank algoritme giver "ok" resultater, er en subjektiv vurdering.
Desuden skal man lave et par hacks for overhoved at kunne bruge PageRank algoritmen på webgrafen. Det skyldes at der er noder med en ud-grad på nul (ingen links fra en given side), som ellers ville få for høj PageRank, og selv hvis det ikke var tilfældet, så er webgrafen ikke garanteret stærkt forbundet (der findes en sti fra alle noder, til alle noder, kun følgende links i den retning de er angivet), hvilket er et krav for at der findes en stabil tilstand af algoritmen.
Det "løser" de ved at indføre en sandsynlighed (15%) for at man springer til en vilkårlig node, uanset der ikke er en kant til den. Den procentsats er valgt fordi de "synes" den giver de bedste resultater.
#23: "'kun' dem i dens scope", er lettere sagt end gjort ;)
En enkelt webserver kan i teorien generere uendeligt mange sider med et serverside script, som for browseren er umulige at genkende som værende uudtømmelige. Skal en af, en potentielt distribueret, crawlers tråde løbe rundt og indeksere de sider på det site til evig tid? eller skal den stoppe på et tidspunkt? I så fald, hvornår? og hvorfor der? etc. etc.
Crawling, indexing, ranking og præsentation er mere en kunst end en videnskab. At "google's" PageRank algoritme giver "ok" resultater, er en subjektiv vurdering.
Desuden skal man lave et par hacks for overhoved at kunne bruge PageRank algoritmen på webgrafen. Det skyldes at der er noder med en ud-grad på nul (ingen links fra en given side), som ellers ville få for høj PageRank, og selv hvis det ikke var tilfældet, så er webgrafen ikke garanteret stærkt forbundet (der findes en sti fra alle noder, til alle noder, kun følgende links i den retning de er angivet), hvilket er et krav for at der findes en stabil tilstand af algoritmen.
Det "løser" de ved at indføre en sandsynlighed (15%) for at man springer til en vilkårlig node, uanset der ikke er en kant til den. Den procentsats er valgt fordi de "synes" den giver de bedste resultater.
#23: "'kun' dem i dens scope", er lettere sagt end gjort ;)
En enkelt webserver kan i teorien generere uendeligt mange sider med et serverside script, som for browseren er umulige at genkende som værende uudtømmelige. Skal en af, en potentielt distribueret, crawlers tråde løbe rundt og indeksere de sider på det site til evig tid? eller skal den stoppe på et tidspunkt? I så fald, hvornår? og hvorfor der? etc. etc.
Vasquez: "Alternativt kunne det fungere, hvis alle sider var forsynet med standardiserede data (ophav, emneord, o.lign., f.eks. som meta tags), men bare tanken er utopisk."
Jep, men det ville da være nemt at ændre hvis det var. F.eks kunne det det være sådan at metatags var et krav for at en browser kunne rendere en side. Dermed ville man tvinge folk til at beskrive deres side...eller .. man kunne helt lade være med at indeksere sider, der ikke havde meta-tags.
Jep, men det ville da være nemt at ændre hvis det var. F.eks kunne det det være sådan at metatags var et krav for at en browser kunne rendere en side. Dermed ville man tvinge folk til at beskrive deres side...eller .. man kunne helt lade være med at indeksere sider, der ikke havde meta-tags.
#29 Ja, for det ville være en god søgemaskine som folk gad bruge, fremfor de søgemaskiner som gerne indekserede sider uden de tags, og tjente millioner.
Og hvordan vil du beskrive en side med metatags "korrekt". Nogen mener måske at siden handler mest om bla1, bla2 og bla3. Andre mener at det handler om bla2, bla1 og bla4 og alle er uenige om hvor vigtig bla1 er i forhold til bla2. Etc. etc.
Det kunne være "sjovt" hvis folk beregnede deres egne vægtede pagerank profil og brugte resultatet af den til at vægte traditionelle resultater fra en gammeldags søgemaskine clientside. Og nej, det er ikke min ide :p
Den personlige pagerank kunne være vægtet med udgangspunkt i ens bookmarks, surfing vaner og de queries man har haft på søgemaskiner på nettet, samt hvilke resultater man valgte blandt de returnerede. Da det hele ville foregå lokalt ville der ikke være nogen sikkerheds problemstillinger inde i billedet.
Men... det er der vidst ikke nogen der har realiseret pt.
Og hvordan vil du beskrive en side med metatags "korrekt". Nogen mener måske at siden handler mest om bla1, bla2 og bla3. Andre mener at det handler om bla2, bla1 og bla4 og alle er uenige om hvor vigtig bla1 er i forhold til bla2. Etc. etc.
Det kunne være "sjovt" hvis folk beregnede deres egne vægtede pagerank profil og brugte resultatet af den til at vægte traditionelle resultater fra en gammeldags søgemaskine clientside. Og nej, det er ikke min ide :p
Den personlige pagerank kunne være vægtet med udgangspunkt i ens bookmarks, surfing vaner og de queries man har haft på søgemaskiner på nettet, samt hvilke resultater man valgte blandt de returnerede. Da det hele ville foregå lokalt ville der ikke være nogen sikkerheds problemstillinger inde i billedet.
Men... det er der vidst ikke nogen der har realiseret pt.
25#
- jeg er meget uenig. I den almindelige fritids situation har du ret, det holder ikke at skulle finde en Nvida driver også finde en side som ikke er nået længere end detonator , eller et news board fra 2000 er heller ikke så vildt.
Men i undervisnings relaterede situation er det vigtigt at døde sider aldrig bliver fjernet eller glemt, for det kan jo være der lige står noget om det meget tynde emne som man gerne lige vil vide noget om.
Og her savner jeg en søgemaskine som ikke går efter page ranking eller andet, men på en eller andne måde kan bedømme relevansen af siden, fx. ved en kombination af tekst mængde versus antal rammer eller ved link sammenligning. Og altså på den måde kan finde nogen langt mere faglige sider når jeg står og skal bruge dem.
- jeg er meget uenig. I den almindelige fritids situation har du ret, det holder ikke at skulle finde en Nvida driver også finde en side som ikke er nået længere end detonator , eller et news board fra 2000 er heller ikke så vildt.
Men i undervisnings relaterede situation er det vigtigt at døde sider aldrig bliver fjernet eller glemt, for det kan jo være der lige står noget om det meget tynde emne som man gerne lige vil vide noget om.
Og her savner jeg en søgemaskine som ikke går efter page ranking eller andet, men på en eller andne måde kan bedømme relevansen af siden, fx. ved en kombination af tekst mængde versus antal rammer eller ved link sammenligning. Og altså på den måde kan finde nogen langt mere faglige sider når jeg står og skal bruge dem.
#31: det klassiske (for mig) eksempel: at ville finde sider om world trade center, dateret før d. 11/9-2001.
Google går ikke kun efter Page Rank algoritmens resultat. Den liste af resultater man får præsenteret er vægtet efter ordets placering i dokumentet og konteksten i form af om det står som bold face, i et meta tag, etc. Den præcise opskrift er selvfølgelig en forretningshemmelighed.
Desuden har søgemaskine brug for at have en kopi af siden til indeksering, (til at bygge den inverterede fil liste over), og hvorfor ikke lige så godt tilbyde de kopier man alligevel har liggende som google gør med deres "cache" system.
Google går ikke kun efter Page Rank algoritmens resultat. Den liste af resultater man får præsenteret er vægtet efter ordets placering i dokumentet og konteksten i form af om det står som bold face, i et meta tag, etc. Den præcise opskrift er selvfølgelig en forretningshemmelighed.
Desuden har søgemaskine brug for at have en kopi af siden til indeksering, (til at bygge den inverterede fil liste over), og hvorfor ikke lige så godt tilbyde de kopier man alligevel har liggende som google gør med deres "cache" system.
ang. link farming:
http://www.webopedia.com/TERM/L/link_farming.html
"However, search engines such as Google consider link farming as a form of spam and have been implementing procedures to banish sites that participate in link farming, so the term link farming has garnered negative connotations across the Internet."
flot at komme med en sådan beskyldning
http://www.webopedia.com/TERM/L/link_farming.html
"However, search engines such as Google consider link farming as a form of spam and have been implementing procedures to banish sites that participate in link farming, so the term link farming has garnered negative connotations across the Internet."
flot at komme med en sådan beskyldning
#34 dette er til dels sandt så længe vi er inden for emnet IT eller teknologi, men desværre er der inden for mange andre emner store mangler i den information man kan finde på nettet...
så en mere korrekt udlægning ville være "hvis det ikke findes på google, findes det ikke på WWW"
så en mere korrekt udlægning ville være "hvis det ikke findes på google, findes det ikke på WWW"
#28 Hvad er det ligepræcis i min post du argumenterer imod. Jeg nævnte scopet som en begrænsning. Ikke en ekspandering. Og selfølgelig skal Google have en cache for sider der er midlertidigt nede. Men det er en implementations eller praksisproblematik og ikke en målsætningsproblematik. At en side er midlertidigt nede medfører jo at den stadigvæk har relevans. Ergo skal den stadigvæk være i Googles scope. Men der er altså forskel på at have og ikke at have en tidsbegrænsning...
#31 Jeg kan ikke se at det skal være Googles ansvar at være historiebog på nettet. Hvis informationen var relevant for nogen, så ville den være bogført et andet sted, som Google så ville kende. Google er en søgemaskine, der skal referere til ekstern information. Den bør ikke rende og spilde resourcer på at lege historiearkiv.
#31 Jeg kan ikke se at det skal være Googles ansvar at være historiebog på nettet. Hvis informationen var relevant for nogen, så ville den være bogført et andet sted, som Google så ville kende. Google er en søgemaskine, der skal referere til ekstern information. Den bør ikke rende og spilde resourcer på at lege historiearkiv.
#36 eh ja? og jeg kommenterer det at du nævner "bare" scopet som en begrænsning, ved at komme med et eksempel på hvor omfattende "bare" scopet er. Du svarer faktisk på dit eget spørgsmål for mig: Q: "Hvad er det ligepræcis i min post du argumenterer imod." A: "[Du] nævnte scopet som en begrænsning."
"At en side er midlertidigt nede medfører jo at den stadigvæk har relevans." - I fail to see your logic. Jeg må have blundet da vi gennemgik det underafsnit om implikationer.
Og så svarede du i øvrigt ikke på mine spørgsmål. Men det kan også være lige meget nu. For nu vil jeg gå tidligt i seng.
"At en side er midlertidigt nede medfører jo at den stadigvæk har relevans." - I fail to see your logic. Jeg må have blundet da vi gennemgik det underafsnit om implikationer.
Og så svarede du i øvrigt ikke på mine spørgsmål. Men det kan også være lige meget nu. For nu vil jeg gå tidligt i seng.
#37
Geez fårking qwajst. Du ville kunne læse ud af kontekst at jeg blot svarer på hvorfor Google ikke skal have "døde" sider med. Det er fordi Googles scope ikke er målsat til at linke til døde sider. Længere er den ikke. Hvorfor du begynder at blande sværhedsgrad ind i det og at jeg har sagt "bare" (hvilket jeg ikke har); ja, det aner jeg simpelthen ikke. Du har så travlt med at flashe din viden, at dine indlæg bliver totalt afsporede. Hvad med at holde det på et niveau hvor du også selv kan følge med...så bliver det lettere for alle...(og spar lidt på de indskudte sætninger, når du ikke magter at bruge dem)...
"Skal en af, en potentielt distribueret, crawlers tråde løbe rundt og indeksere de sider på det site til evig tid? eller skal den stoppe på et tidspunkt? I så fald, hvornår? og hvorfor der? etc. etc."
Det er sådan ca. 1 spørgsmål. Og svaret var den sætning du ikke forstod. For at uddybe/omformulere: En side er ikke nødvendigvis klassificeret som død (ude af scopet) fordi man ikke kan få kontakt til den. Der skal gå noget tid før den erklæres som død. Hvor meget tid er ikke relevant. Det er en variabel, der varierer på baggrund af flere parametre. Ikke noget jeg gider debatere.
Geez fårking qwajst. Du ville kunne læse ud af kontekst at jeg blot svarer på hvorfor Google ikke skal have "døde" sider med. Det er fordi Googles scope ikke er målsat til at linke til døde sider. Længere er den ikke. Hvorfor du begynder at blande sværhedsgrad ind i det og at jeg har sagt "bare" (hvilket jeg ikke har); ja, det aner jeg simpelthen ikke. Du har så travlt med at flashe din viden, at dine indlæg bliver totalt afsporede. Hvad med at holde det på et niveau hvor du også selv kan følge med...så bliver det lettere for alle...(og spar lidt på de indskudte sætninger, når du ikke magter at bruge dem)...
"Skal en af, en potentielt distribueret, crawlers tråde løbe rundt og indeksere de sider på det site til evig tid? eller skal den stoppe på et tidspunkt? I så fald, hvornår? og hvorfor der? etc. etc."
Det er sådan ca. 1 spørgsmål. Og svaret var den sætning du ikke forstod. For at uddybe/omformulere: En side er ikke nødvendigvis klassificeret som død (ude af scopet) fordi man ikke kan få kontakt til den. Der skal gå noget tid før den erklæres som død. Hvor meget tid er ikke relevant. Det er en variabel, der varierer på baggrund af flere parametre. Ikke noget jeg gider debatere.
I er lidt lamme at høre på mange af jer.
Fordi Hr. Erikson siger at Google ikke er en god maskine, og det faktum at han åbenbart er søge ekspert, gør ham altså ikke til programmør.
Indse dog at google også har fejl. Der er sgu mange ting som google ikke finder.
Forklar lige hvordan I ville lave en søgemaskine der kunne tage højde for forældede sider. Tag lige med i betragtning, at, er det ældre end 12 timer, så er det i princippet forældet, udover det, så er der over 4000 millioner sider der skal søges igennem, og det må så bliver hver 12 time. Blot for at undersøge om der er kommet nyt data/indhold på siden.
Fordi Hr. Erikson siger at Google ikke er en god maskine, og det faktum at han åbenbart er søge ekspert, gør ham altså ikke til programmør.
Indse dog at google også har fejl. Der er sgu mange ting som google ikke finder.
Forklar lige hvordan I ville lave en søgemaskine der kunne tage højde for forældede sider. Tag lige med i betragtning, at, er det ældre end 12 timer, så er det i princippet forældet, udover det, så er der over 4000 millioner sider der skal søges igennem, og det må så bliver hver 12 time. Blot for at undersøge om der er kommet nyt data/indhold på siden.
Prøv: http://techpreview.search.msn.com ;)
Den er beta, allerede mere præcis (nogle af dem) og sider end Google! o.O
Den er beta, allerede mere præcis (nogle af dem) og sider end Google! o.O
En ting jeg har undret mig over ved google, er når man nogen gange får hits til en side der er password-beskyttet. Jeg går ud fra at det skyldes at siden engang var uden password på, men jeg en svag og næsten ubegrundet mistanke om at Google måske ikke får markeret siden som "utilgængelig" næste gang den scanner siden!? Er jeg galt på den?
#36:
Det er noget sludder du siger, google bliver aldrig historie bog da google ikke har nogen sider udover dens cache som bare er dårlige cloner af sider. Og det er googles ansvar at være en god søgemaskine som kan finde sider, og jeg skal nogengange bruge sider som er gamle og der skal jeg ikke bruge halve forum boards hvor der ikke står noget relevant, og det kan google altså ikke altid...
Det er noget sludder du siger, google bliver aldrig historie bog da google ikke har nogen sider udover dens cache som bare er dårlige cloner af sider. Og det er googles ansvar at være en god søgemaskine som kan finde sider, og jeg skal nogengange bruge sider som er gamle og der skal jeg ikke bruge halve forum boards hvor der ikke står noget relevant, og det kan google altså ikke altid...
#38 Jamen det er da godt vi kan holde os saglige her på newz.dk e_e
Du har, ikke overraskende, slet ikke forstået mine spørgsmål. De (pl.) har ikke noget som helst med døde sider at gøre, men lyslevende, svarende og aktuelle sider, og som derfor ligger i det scope du snakker om.
Den indskudte sætning du åbentbart har noget imod, var retfærdiggjort i det at jeg snakker om "én af" en crawlers tråde. Hvis den ikke var distribueret var der ikke tale om flere tråde, og i så fald ville det være kritisk at have en politik for at undgå den crawler trap som jeg skitserer i spørgsmålet. Men hvad med at du, i stedet for at jamre, bare siger til eller fra, hvis der er noget du ikke kan svare på? Men det er selvfølgelig også nemmere at gå efter personen end bolden.
#41: Jeg er selv med til at skrive en søgemaskine (mere specifikt: crawler delen) på Syddansk Universitet, og jeg skal gerne være den første til at give dig ret i at det ikke er en triviel opgave :)
Du har, ikke overraskende, slet ikke forstået mine spørgsmål. De (pl.) har ikke noget som helst med døde sider at gøre, men lyslevende, svarende og aktuelle sider, og som derfor ligger i det scope du snakker om.
Den indskudte sætning du åbentbart har noget imod, var retfærdiggjort i det at jeg snakker om "én af" en crawlers tråde. Hvis den ikke var distribueret var der ikke tale om flere tråde, og i så fald ville det være kritisk at have en politik for at undgå den crawler trap som jeg skitserer i spørgsmålet. Men hvad med at du, i stedet for at jamre, bare siger til eller fra, hvis der er noget du ikke kan svare på? Men det er selvfølgelig også nemmere at gå efter personen end bolden.
#41: Jeg er selv med til at skrive en søgemaskine (mere specifikt: crawler delen) på Syddansk Universitet, og jeg skal gerne være den første til at give dig ret i at det ikke er en triviel opgave :)
#44
Bliv lige enig med dig selv plz. Først siger du at Google skal gemme alle sider (levende som døde), hvorefter du påstår at Google ikke skal være historiebog. Det er da en modsigelse af rang.
#45
Ja, jeg kan se at jeg ikke forstod dine spørgsmål. De er offtopic. Jeg snakkede om døde sider. Derfor troede jeg at det var et spørgsmål til døde sider, der gemte sig bag din dårlige formulering. Min fejl. Anyways. Jeg er ikke langt nok inde i Googles tekniske opbygning til at svare på et sådant spørgsmål. Men for at hjælpe dig med et svar: Søgemaskinen skal give et filtreret øjebliksbillede af nettets tilgængelige information. Derfor skal Google opdatere uendeligt hurtigt for at følge med. Da det ikke lader sig gøre indsætter man et polling interval, hvis størrelse igen kan variere på baggrund af forskellige parametre (prioritering, interruptions, load osv).
Bliv lige enig med dig selv plz. Først siger du at Google skal gemme alle sider (levende som døde), hvorefter du påstår at Google ikke skal være historiebog. Det er da en modsigelse af rang.
#45
Ja, jeg kan se at jeg ikke forstod dine spørgsmål. De er offtopic. Jeg snakkede om døde sider. Derfor troede jeg at det var et spørgsmål til døde sider, der gemte sig bag din dårlige formulering. Min fejl. Anyways. Jeg er ikke langt nok inde i Googles tekniske opbygning til at svare på et sådant spørgsmål. Men for at hjælpe dig med et svar: Søgemaskinen skal give et filtreret øjebliksbillede af nettets tilgængelige information. Derfor skal Google opdatere uendeligt hurtigt for at følge med. Da det ikke lader sig gøre indsætter man et polling interval, hvis størrelse igen kan variere på baggrund af forskellige parametre (prioritering, interruptions, load osv).
Til alle jer idioter der er kommet med geniale kommentare som "Hvis du er så klog så lav en bedre"
Det tager sgu ikke et geni at se at google er ringe til at finde netop det du søger. Ofte er man nød til at lede 10-15 sider af resultater igennem blot for at smide noget fuldkommen ondsvagt med i search queriet blot for at få nye resultater, og alligevel ende med at man ikke har fundet det man søger efter. Samtidigt er det ofte MEGET åbenlyst at de første resultater ikke ligger først fordi de passer bedst til det du søgte efter, men af andre grunde navnligt misbrug.
At man kan se dette betyder ikke at man kan lave en bedre søgemaskine, men google ville let kunne sætte nogle krafter i at forbedre det, hvis ikke de havde så travlt med at finde på nye måder at tjene penge så aktierne kan stige lidt mere.
Hvis en bibliotikar kom med ligeså dårlige resultater på en søgning for mig ville jeg tro personen var retarderet.
Så til jer vil jeg blot sige:
HVIS GOOGLE ER SÅ FANDENS GOD HVORFOR OPFINDER I SÅ IKKE BARE EN KUR MOD KRÆFT!??!?!?!??????
//kæft møgbørn.
Det tager sgu ikke et geni at se at google er ringe til at finde netop det du søger. Ofte er man nød til at lede 10-15 sider af resultater igennem blot for at smide noget fuldkommen ondsvagt med i search queriet blot for at få nye resultater, og alligevel ende med at man ikke har fundet det man søger efter. Samtidigt er det ofte MEGET åbenlyst at de første resultater ikke ligger først fordi de passer bedst til det du søgte efter, men af andre grunde navnligt misbrug.
At man kan se dette betyder ikke at man kan lave en bedre søgemaskine, men google ville let kunne sætte nogle krafter i at forbedre det, hvis ikke de havde så travlt med at finde på nye måder at tjene penge så aktierne kan stige lidt mere.
Hvis en bibliotikar kom med ligeså dårlige resultater på en søgning for mig ville jeg tro personen var retarderet.
Så til jer vil jeg blot sige:
HVIS GOOGLE ER SÅ FANDENS GOD HVORFOR OPFINDER I SÅ IKKE BARE EN KUR MOD KRÆFT!??!?!?!??????
//kæft møgbørn.
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.