‘Server too busy’. Als het aan ITS-promovendus Ihor Kuz ligt, zal dat bericht een stuk minder vaak opduiken. Met het slimme serverhoppen wordt internet sneller en goedkoper.
/em>
De groei van het world wide web is niet te stoppen. Waren er in 1993 nog enkele duizenden webpagina’s, nu zijn dat er al meer dan een miljard. Begin dit jaar telde het internet wereldwijd 590 miljoen regelmatige gebruikers, bijna een kwart meer dan vorig jaar. Maar bij grote groei komt er een punt dat de infrastructuur te kort schiet, dat is bij het internet niet anders dan bij snelwegen en luchthavens.
,,Bij de start van internet hielden systeemontwerpers er geen rekening mee dat het zo’n populair medium zou worden”, zegt Ihor Kuz. ,,Het ontwerp van de infrastructuur en de protocollen is daarom vrij simpel gehouden.”
Schaalbaarheid is dan ook niet één van de beste eigenschappen van het huidige world wide web. Vooral bij een zogenaamde flashcrowd, wanneer veel mensen plotseling een bepaalde site bezoeken, wordt het dataverkeer trager. In het ergste geval is de site zelfs helemaal niet bereikbaar. Na de aanslag op het Amerikaanse World Trade Center moest CNN bijvoorbeeld alle advertenties en het leeuwendeel van de graphics van de site verwijderen om nog enigszins contact met de buitenwereld te kunnen houden.
Voor de verbetering van de prestaties van het internet bestaan verschillende technieken, waarvan (proxy-)caching en replicatie de bekendste zijn. In beide gevallen wordt een kopie van een website lokaal opgeslagen op een nabijgelegen server (bijvoorbeeld die van de faculteit), of op de eigen computer. Om de gekopieerde site actueel te houden wordt hij eens in de zoveel tijd overschreven met het origineel.
Deze methoden maken gebruik van de gouden regel: hoe korter de afstand, hoe sneller is de informatie op de plek van bestemming. De datastroom gaat dan namelijk langs zo min mogelijk routers; knooppunten in het netwerk waar informatiepakketjes een bepaalde kant op gedirigeerd worden, vergelijkbaar met kruisingen en in- en uitvoegstroken op de snelweg.
Toch meent Kuz % die al op zijn elfde zijn eerste cursus programmeren in Basic volgde % dat het allemaal nog veel beter kan op het www. ,,Proxicaching en replicatie komen allebei neer op one size fits all. Het zijn dure oplossingen, die bovendien bij flashcrowds nog steeds te kort schieten.”
Tour
Kuz werkte daarom voor het Globedoc-project (een samenwerkingsverband tussen de VU Amsterdam en de TU Delft) aan een fundamenteel herontwerp van de architectuur van het internet.
Kuz loopt naar het schoolbord en tekent een futuristisch model vol redirectors, translators en gateways. In het hart van het systeem staat een Globedoc-object. Die meet hoe vaak een bepaalde webpagina wordt bezocht, en waar de bezoekers vandaan komen. Vervolgens wordt per pagina automatisch een replicatiestrategie vastgesteld, die regelt op welke servers in de wereld een webpagina het beste kan staan om optimaal internetverkeer mogelijk te maken.
Kuz geeft een voorbeeld: ,,Als een Nederlander het goed doet in de Tour de France, en veel Nederlanders de website van de tour bezoeken, zet Globedoc automatisch een aantal kopieën van die site op Nederlandse servers. Als de lokale populariteit afneemt, wordt de kopie weer van de lokale server gewist.”
Daarbij bepaalt Globedoc per webpagina constant een optimum tussen de criteria snelheid, actualiteit van de site en de gebruikte bandbreedte. Dat laatste is vooral interessant voor systeembeheerders: hoe lager de bandbreedte, hoe goedkoper de noodzakelijke investeringen in glasvezels en processorcapaciteit.
Vergelijkend warenonderzoek wees uit dat Globedoc inderdaad op de gezamenlijke criteria beter scoort dan de conventionele methoden. Een belangrijk bijkomend voordeel is dat het goed te integreren valt met de huidige www-infrastructuur. Diverse bedrijven % waaronder KPN % hebben al interesse getoond.
www.cs.vu.nl/globe
‘Server too busy’. Als het aan ITS-promovendus Ihor Kuz ligt, zal dat bericht een stuk minder vaak opduiken. Met het slimme serverhoppen wordt internet sneller en goedkoper.
De groei van het world wide web is niet te stoppen. Waren er in 1993 nog enkele duizenden webpagina’s, nu zijn dat er al meer dan een miljard. Begin dit jaar telde het internet wereldwijd 590 miljoen regelmatige gebruikers, bijna een kwart meer dan vorig jaar. Maar bij grote groei komt er een punt dat de infrastructuur te kort schiet, dat is bij het internet niet anders dan bij snelwegen en luchthavens.
,,Bij de start van internet hielden systeemontwerpers er geen rekening mee dat het zo’n populair medium zou worden”, zegt Ihor Kuz. ,,Het ontwerp van de infrastructuur en de protocollen is daarom vrij simpel gehouden.”
Schaalbaarheid is dan ook niet één van de beste eigenschappen van het huidige world wide web. Vooral bij een zogenaamde flashcrowd, wanneer veel mensen plotseling een bepaalde site bezoeken, wordt het dataverkeer trager. In het ergste geval is de site zelfs helemaal niet bereikbaar. Na de aanslag op het Amerikaanse World Trade Center moest CNN bijvoorbeeld alle advertenties en het leeuwendeel van de graphics van de site verwijderen om nog enigszins contact met de buitenwereld te kunnen houden.
Voor de verbetering van de prestaties van het internet bestaan verschillende technieken, waarvan (proxy-)caching en replicatie de bekendste zijn. In beide gevallen wordt een kopie van een website lokaal opgeslagen op een nabijgelegen server (bijvoorbeeld die van de faculteit), of op de eigen computer. Om de gekopieerde site actueel te houden wordt hij eens in de zoveel tijd overschreven met het origineel.
Deze methoden maken gebruik van de gouden regel: hoe korter de afstand, hoe sneller is de informatie op de plek van bestemming. De datastroom gaat dan namelijk langs zo min mogelijk routers; knooppunten in het netwerk waar informatiepakketjes een bepaalde kant op gedirigeerd worden, vergelijkbaar met kruisingen en in- en uitvoegstroken op de snelweg.
Toch meent Kuz % die al op zijn elfde zijn eerste cursus programmeren in Basic volgde % dat het allemaal nog veel beter kan op het www. ,,Proxicaching en replicatie komen allebei neer op one size fits all. Het zijn dure oplossingen, die bovendien bij flashcrowds nog steeds te kort schieten.”
Tour
Kuz werkte daarom voor het Globedoc-project (een samenwerkingsverband tussen de VU Amsterdam en de TU Delft) aan een fundamenteel herontwerp van de architectuur van het internet.
Kuz loopt naar het schoolbord en tekent een futuristisch model vol redirectors, translators en gateways. In het hart van het systeem staat een Globedoc-object. Die meet hoe vaak een bepaalde webpagina wordt bezocht, en waar de bezoekers vandaan komen. Vervolgens wordt per pagina automatisch een replicatiestrategie vastgesteld, die regelt op welke servers in de wereld een webpagina het beste kan staan om optimaal internetverkeer mogelijk te maken.
Kuz geeft een voorbeeld: ,,Als een Nederlander het goed doet in de Tour de France, en veel Nederlanders de website van de tour bezoeken, zet Globedoc automatisch een aantal kopieën van die site op Nederlandse servers. Als de lokale populariteit afneemt, wordt de kopie weer van de lokale server gewist.”
Daarbij bepaalt Globedoc per webpagina constant een optimum tussen de criteria snelheid, actualiteit van de site en de gebruikte bandbreedte. Dat laatste is vooral interessant voor systeembeheerders: hoe lager de bandbreedte, hoe goedkoper de noodzakelijke investeringen in glasvezels en processorcapaciteit.
Vergelijkend warenonderzoek wees uit dat Globedoc inderdaad op de gezamenlijke criteria beter scoort dan de conventionele methoden. Een belangrijk bijkomend voordeel is dat het goed te integreren valt met de huidige www-infrastructuur. Diverse bedrijven % waaronder KPN % hebben al interesse getoond.
www.cs.vu.nl/globe

Comments are closed.