Webinar 'Datacenters en serverruimten'
Het webinar biedt toezichthouders energiebesparing handvatten bij hun energiecontroles als zij te maken krijgen met Datacenters en Serverruimtes. Aan bod komt onder meer: werkingen en herkennen van technieken, hoe beoordeelt u of de ondernemer voldoet aan de EML-maatregelen, zoals ‘Geautomatiseerd power management’ en de bijbehorende regels rond doelmatig beheer en onderhoud (DBO)

Logo Informatiepunt Leefomgeving
Beeldtekst: Datacenters en serverruimten
We gaan zo beginnen.
Jan Klein Kranenburg: 'En we gaan starten met het webinar over datacenters en serverruimten. Ik wil mensen die kijken welkom heten. Ik wil ook welkom heten aan twee tafelgasten die naast mij zitten. Om ze maar gelijk even voor te stellen. Rechts van mij, links voor de mensen die thuis kijken, zit Dirk Harryvan. Dirk Harryvan die werkt bij Certios. En Dirk, ik heb je natuurlijk een beetje gegoogeld gisteravond en Dirk die is, dienstverlener aan datacenters, dus je weet er veel van. Maar ook gepromoveerd natuurkundige. Dus ook over het onderwerp energie raak je niet uitgepraat. En we zeiden net al van: Het is niet jouw uitdaging om, te weinig te vertellen, maar vooral te veel te vertellen. Dus we krijgen het webinar zeker vol denk ik. Met heel veel nuttige kennis voor de mensen die aan het kijken zijn. Ik hoop het. Links voor mij, rechts voor de mensen thuis, zit Stijn van Werven. Ook buitengewoon deskundig heb ik gemerkt op het gebied van datacenters, en serverruimte. Heel veel praktijkkennis, want jij komt daar bij die datacenters. Dus je kijkt vooral of de adviezen, die Dirk gegeven heeft ook daadwerkelijk in uitvoering worden gebracht. Nou, zo meteen starten we met een interessant gesprek denk ik. Even wat praktische zaken. Mensen die aan het kijken zijn, die zien ook een chatfunctie. We hebben de zogenaamde greenroom hier in huis. Wij zien die mensen niet. Jullie thuis ook niet, maar er zitten echt vier man sterk om vragen te beantwoorden. En stuur die vragen ook vooral in, want dat is natuurlijk leuk om, kennis die je wilt hebben over het onderwerp ook gelijk te kunnen krijgen. Want wie weet komt zo'n vraag hier niet aan de orde. Het is ook zo dat mensen in de greenroom als zij, een vraag interessant genoeg vinden om hier aan tafel nog even in te brengen dat, ik hem hier op het scherm zie en misschien nog even plenair ga behandelen. Het programma: We gaan zo meteen starten met een presentatie hoofdpunten. Dirk gaat iets vertellen over: Wat is nou een datacenter? Hoe ziet het energieverbruik eruit? We gaan het hebben over koeling, we gaan het hebben over energiemanagement en, tussentijds ga ik ook Stijn het woord geven, want Stijn heeft die praktijkervaring. Wat kom je zoal tegen in de praktijk?'
Stijn van Werven: 'Zeker.'
Jan Klein Kranenburg: 'Dus we gaan van start. En Dirk, ik zou zeggen van: je hebt een bedienapparaat voor de presentatie, en laten we de eerste sheet voorzetten.'
Dirk Harryvan: 'Zo.'
Jan Klein Kranenburg: 'En een logische startvraag natuurlijk, wat is eigenlijk een datacenter? Dus vertel het.'
Dirk Harryvan: 'Een datacenter, als je het puur naar de definitie kijkt, is een, faciliteit voor het huisvesten van ICT-apparatuur. En dat is ook een klein beetje het plaatje wat ik heb laten zien. Het is een heel erg vereenvoudigde voorstelling. Als we bij grotere datacenters komen en dan noemt men die ruimte, waar al die ICT-apparatuur verzameld wordt, de white space. Dat is wat verhuurd wordt, dat is wat gebruikt wordt, wat apparatuur omzet. En rondom die white space staan allerlei installaties. Om, die white space mogelijk te maken. Dus een stroomvoorziening uiteraard, maar die stroomvoorziening is, gezekerd met batterijen, generatoren en, het andere grote element wat hier omheen speelt is koeling. Al die apparatuur wordt warm en die warmte moet worden afgevoerd, en om het geheel zit muren, hekken, beveiligers, camera's, alles wat we kunnen verwachten.'
Jan Klein Kranenburg: 'En dat heeft gelijk iets mysterieus, sowieso binnen: al die knipperende lampjes, maar ook buiten: dat geheimzinnige met hekken en geen ramen. En waar ik wel benieuwd naar ben, want datacenters, ik rijd wel eens door Nederland heen. Ik zie bedrijven met rook, met veel licht en daar zie je energiegebruik. En bij datacenters is het allemaal vrij onzichtbaar. Maar toch. We kennen de verhalen uit het nieuws natuurlijk. Het zijn hele grote energieslurpers. En jij weet volgens mij ook hoeveel procent van het nationale energieverbruik opgaat aan datacenters.'
Dirk Harryvan: 'Ja, ik moet zeggen, weten is een groot woord, want, we zijn er niet helemaal over uit. Maar het CBS heeft er onderzoek naar gedaan en dat is alweer een paar jaar terug. Toen was het een stuk boven de 3% van alle elektriciteit, die in Nederland verbruikt wordt. Alles, dus een totaal 3% van een industrieel huishoudelijk kantoorgebruik. Als je alles bij elkaar optelt, 3% daarvan gaat naar datacenters. In de tussentijd is de groei echter doorgezet, dus het zal nu rond de vier, misschien wel vijf zitten. En de prognose voor de toekomst is dat wij voorzichtig doorgroeien. Of niet zo voorzichtig.'
Jan Klein Kranenburg: 'Dat is enorm en dat maakt het belang hiervan, het toezicht op dit, deze tak van sport natuurlijk extra belangrijk. En Stijn, je komt bij de Omgevingsdienst Twente. Je komt in Twente ook bij bedrijven. Ja, ik woon ook in Oost-Nederland. Ik kom wel eens op de snelweg daar. Ik zie dan wel industrie in Hengelo. Ik zie de Vredestein, de Grolsch, dat soort bedrijven nou ook heel zichtbaar. Maar ik ken geen data, ik associeer Twente niet met datacenters, maar ook daar zijn ze wel.'
Stijn van Werven: 'Ook daar zijn ze zeker aanwezig, zij het niet zo groot als, de enorme vestigingen van Microsoft en dergelijke rondom Amsterdam. Maar ook in het werkgebied van Twente heb je toch vijftien à twintig datacenters. En dan moet je denken aan verschillende schaalgroottes. Dus je hebt, datacenters die rond de miljoen ongeveer gebruiken die daar iets onder zitten die daar, iets boven zitten. In het geval van serverruimten kan het natuurlijk nog een stuk kleiner zijn. Het kan in het ene kantoorpand zitten van grote kantoren van grote bedrijven die, veel met data werken. En je hebt ze op nog kleinere schaal. Die komen veel toezichthouders ook tegen in de praktijk. In principe heeft elk bedrijf een patch ruimte waar een enkel rack staat, met enkele servers die daar staan te draaien. Die laatste categorie is niet heel energie-relevant. Maar hoe groter, hoe relevanter natuurlijk die categorie.'
Jan Klein Kranenburg: 'En een goede toevoeging, want we gaan het vandaag hebben over datacenters, maar ook over die serverruimten. We willen beide onderwerpen hier meenemen. En je doet gelijk wat jargon denk ik, rack, wij denken aan een rek: r-e-k. Maar jij bedoelt: r-a-c-k. Dus die lange rijen met die lampjes die je ziet knipperen, waar dus die daadwerkelijke servers in zitten.'
Stijn van Werven: 'Ja, en even voor de beeldvorming wel belangrijk voor toezichthouders. Een patchruimte is dus bijvoorbeeld één of een halve kast, met daarin een paar racks met een paar servers. Die zijn niet heel relevant, wordt meestal niet eens gekoeld, zo'n ruimte. Maar als je hebt over energie relevante serverruimten, dan ga je vanaf een minimum van vijf kilowatt. Dat zijn ongeveer vier volle kasten naast elkaar of meer dan dat. Dat is even voor de beeldvorming waar je dan naar kijkt.'
Jan Klein Kranenburg: 'Terug naar het plaatje. De white space, de koeling. We gaan het wat meer hebben over het energieverbruik in zo'n datacenter. Dirk, wat kun je daar over zeggen?'
Dirk Harryvan: 'Ja, we gaan even naar een tussenslide. Wat doet dat datacenter dan eigenlijk? Dat is wel aardig dat je zei het, die knipperende lampjes. Nou hier hebben we ze. Rijen van machines met knipperende lampjes, om mensen een idee te geven. Eén zo'n blauwe balk, verticaal zou maar zeggen is dan één zo'n rack gevuld met computers. Deze zijn wel iets energie dichter. We zitten hier tussen de vijf en tien kilowatt per rack. Dus dat telt aardig snel door. Maar belangrijk is, we zijn allemaal volledig gedigitaliseerd en die diensten, die wij afnemen, die worden verzorgd vanuit die datacenters. Het is wel belangrijk om te realiseren dat, die diensten komen niet door het datacenter, maar vanuit het datacenter. Dus er zijn andere partijen die gebruiken het datacenter en de computers, die daar in gehuisvest zijn om die dienstverlening op te bouwen. De computers kunnen eigendom zijn van het, datacenter zelf en dan spreken we vaak over een enterprise datacenter. Een grote bank heeft zijn eigen computers, een eigen ruimte en dergelijke. Of wat in Nederland ook heel veel aanwezig is, is co-locatie. Dat betekent dat, een eigen bedrijf die geen eigen datacenter heeft, zijn computers, hier huisvest. Dus dan zijn er voor al deze racks verschillende eigenaren. Het ziet er dan ook meestal niet zo uniform uit als dat het nu is. Het datacenter levert de facilitaire diensten, daaromheen en al dan niet daar.'
Jan Klein Kranenburg: 'En Stijn, herken je dit ook? Deze situatie?'
Stijn van Werven: 'Zeker. En dat maakt het gelijk een stukje complexer in de praktijk om soms toezicht te houden. Vooral locaties waar veel verschillende bedrijven hun servers hebben geplaatst. En dan zal het datacenter in sommige gevallen, hun verantwoordelijkheid een beetje afschuiven. “Het zijn niet mijn servers, ik kan daar niet op dingen gaan aanpassen.” Neem niet weg dat het gewoon zijn locatie is. En hij de servers faciliteert. Dus hij moet aan bepaalde energiebesparende maatregelen voldoen. Dus dat argument dat dat gaat niet helemaal op in dat geval.'
Jan Klein Kranenburg: 'Zijn er wel uitzondering te bedenken dat je inderdaad, de eigenaar van het datacenter niet zelf kunt aanspreken?'
Stijn van Werven: 'Er zijn bepaalde argumenten te bedenken, bijvoorbeeld voor, servers die geplaatst zijn door bedrijven die echt nood verlenen, echt spoed diensten moeten kunnen leveren die zeggen: “Joh, wij hebben bepaalde afstellingen nodig, hier kunnen we niks aan gaan veranderen”. Dat is dan zo, maar in het overgrote deel van de meerderheid kan dat wel.'
Jan Klein Kranenburg: 'En wat is je ervaring als je kijkt naar een mooi plaatje van zo'n gang? Het ziet er wel heel steriel uit, de toegang tot zo'n ruimte dat geeft, geen problemen?'
Stijn van Werven: 'Je kan er niet zomaar binnenwandelen als toezichthouder. Je moet natuurlijk iemand bij je hebben. Het is vaak beveiligd, ook omdat het gevoelige informatie is. Dus je komt daar niet zomaar binnen. Je moet met een tag en je moet, sommige racks zijn dan ook weer bij colocaties afzonderlijk beveiligd, dat niet andere bedrijven ook bij hun racks kunnen komen. Dus je moet daar wel de verschillende stappen heen, voor je echt hier op deze mooie vloer kan staan.'
Jan Klein Kranenburg: 'Ja, oké. Dankjewel. Dirk, gaan we weer naar jou toe.'
Dirk Harryvan: 'Ja, want we hadden het over energie. Dat is het keyword hier hè. We hebben IT nu voorbij laten komen en de facilitaire kant. En zo kun je de energie ook opdelen. Dus als we 100% van de energie in, en hoeveel dat is, dat is dan afhankelijk van de grootte van de locatie. Maar het is in de industrie gebruikelijk om dat, goed te bemeteren en te weten waar de energie in gaat. Energiemanagement als zodanig. Is ook een verplichting. Deze energiestromen zijn groot. En in, de industrie wordt daarvoor een kengetal gebruikt. Dat kengetal heet de Power Usage Effectiveness, oftewel PUE. En dat is de verhouding die we hier in beeld zien. Het is uit de Amerikaanse grond en wij Europeanen, zouden hem hebben omgedraaid om het in percentages te zien. Dan was het 67% geweest wat naar de ICT gaat. Nu draaien we de zaken om en is dat 1,5. Ik doe dit al heel lang, en we zijn ooit begonnen ergens, vlak voor de eeuwwisseling toen ik, erbij kwam en toen was boven de 2 heel gebruikelijk. Toen was het vaak zo dat de IT component minder, verbruikte dan de facilitaire wereld eromheen. Dus er zijn heel veel goede dingen gedaan.'
Jan Klein Kranenburg: 'Ja, en ik hoorde jullie in het voorgesprek wat getallen uitwisselen. Maar wat is, nou een standaard zeg maar, waarvan je zegt: Dat is nog acceptabel. Hier is 1,5 in het voorbeeld genoemd. Is 1,5 nou een signaal van, dit is een goede serverruimte of een goed datacentrum of, kan het ook wel wat lager?'
Dirk Harryvan: 'Nou, het kan zeker lager. Nou, het kan zeker lager. En als we dan heel even kijken naar, de provincie Noord-Holland. De provincie Noord-Holland heeft voor vergunningverlening, hier een maat opgezet, dus waarbij je de bouw moet afstemmen richting een bepaald getal. En dat getal is 1,16, dus 116. Dat betekent dat we nog maar onder de 10%, gaat naar de faciliteiten en meer dan 90% gaat naar de, negentig. Dat doe ik fout waarschijnlijk. 20-80, maar in ieder geval die 1,16 die we daar uitkomen, is het richtgetal en dat wordt als goed en dat is ook echt bijzonder goed. Dat zul je voor bestaande datacenters niet vaak tegenkomen. 1,2, 1,3 zijn hele behoorlijke getallen, maar aan de meest positieve kant uitschieters, die zitten onder de 1,1. Dus dat is echt meer dan 90% en soms 95% dat naar de ICT gaat. En dan voor de facilitaire kant blijft dan nog maar een fractie over. Maar dat zijn de, nou ja, de meest professionele clubs die we hier in Nederland hebben.'
Jan Klein Kranenburg: 'Ja, goed dus, dat is wel een prachtig plaatje. Dus dan zijn key diagrammen ook een heel belangrijke afkorting. Want dit is echt wel de kern zeg maar, PUE, dat is een norm om naar te kijken.'
Dirk Harryvan: 'Het is in ieder geval een getal wat de datacenters onderling, en naar elkaar toe gebruiken om hun efficiëntie te duiden. In Nederland is onder de 1,5 komen zeer moeilijk, maar je zult dit getal veelvuldig tegenkomen. En het is zinvol om dit te zien. De uitsplitsing die daarna komt, die is er wellicht ook nog. Kan in uitzonderlijke gevallen heel zinvol zijn. Maar in de basis, koeling IT of de facilitaire dienst totaal, want er zit veel meer in dan alleen de koeling. Die splitsing is zinvol. Om een eerste indicatie te hebben van: hebben we hier te maken met een, hele efficiënte of een minder efficiënte omgeving?'
Jan Klein Kranenburg: 'Ja, duidelijk. Ja. Jij kent hem ook? het getal. En wat kom je in praktijk tegen? Grote variatie?'
Stijn van Werven: 'Dat verschilt een beetje per hoe groot de serverruimten zijn. En ook datacenters zijn. Dus echt de professionele grotere jongens. Die hebben dat inderdaad doorgaans goed voor elkaar. Kijk, in principe moet elk datacenter hun fysieke servers allemaal bemeten, om te kijken hoeveel stroom gaat er nou doorheen? Hoeveel kunnen we ook doorbelasten aan al onze klanten? Dus ze weten hoeveel ze primair naar de servers toe gaat. Op het totaal wat ze inkopen, dus het getal ligt bij vrijwel elk datacenter gewoon voor handen. De wat kleinere datacenter die zijn nog wel wat minder efficiënt, daar ligt het getal al iets hoger.'
Jan Klein Kranenburg: 'Dankjewel.'
Dirk Harryvan: 'Klikken we hem een keertje door.'
Jan Klein Kranenburg: 'Ja, koeling.'
Dirk Harryvan: 'Ja, want al die energie die het datacenter opneemt, wordt omgezet in warmte. Het is geen fabriek in de traditionele soort. Wij manipuleerden in die datacenters bitjes en dat doen we om deze uitzending te kunnen faciliteren, om hier te komen met Google Maps en dergelijke. Maar wat er uit gaat, zijn een paar lichtflitsjes op glasvezelnetwerken. En dat is, verwaarloosbaar aan energie. In de basis alle energie die erin gaat, die wordt omgezet in warmte. Ik heb in dit plaatje hoogspanningsleidingen opgenomen omdat dat ook de schaal is waar ik regelmatig mee te maken heb. Wij meten serverruimten vaak en datacenters, met hun energie aansluiting. En voor serverruimten zijn dat enkele kilowatts, vijf kilowatt, dat wil zeggen vijf kilowattuur per uur. Zitten de colocatie datacenters rondom, Amsterdam, Rotterdam rond de grote steden ook Eindhoven en dergelijke. Die denken meer in de, termen van een megawatt, dus duizend kilowatt, en dan daar veelvouden van. En er komt een moment waarop mensen niet meer een gewone krachtstroom aansluiting hebben, maar daadwerkelijk hoogspannings- of middenspanningsstations op het terrein. Alle energie wordt warmte. Houden we dat even vast. En die warmte moeten we kwijt, want als we deze elektrische verwarminkjes, die de servers zijn allemaal in die ijskast die het datacenter is, laten draaien, dan gaat het uiteindelijk fout. Dus die ijskast moet koelen. En over die koeling, is heel veel te doen geweest. Ik zei al ik ben begonnen ergens rond de eeuwwisseling en, toen konden we nog gewoon, naar 18 tot 20 graden. Dat was in het datacenter, altijd jas mee. We gaan in het datacenter zijn dus het was altijd koud. We zijn er langzaam van afgestapt, en we zijn nu op het punt gekomen dat we, een maatregel hebben ingesteld, dat de koeling niet kouder kan zijn dan 27. Met wel uitzonderingen, want als je dit helemaal vrij, zeg maar door het raam openzetten bereikt en het wordt toevallig binnen vijftien graden omdat het buiten vijf is, dan is dat uitstekend. Maar als je energie moet gaan toevoegen om te gaan koelen, dan is het naar 27 koelen. En 27 is een temperatuur waarop de ICT apparatuur in zijn geheel allemaal uitstekend werkt. Die wordt allemaal gegarandeerd tot 27. En ze hebben vaak een operationele temperatuur die tot 35 tekent. Dus dit zit nog een ruime marge voor de veiligheid van de ICT apparatuur. Maar niet zover dat we de garantie, voorwaarden van de IT apparatuur raken.'
Jan Klein Kranenburg: 'Dus het veelgehoorde verhaal van: “Een serverruimte of een datacenter moet ijskoud zijn, want anders wordt het gevaarlijk voor de data”, dat klopt gewoon niet.'
Dirk Harryvan: Nee, dat klopt gewoon niet.'
Jan Klein Kranenburg: 'Nee, nee, dat is een belangrijke constatering. Je vertelde ook dat is mijn kennis, dat is jouw kennis die je me net vertelde dat, eigenlijk dat een soort van, gewoonte is geworden uit de tijd van de ponskaarten, zelfs nog geloof ik. Dat vond ik een leuke anecdote die je vertelde.'
Dirk Harryvan: 'Ja dat was die anecdote die ik zei, dat geldt wel voor die twintig graden dat ons was, dat is, maar toen waren de ponskaarten ook al, 15 tot 20 jaar uit de roulatie. En we hadden dat gewoon vastgehouden als zijnde dit is wat het moet zijn. Ja, we zijn in de tussentijd een stuk verder gekomen. De apparatuur die is ook gewoon echt ernstig verbeterd. Niet alleen veel krachtiger, maar ze zijn ook veel consistenter in opbouw, en dit zijn temperaturen die ze makkelijk kunnen hebben.'
Jan Klein Kranenburg: 'Dus als Stijn bij een locatie komt en dan kan die eigenlijk met een blinddoek op als je binnenkomt al zeggen van: “Hey, hier is het oké of hier is het goed”. Als het te koud is dan is gewoon niet oké.'
Stijn van Werven: 'Ja, dat is wat Dirk aangeeft. De ietwat conservatieve denkbeelden die ik ken, die gaat toch mee in de tijd. Heel veel mensen denken nog steeds tussen de 20 en 25 graden moet er worden gekoeld. Terwijl het inderdaad nu al onderzocht is en 27 graden kan prima. Het moet inderdaad niet koud zijn of fris als je binnenkomt, maar aangenaam, wat warmer.'
Jan Klein Kranenburg: 'Ja. Dus het tweede belangrijke denk ik voor de mensen die kijken, die PUE was één, maar dit is ook een hele belangrijke: Het mag warm zijn. Het moet warm zijn.'
Stijn van Werven: 'Zeker. Ja, en dit is ook een maatregel waar je heel, actief op kan sturen als toezichthouder. De setpoint, dus de temperatuur die wordt ingesteld, als koeling, die kan je aflezen als je binnenkomt of die zoek je op in, in de computer gegevens. Maar 27 graden is dus gewoon te handhaven.'
Jan Klein Kranenburg: 'En dan heb je nog iets genoemd over vochtregulatie. Wat kun je daarover vertellen?'
Dirk Harryvan: 'Ja, binnen het klimaat beheer van de datacenters, is temperatuur één element, vocht is het andere, en daar geldt een soortgelijk, verhaal voor. We komen uit een wereld dat we zeiden het moet 50% zijn, relatieve luchtvochtigheid, plus of min 5 procent. En dat was het dan. Om zoiets te handhaven zijn er hele grote periodes waarop je de lucht loopt, te drogen, en er zijn hele grote periodes waarop je de lucht loopt te bevochtigen. En dat is een continu proces om het in de buurt van die 50 te houden. Maar opnieuw, de apparatuur wordt, gegarandeerd over een hele brede vochtigheid grens. En die zelfde datacenters die, onder die, 1,1 zitten die doen helemaal niet aan vochtregulatie. Het enige wat van belang is, is dat je geen condensatie mag hebben. Ergens mag vocht neerslaan, dus als je je koelt met lucht als je ergens, water krijgt. Oké, dat is niet de bedoeling. Maar tot die tijd hoef je de lucht niet te drogen of te bevochtigen. En ook dat is energie.'
Jan Klein Kranenburg: 'Ik heb inmiddels een vraag van iemand die aan het kijken is, Stefan Braams, die heeft een vraag over die PUE. Die zegt dit is, die verbetering van de PUE die stagneert eigenlijk al jaren wereldwijd. Wat is volgens jou Dirk, waar is de grootste winst te behalen? En horen daar ook nieuwe metrics bij?'
Dirk Harryvan: 'Ja, die term ken ik niet, maar die ken jij vast wel. Nou, het is, op een deel van dat antwoord komen we later terug, want die PUE stagneert. Maar ik zou zeggen bijna in Nederland minder. We hebben hier een uitstekend buitenklimaat voor het houden van datacenters. En we hebben hele milde zomers, en niet zulke enorm strenge winters dat je allerlei andere gekke dingen moet doen. We hebben een klimaat wat zeer geschikt is om, met vrije koeling, zo'n datacenter, binnen de grenzen te houden. En dan komt de Nederlandse omgeving, vaak beter uit dan wereldwijd. Moet voorstellen dat, als je in Singapore ergens in de tropen een datacenter probeert te hanteren, dat het ook irreëel is om te verwachten dat je daar 1,1 gaat halen ooit. En dus is de vraag: waar is dan winst te behalen? De winst is hier in Nederland toch ook nog wel. Getuige het feit dat er locaties zijn die onder de 1,1 komen. En het is kopieerbaar. Het is niet geheime technologie of iets dergelijks, maar, dat vergt wel een herinrichting, die de investeringen wel, nou ja, vraagteken of dat je dat er op die manier ooit uit haalt. Voor nieuwbouw, houdt men 1,16 aan. Stel dat we dat nu allemaal door de jaren heen zullen vasthouden, dan zal de PUE hier in Nederland tenminste nog wel een eindje zakken. Die koel temperatuur is er een van, want dat, dat maakt gewoon vrije koeling mogelijk. De andere grootste winst zit in het IT deel. Want stel je voor, je hebt die 1,1 PUE bereikt, betekent dat dat 90% van je energie naar die ICT gaat. En als je dan energie wilt besparen, dan is de ICT het eerst dat voorkomt. Dus dat is een relevante vraag.'
Jan Klein Kranenburg: 'Mooi, ja. Nou dankjewel Stefan thuis. Dan gaan we door.'
Dirk Harryvan: 'Ja, want temperatuur is één, en waar meten we dan, die temperatuur is een belangrijk element. We meten de temperatuur daar waar de ICT apparatuur de lucht aanzuigt. Dus dat is voor de ICT apparatuur aan de kant. Er is een koude en een warme kant aan zo'n server. En als je er ooit bent, of je hebt gewoon je computer thuis staan, je hebt zo'n ouwe, tower staan ergens, dan zit een grote vent aan de achterkant. Daar blaast warme lucht uit. Dit is professioneel hetzelfde soort spul. Dus het zuigt aan de ene kant en de voorkant zuigt het koude lucht in. Die moet dan die 27 zijn. En aan de andere kant komt er warme lucht uit. En we denken dan, over de 35 graden. Dus in een datacenter kan het serieus warm worden, 40 graden plus. Wat dat tegengaat is luchtmenging. Het plaatje laat een beetje zien, we hebben allerlei namen die daar om zitten, maar we zijn, er is een soort luchtmenging waar datacenters heel erg, last van hebben als het gebeurt. En dat is de recirculatie. Dat is warme lucht die uit de achterkant van de rek wordt geblazen, die op een of andere wijze terugkomt, aan de voorkant. En dan kunnen we wel 27 in de lucht aanbrengen, maar als er, veertig graden lucht bij wordt gemengd, dan gaat het gauw de verkeerde kant op. Ja, dat klinkt heel logisch. Dus dat probeert men veel te voorkomen. En een manier om het te voorkomen is gewoon heel veel koude lucht in te blazen. En omdat blazen ook energie kost, is al dit soort menging van lucht, kost uiteindelijk energie. Het zijn allemaal ventilatoren, dus het zijn de ventilatoren van de servers, het zijn de ventilatoren in koelmachines die draaien. Al die luchtverplaatsing kost energie. En ik heb het ooit uitgerekend omdat ik daar bezig was. In die grotere datacenters gooien we met, olympische zwembaden een lucht per seconde. Dus dat is de luchtverplaatsing. Je denkt lucht, hoe kan dat nou, veel energie kosten? Maar als je maar genoeg lucht wil verplaatsen in de korte tijd, dan wordt het een hele energie intensieve aangelegenheid.'
Jan Klein Kranenburg: 'Nou, ik moet denken aan die warme dagen die we hebben, en we zijn thuis in de vakantie, dat je even die warmte buiten wil houden. En toch even die zoon of dochter hebt die het raampje open zet en binnen de kortste keren je hele huis opgewarmd. En in dit geval in die in die datacenters, heb jij ook wel eens situaties meegemaakt. Waarbij een hele simpele, oplossing mogelijk is om verkeerde luchtstromen te voorkomen? Ja, noem hem maar.'
Stijn van Werven: 'Zeker.'
Dirk Harryvan: 'Zal ik hem even voorzetten dan?'
Stijn van Werven: 'Voor deze maatregel dus FI6, voor het scheiden van de koude en warme gangen, zijn er eigenlijk twee elementen heel belangrijk. Dus in je heb in eerste instantie de lay out, hoe is de ruimte opgebouwd. Dus zorg ervoor dat aan alle kanten de kasten zijn ingebouwd. Je hebt een verhoogd plafond wat Dirk al aangaf. Daar komt de koude lucht dan aan de binnenkant doorheen. Zorg ervoor het plafond dicht is, dat de zijkant goed dicht zijn. En bijvoorbeeld hier in het plaatje, ook de deuren als je binnengaat, zorg ervoor die deuren automatisch dichtgaan. Als je daar een paar minuten staat, en er komt, allemaal warme lucht binnen is dat natuurlijk hartstikke zonde. Maar nog belangrijker in de kasten zelf, in de racks. Voor een deel zijn die gevuld met allemaal servers. Dat is allemaal prima. Daar gaat de koude lucht doorheen en die, blaast aan de achterkant dan de warme lucht af. Maar er zijn ook omwille van het verplaatsen van servers, of omdat bedrijven hun servers weghalen, lege racks te vinden in zulke kasten. En daar, die lege plekken die wil je natuurlijk niet gebruiken, waar warme en koude lucht elkaar kan kan raken. Dus het is een heel eenvoudige maatregel die wel consistent moet worden, doorgevoerd in plaats van plint platen. Dat zijn zwarte platen die je in de lege racks, kan plaatsen om het als een mooi metselwerk dicht te metselen op de plekken waar, voorheen nog warme lucht doorheen kwam dat nu eenmaal is afgedicht.'
Jan Klein Kranenburg: 'Ja, het lijkt mij een spotgoedkope oplossing voor heel veel effect.'
Stijn van Werven: 'En het is iets dat continu onder de aandacht moet worden gebracht, want, monteurs die zijn aan de lopende band bezig om servers te verplaatsen of om iets, weg te nemen. Ja, dan gelijk plint plaat, erop dat er niet tussentijds allemaal warmte of kou verloren gaat.'
Jan Klein Kranenburg: 'Goeie tip.'
Dirk Harryvan: 'Ja, is een hele effectieve. Ja niet niet onderschatten dat al die luchtstroom, denk dat dat ook drukverschil is, dus laat zo'n ruimte open. Aan de voorkant wordt gezogen. Er is wat onderdruk mogelijk, maar dat probeer je allemaal te voorkomen. Een plint plaatsen, is een hele goede praktische oplossing en ook heel zichtbaar voor de voor die inspecteurs mensen die binnenkomen. Koude lucht. Want computers worden met lucht gekoeld. Er is een aparte categorie die vloeistof gekoeld wordt. Dat is het meest te vinden in de high performance hoek. De supercomputers van deze wereld worden meestal met vloeistof gekoeld. Maar, 99% van de wereld bestaat gewoon uit luchtgekoelde servers. Net zoals de systemen, laptops die je hebt, thuiscomputers en dergelijke. Het is allemaal luchtkoeling. Dus die 27 graden wordt gemaakt. Dat is echt maken. Omdat opnieuw het, grote merendeel van de datacenters lucht circuleert. Ze nemen dus nooit verse lucht in. Iets voor ventilatie, maar dat is minimaal. En om alle vervuiling naar buiten te houden circuleren ze de binnenlucht. Dus ze krijgen die warme lucht terug op koelmachines. Hier op het plaatje heten die computer rooms air handlers. De CRAH met een h. Waarom we dat noemen is dat als het met een H geschreven is, dan zitten er, geen compressoren in zelf. Deze machines krijgen koud water aangeleverd. Ze hebben een radiator met een ventilator, even heel banaal gezegd dat het, zo zit dat ongeveer, ja. Een grote radiator met een ventilator eronder. En die lucht, die warme lucht wordt over de radiator gezogen, wordt daardoor afgekoeld en teruggeblazen. Daarmee wordt het koude water warm. Dat warme water wordt afgepompt. Nieuw koud water wordt aangevoerd. Dus de vraag is nu verschoven: “Hoe maak ik koud water?” Koud water is redelijk makkelijk te verkrijgen. Een heel groot deel van de tijd, in Nederland heb je alleen maar een radiator op je dak nodig. Daar laat je dat warme water inlopen. Je laat de ventilatoren erover heen blazen. De koude Nederlandse buitenlucht koelt het water af naar de gewenste, temperatuur, en dan kun je het weer naar binnen pompen en dan ben je klaar. Als de buitenlucht, temperatuur daarvoor te hoog is, dan moet je het actief gaan koelen. Dan heb je gewoon een compressor gestuurde koelmachines. Die noemen we hier chillers. Heel veel is Engels. Maar dat is nou eenmaal ook in de datacenterwereld het geval. Dus de chiller krijgt dat warme water en, daar staan compressoren te draaien. Daarmee maakt die koud water en die condensor moet afgekoeld worden, En die condensorkoeling staat helemaal links en dat is serieuze warmte. En dat kan 40, 50, 60 graden warmte zijn die terugkomt. Die warmte wordt afgeblazen weer tegen de atmosfeer. Dus eigenlijk pompen we alle warmte naar buiten.'
Jan Klein Kranenburg: 'En dan gelijk al een vraag die al een tijdje staat, maar ik heb bewust even, laten liggen wat hij heeft hiermee te maken. En die vraag kwam van Sander Lempers. En die vraagt: “Is er in beeld hoeveel warmte vrijkomt bij koeling, bij grote datacenters? En legt de overheid ook verplichtingen op om die warmte, nuttig te gaan inzetten, bijvoorbeeld voor warmtenetten?” Nou, logische vraag. We zagen hem al aankomen.'
Dirk Harryvan: 'Ja, we zagen hem aankomen.'
Jan Klein Kranenburg: 'Wie durft hem te beantwoorden?'
Dirk Harryvan: 'Ik durf er wel wat over te zeggen. Het hergebruik van warmte wordt door heel veel datacenter partijen aangeboden. Dus er is zeker een wil aanwezig om dit te doen. Maar de kwaliteit van de warmte, Als het iemand is die, enigszins bekend is met warmtenetten dan weet hij wat hij bedoelt. Maar de temperatuur, waarop die warmte wordt aangeleverd door het datacenter, die valt nogal tegen. En timing wise ook verkeerd. Want zoals ik al zei, de meeste datacenters uit efficiëntie overwegingen hebben vrije koeling. Dus in de winter blazen ze hun warmte zo makkelijk mogelijk af. Dan draait die compressor niet. En dan moet je voorstellen dat wat wij warm water noemen, dat een graadje of 20 is, 20, 25 maximaal zo'n beetje. Dat is warm water. Koud water is dan 15 tot 20 graden. Dus het verschil is klein en de kwaliteit van de warmte is is laag. Behalve in de zomer als het buiten dertig graden is en die compressor staat, heel hard te draaien, dan is de kwaliteit van de afvalwarmte heel hoog. Maar dan willen we het weer hebben. Ja dus dat maakte dat het is. Dan is er nog de plaatsing. Datacenters staan niet in het centrum van de stad. Die staan aan de randen. En het aansluiten van de stad op die datacenterwarmte, is buitengewoon complex. In theorie is het waar. Duitse wetgeving stelt het zelfs verplicht. Datacenters moeten een deel van van hun warmte afstaan aan warmtenetten. In Scandinavië is het ook redelijk gebruikelijk. In Nederland is de situatie dermate complex dat het, maar een heel klein gedeelte van de warmte nuttig gebruikt wordt.'
Jan Klein Kranenburg: 'Ja, nou duidelijk uitleg en volgens mij een hele terechte vraag ook. Die vraag is volstrekt logisch om te stellen.'
Dirk Harryvan: 'En ik wil graag dat de vraag ook blijft komen. Deze vraag moet blijven bestaan en die moet blijven komen, dus dat is goed.'
Jan Klein Kranenburg: 'Een simpele vraag als, leek dan, want je hebt verteld over die white space. Daaromheen zitten wat faciliteiten, die mensen in die faciliteiten willen tuurlijk wel comfortabel werken. Ik neem aan dat die ruimten die eromheen liggen wel verwarmd worden door de warmte die van het...
Dirk Harryvan: 'Dat is wel iets wat wij van de grotere partijen verwachten. Dat ze intern in ieder geval hun warmte hergebruiken. Dat is ook geen standaard praktijk, maar het is wel iets waar aan gewerkt werd. Op zich is de datacenter industrie wel degelijk, zelf ook bewust. Dat is fijn om te weten.'
Jan Klein Kranenburg: 'Oké.'
Stijn van Werven: 'Ik kan dat bevestigen inderdaad. Vrijwel alle locaties zijn gasloos, dus gebruiken we voor de verwarming echt, of de restwarmte, of ze hebben wel airco units hangen die kunnen verwarmen, maar, verder geen gas of iets dergelijks. Dat is dan een goede bijdrage.'
Jan Klein Kranenburg: 'Ja oké.'
Dirk Harryvan: 'Zullen we nog eens een keertje wat aanklikken? Want even teruggrijpend op de vorige vraag, Waar zit dan die energie nou nog meer? En we hebben hier grafieken. Ik heb het aantal grafieken geprobeerd te minimaliseren, maar kon er toch eentje heel graag even laten zien. Hier zit heel vreselijk veel in. Stap 1, deze data is voor, zo'n beetje ieder datacenter vrij eenvoudig te verkrijgen. Wat we, hier hebben uitgezet, is de, energiestroom door de hoofdmeter. Dat is de bovenste van de lijntjes. Het het varieert. We zien variaties hierop zitten. Als je het aantal bultjes stelt dan zul je zien: dit is één week week. Van 1 november tot 7 november heb ik erboven geschreven. Dus een week aan data, en we zien dag nacht variaties. En waar komen die dan vandaan? Dan gaan we kijken naar de meters op de white space. Omdat er heel, veel apparatuur tussen zit voor de stroom zekerheid. Al die apparatuur heeft meters, is ook deze data heel makkelijk te verkrijgen. Vrijwel alle datacenters hebben, deze data paraat of kunnen dat op aanvraag aanleveren. Dus dit is wat verbruikt, de ICT in het datacenter? En we zien hier ook weer, De hobbels, dus er is dag-nacht fluctuatie. Let een beetje op dat de schaal waarop ie zit, dus de variatie is, tussen 230 en 260 niet heel diep. Het is niet tussen start en stop, maar er zit, een een 10% variatie op, en heel duidelijk dag- nachtritme. Zie je, als je die twee op elkaar deelt, eventjes conform die PUE gedachten. De officiële PUE is het jaargemiddelde, dus, jaarverbruik stroom en het jaarverbruik in stroom in de in de white space. Maar je kunt ook een momentane PUE creëren, dus dat is op ieder moment van de dag, kun je die twee stromen op elkaar delen. En je krijgt een beetje rommelig beeld, naarmate de apparatuur in en af schakelt, maar wel een aardig beeld. En ze komen hier op ongeveer 1,7 als ze die hobbellijn een beetje volgen. Paar belangrijke dingen: dag-nacht is weg, het is vlak, en het is 1,7, in november. En november is niet de warmste maand, in Nederland, dus 1,7 zou ik zeggen, Daar zou je niet te veel mee te koop willen lopen, als datacenter. Maar dit is de actieve data. En van belang zijn die variaties dus, we zoeken eigenlijk de variatie in jaren. Voor die P1 werkt er een zomer-winter ritme. En als je dat ziet, dan kun je daaruit halen of er veel vrije koeling wordt gebruikt. En uit dit soort dag-nacht variaties die niet ieder datacenter heeft, dat ligt een beetje aan de workload die je hebt, maar heel veel datacenters zijn, gewoon facilitair aan kantooromgevingen. En dan verwachten we niet alleen een dag-nachtritme, maar we verwachten, een weekend ritme daarin. En ik heb dat in het, volgende plaatje even, Zal ik één plaatje overslaan?'
Jan Klein Kranenburg: 'Even en dan gaan we zo meteen terug. Prima.'
Dirk Harryvan: 'Dan gaan we even hierheen. Want, Ik heb hier twee, grafieken uitgezet en die grafieken laten, de werkdruk op de server zien. Op een server ergens in een, Deze zijn ook daadwerkelijk opgenomen. Er is niks gefungeerd aan. De blauwe lijn geeft de werkdruk. We drukken dat uit in het percentage van de CPU. Dus de centrale processing unit die in de server zit, die kan rapporteren: “Ik ben 50% druk, 30% druk”. Dit kan iedere laptop ook. Ik raad ook iedereen aan, Zet dat voor jezelf ook eens aan om te kijken wat ben ik nu aan doen? De meeste laptop gebruikers zullen iets tussen de 0 en 1% gaan zien. Dat is hun normale gebruik. Servers zijn natuurlijk gedeeld door heel veel mensen, die komen veel hoger uit. Maar die oranje lijn die we er bovenop hebben geplant is de energievraag in watt. Dus de bovenste is een server, die verbruikt 200 watt. En het is wel aardig om te zien dat dat geheel, onafhankelijk is van de blauwe lijn die eronder ligt. Zelfs als de werkdruk naar nul gaat. En dat is niet een meetfout of zo die daar zit. Dat was een onderhoudsmoment. Dan nog wordt er 200 watt gebruikt. Dat is een instelling op de server. Dan klik ik zo het plaatje terug. Want wat willen we eigenlijk? Eigenlijk willen we dat gedrag wat we in allerlei andere apparatuur ook herkennen? Als er hard gewerkt wordt, kost dat veel energie. Laten we zeggen als ik hard rijd met de auto, stap ik op het gas, verbruik ik veel benzine. Maar als ik nu geparkeerd sta verbruik ik nul. En als ik voor het stoplicht sta verbruik ik aanzienlijk minder.'
Jan Klein Kranenburg: 'Precies.'
Dirk Harryvan: 'Rechtsonder is dan zo'n computer die op die manier is ingericht. Dat is een instelling. Je kunt dat veranderen. Druk op de knop, is het anders. En deze server en, bij wie het is, is niet zo heel erg belangrijk, maar het is een Citrix farm. Het is de desktop omgeving van een groot kantoor. En we zien maandag, dinsdag, woensdag, donderdag, vrijdag en we zien ook het, laten we het zo zeggen, zelfs het verschil, dat er woensdag net iets minder mensen werken en vrijdag nog meer mensen werken, dat zit er allemaal in. En het stroomverbruik volgt hetzelfde patroon. En dat is reëel toch? Ik bedoel als we niet veel doen zouden we ook niet zoveel energie moeten verbruiken. Die instelling, die zit hier.'
Jan Klein Kranenburg: 'Ja en dit is volgens mij heel, het is best ingewikkeld hè, die grafieken. Maar als je dan dit plaatje ziet hier rechts hebben we dat start-stop symbool in de auto, dan weten de meeste mensen wat je bedoelt. Want niet elke auto heeft dat, maar bij de moderne auto, als je bij de stoplichten even stilstaat dan gaat die motor uit om, al is het maar een klein beetje, het is wel de energie die je kunt besparen.'
Dirk Harryvan: 'Een computer kan dat ook. En de mensen zullen dan zeggen: "Ja maar als ik dan weer op, zeg maar inschakel dan duurt het even voor de motor gestart is". Geldt voor een computer ook. Maar een computer werkt in miljoenste deeltjes van een seconde. Eigenlijk werkt het in miljardste delen van een seconde, dus dat is hoe het is. Maar in enkele miljoenste delen van een seconde is die computer, weer helemaal wakker, dus dat gaat iets sneller dan die auto. Maar het is een instelling die je erop kunt zetten, dus ook het gaspedaal, of die altijd vol gas rijdt of niet. En de aanbevolen instelling, hier is daadwerkelijk een EML maatregel op gebaseerd, is de gebalanceerde. Ik heb het met deze, mijn laptop is dat plaatje eventjes, op Best power efficiency. Dat is ook ik dat die dat doet, maar de, verplichte instelling is gebalanceerd, maar je ziet ook, al in de naamgeving dat dat het veelal gebruikte is, degene die eronder zit, of de high performance, of best performance. De naamgeving alleen al suggereert dat dat is wat mensen heel graag willen kiezen. De Nederlandse wetgeving zegt daarvan, gebalanceerd. En gebalanceerd, betekent niets anders dan: als er geen werk is, gaat hij minder energie verbruiken. Het plaatje wat hierna volgt.'
Jan Klein Kranenburg: 'Wat je vertelde Dirk is van, die opstarttijd is gering en miljoenste seconden zei je of zo. En mijn aanname is dat dat juist mensen weerhoudt de beoogde of de veronderstelde opstart snelheid om die instelling te kiezen. Is dat ook zo?'
Dirk Harryvan: 'Nee, dat is ook daadwerkelijk zo. En er zijn, situaties denkbaar waarbij die miljoenste seconde inderdaad van belang is. Maar er zijn veel meer situaties denkbaar waarbij die miljoenste seconde, helemaal niet van belang is. Als jij op je favoriete webshop iets bestelt en het duurt, 10 miljoenste van een seconde, langer, dan is dat niet iets wat jij gaat merken.'
Jan Klein Kranenburg: 'Nee, want de bottleneck waarmee je thuis zit achter de pc...'
Dirk Harryvan: 'Alleen al de looptijd van een signaal tussen jou en waar die webshop daadwerkelijk is, is meer dan dat. Je kan je wel voorstellen dat als je misschien machine to machine interactie hebt, en dat er een situatie gaat ontstaan dat die machines zo snel zijn dat ze dat verschil gaan merken. Maar besef daarbij dat dat alleen maar optreedt, die vertraging als er een periode van rust is geweest. Dus als die, machines een periode niks te doen hebben gehad, dan zetten ze de motor uit. En als ze gewoon aan de gang zijn, dan zijn ze gewoon aan de gang. En het start-stop systeem weerhoudt je er niet van om 120 op de snelweg te rijden. Het heeft geen invloed want je rijdt op de snelweg en dat geldt hier natuurlijk ook. Dus op het moment dat je gewoon druk bent, ben je druk en dan komt, dat start-stop helemaal niet voor. Dus er, blijven situaties waarop ik gewoon zeg high performance is de juiste weg. En we hebben er een, enkele beschreven in de EML. Maar open mind. En de omgevingen waar ik rondloop, voornamelijk in Noord-Holland, zeggen we altijd naar redelijkheid en billijkheid, zoals je kunt aantonen dat je er last van hebt, bijvoorbeeld, doordat je performance karakteristieken boven water hebt. Het is niet de bedoeling om de industrie af te remmen of tegen te houden. En dus als je er, last van hebt en je kunt dat aantonen, dan moet je dat zeker niet gebruiken. Maar voor het overgrote gedeelte van de machines is dit gewoon een bruikbare instelling. Nou, het verschil is groot. Let even op de verschillen die daar die erin zitten. Hij schakelt nu tussen de 150 en 300 watt. Is gewoon een factor 50%. En stel je voor dat we die 300 watt de hele week hadden gedaan, en in het weekend doen we niks. Dus het is, aanzienlijk.'
Jan Klein Kranenburg: 'Stijn, als jij bezoek brengt aan deze bedrijven, is het herkenbaar? Die instellingen die zien er ook zo uit. Die grafieken kun je ook inzien en je kunt er ook echt op sturen.'
Stijn van Werven: 'Ja, twee dingen daarover; bedrijven hanteren vrijwel uitsluitend argumenten van joh, we willen het beste aanbieden aan onze klanten. Als die een service hebben staan. Dus die willen dat eigenlijk het liefst niet aanpassen. Nou, Dirk gaf al aan het gaat om, fracties van seconden, dus in de meeste gevallen kan dat juist wel. Je kan in de BIOS gegevens naar servers gaan kijken, wat is nou de huidige workload en zou je het kunnen aanpassen? Inderdaad, dat kan je opvragen. Tot op heden, dit is een maatregel, FI2 mijn hoofd, hebben we hier nog niet op gehandhaafd als omgevingsdiensten, bij de meeste datacenters. En dat is omdat de datacenters bij, de brancheorganisatie zijn aangesloten. Die hebben vorig jaar een afspraak ondertekend, met de omgevingsdiensten bij, monde van Noordzeekanaalgebied. Om daarbij een eigen aanpak formuleren, en ze kregen een jaar de tijd daarvoor om dat in te dienen en, aan ons om dat te gaan controleren. Alleen vorig jaar, hebben we dat dus nog niet gedaan voor deze maatregel.'
Jan Klein Kranenburg: 'Maar gaat er wel aankomen.'
Dirk Harryvan: 'En iets meer, want ik zal hem opzetten en mogelijkerwijs komt die ook in de chat terecht over die werkwijze energiebeheer. Want, het is gewoon ook feit dat heel veel datacenter beheerders niet zomaar bij deze, want dit is intern in de IT. En uiteindelijk als je in een co-locatie datacenters bent, dan betekent dat dat je je klant moet aanspreken om die data te achterhalen. Het is niet makkelijk om het te achterhalen. Vandaar ook dat er tijd is gegund. Voor de meeste, toezichthouders zal het zo zijn dat ze nooit fysiek in deze machines, hoeven te kijken, omdat de werkwijze ervoor heeft gezorgd, dat het datacenter zelf de bewijsvoering verzamelt en aantoont. En dat staat beschreven hier bij de werkwijze. Volgens deze link.'
Jan Klein Kranenburg: 'Hartstikke goed. Volgens mij ben jij door je verhaal heen en wat ik interessant vind, want jij hebt heel veel praktijkervaring, een schat aan praktijkervaring, interessant voor de mensen thuis. We hebben een aantal, maatregelen de revue laten passeren. Er zijn er nog meer. Ik heb ze ook gezien. Het ging mij duizelen soms. Het zijn maatregelen als virtualisatie en consolidatie. Dat zijn termen die je normaal niet in bij een, toezicht in een café of ziekenhuis tegenkomt.'
Stijn van Werven: 'Klopt.'
Jan Klein Kranenburg: 'Kun je nog een inkijkje geven in de andere maatregelen die jij ook gebruikt?'
Stijn van Werven: 'Zeker, ja. Het zijn in totaal, we hebben de meeste al behandeld nu hoor. In het totaal zijn er negen maatregelen in de EML die specifiek voor serverruimten en voor datacenters zijn. Ze gaan primair over ofwel de servers ofwel over de koeling. Uitzondering daarop: je hebt de maatregelen voor de UPS dat is Uninterruptible power supply die zorgt voor de stabiele stroomvoorziening voor alle servers. Dat er niet iets raars gebeurt. Bijvoorbeeld in het geval van een stroomstoring wil je niet dat die servers uitvallen. Zo zorgt de UPS ervoor dat er net genoeg tijd wordt overbrugd, totdat de back up generator aanslaat en er stroom kan worden geleverd. Bedrijven hebben vaak, meerdere van die UPS’en staan in hun datacenter of in een serverruimte. En dan is het maar de vraag: Is dat niet overgedimensioneerd? Soms is de workload maar 30% van zo'n UPS en, kan je eigenlijk laag belasten eruit halen, waarbij de overige UPS het dan opvangen. En dat scheelt alweer een klap aan energie van die installatie. Verder is voor kleine serverruimten nog relevant, we hebben al benoemd, je kan met vrije koeling van de buitenlucht, je koelsysteem inregelen. Je kan ook rechtstreeks als je met een kleine serverruimte aan de buitenmuur zit, met roosters, eventueel automatische roosters, ook gewoon zelf vrije buitenlucht naar binnen laten gaan. Mocht er nou bezwaar komen van: joh, er zit roet in, of fijnstof of iets anders, dan kan je daar filters tussen plaatsen, maar dat kan je in veel gevallen al met de, meerderheid van het jaar kan je gewoon met vrije, buitenlucht rechtstreeks koelen. Dat scheelt dan ook weer enorm. Verder meen ik dat we de meeste maatregelen wel hebben gebruikt.'
Dirk Harryvan: 'Veel van die andere maatregelen zijn zeg maar, de standaard maatregelen die niet zo heel specifiek op het datacenter zijn gericht. Dingen als de ledverlichting en cv installatie misschien zelfs wat in een, voorheen waren het echt aparte lijsten voor iedere bedrijfstak, maar tegenwoordig gelden eigenlijk de lijsten generiek, voor iedereen, dus de generieke maatregelen blijven bestaan. Die vrije luchtkoeling, die staat, directe vrije luchtkoeling zoals je dat beschreef voor de serverruimte staat genoemd in de serverruimte. Maar wordt zei het sporadisch, in Nederland ook op de allergrootste locaties. Om toch met een paar namen te beginnen, maar als je Meta en Microsoft, en Google kijkt, die hebben locaties soms ook in Scandinavië die gewoon, direct met vrije lucht. Dus dan is mijn plaatje met al die water en dergelijke, dat verdwijnt allemaal. We hebben gewoon een grote ventilator, aan één wand staan en die blaast gewoon buitenlucht door een filter over de vloer en dan weer naar buiten. En dat is een hele, hele efficiënte manier van koelen. Ja. Maar ja, filtering is dan wel een noodzaak. En ja, het is een reden waarom, ook op sommige locaties in Nederland waarbij dit wel geprobeerd is, als we erachter komen dat er bijvoorbeeld in de Nederlandse kustgebieden best, wel veel zout in de lucht zit, ja dat wil je echt niet naar binnen zuigen. Dus dat is denk ik wel iets om mee te geven. De datacenter industrie is, ultiem risico avers. Eigenlijk bestaan die datacenters, met de grondreden alle risico's te vermijden. Zoveel mogelijk. En dat betekent dat iedere verandering wordt als een risico gezien. Iedere ingreep, mensen die binnenkomen als, we enigszins invloed kunnen uitoefenen, proberen ze buiten te sluiten. Dat werkt heel fantastisch. Je leest zelden in de kranten dat er grote strubbelingen zijn in de datacenters. Het Nederlandse net is ook redelijk stabiel. Dus ook die grote generatoren die iedereen heeft, staan maar zelden aan, gelukkig. Maar daar zijn ook nog maatregelen te bedenken, want het warmte hergebruik, dieselgeneratoren hebben voorverwarmingen. Dus die worden continu op temperatuur gehouden om, zo snel mogelijk te kunnen starten, wordt het motorblok op temperatuur gehouden. Dat kan met een weerstandsverwarming. Dat kan tegenwoordig ook met warmtepompen. En de warmtepompen zijn weer efficiënter. Dus daar zijn allerlei, dingen te doen die boven EML uitstijgen. Juist die maatregelen worden, eigenlijk ook aangedragen door de industrie. En de grotere locaties zijn dan onderzoeksplichtig. En in die onderzoeken komen technieken naar boven. Wat je zegt, daar hadden wij nog nooit over nagedacht. En dat is inderdaad effectief. Intelligente mensen aan die kant ook wel.'
Jan Klein Kranenburg: 'Mooie stappen gezet, maar tegelijkertijd hoor ik je wel zeggen van, er is wat gestuurd op risico's, wat minder op kosten. Nou ja, en als je wilt sturen op energiereductie is sturen op, kosten vaak effectiever dan sturen op risico's. Ja dus daar is toch wel iets te winnen?'
Dirk Harryvan: 'Daar wringt het een klein beetje. Aan de andere kant, de getallen zijn heel groot. Ja, ja. Zeker voor die enterprise datacenters dus, waarbij de eigenaren van de IT en de datacenter dezelfde zijn, daar zie je dat de sturing op de kosten wel degelijk ontbreekt. Maar er is meer dan alleen sturing op de kosten, want dat is, heel cru gesproken, heel veel datacenters berekenen hun energierekening gewoon door aan hun klanten. Dus dan zou je zeggen dan is het kostenaspect helemaal uit de beschouwing. Maar ze hebben ook wel eigen doelstellingen. We zien heel veel datacenters met groene doelstellingen. En die hebben dus vanuit een bedrijfscultuur, dat ze heel veel aan energiebesparing doen.'
Jan Klein Kranenburg: 'Ik wil nog even terug naar de mensen thuis. Er is een vraag ingediend. En die vind ik wel interessant. We hebben hem in het voorgesprek al beantwoord, dus ik weet het antwoord al. Maar hij is wel denk ik voor de hand liggend. Sturen op 27 graden, er wordt enerzijds gevraagd van, zijn er wel eens voorbeelden bekend dat het wel mis ging bij die temperatuur? Nou, ik denk dat daar het antwoord nee is. Het is bewezen techniek.'
Dirk Harryvan: 'Het is een bewezen techniek. Ik kan wel stellen dat wij een situatie hebben gezien, waarin die 27 graden, leidt tot een toename van het energiegebruik van de ICT apparatuur zelf. Ook ventilatoren in die servers gaan iets harder draaien. En als je hyper efficiënte koeling hebt, dan zou dat effect, ik heb nog niet gezien dat het bij 27 al speelt, maar daarboven gaat het zeker spelen. Dat het effect van de winst op je ruimte koeling, teniet wordt gedaan door de servers. Dus dat is meten, en weten. Meten is weten.'
Jan Klein Kranenburg: 'Ja precies. Maar het tweede deel van de vraag vind ik ook wel een leuke, want, Carola die vraagt van: Is het dan niet oncomfortabel voor, de medewerkers om in de ruimte te lopen van 27 graden?'
Dirk Harryvan: 'Ik ga dat nog wel even erger maken, want die 27, graden is de koude kant. En de veertig graden aan de andere kant, en laat nou de meeste van de stekkertjes aan die andere kant zitten. Dus we hadden al die mooie lampjes, dat is de koude kant. En die andere kant is een enorme stekkerdoos en, daar moeten de mensen het meest zijn om dingen te regelen. En is dat oncomfortabel? Ja, daar gaan we even geen doekjes om heen winden. Het zijn in een datacenter is oncomfortabel. Ja, ik suggereer neem oorbescherming mee. En dat ben ik al in de, de echte professionele hoeken ben ik dat tegengekomen. Daar hangen buiten hangen koel vesten. Want uiteindelijk is het de machinekamer die je binnenstapt. En dat moeten mensen niet vergeten. Het is geen werkplek, het is een machinekamer. Er werken wel technici in de machinekamer en die mensen moeten beschermd worden. Dus koel vesten, gehoorbescherming, voor statische elektriciteit zijn die mensen beschermd, dus het is een heel proces rondom werken rondom die computerapparatuur. En is dat oncomfortabel? Ja, het soms ook zelfs zwaar werk die apparatuur is, die heeft, veel gewicht. Dus het is, ik raad het niet aan om daar heel langdurig te zijn. Daar is het ook niet voor bedoeld. Het is geen werkplek.'
Jan Klein Kranenburg: 'Ik heb een klok voor me hangen, en we kunnen eindeloos doorpraten over dit onderwerp volgens mij. Maar het is inmiddels meer dan, 50 minuten. Wij hadden beloofd ergens tussen de 50 en 60, het gesprek af te ronden. Dus ik ga jullie ook danken voor dit gesprek. Ik vond het ontzettend boeiend en interessant. Ik hoop dat mensen ook thuis veel geleerd hebben, en hier weer echt mee aan de slag kunnen. Mensen thuis wil ik nog even, wijzen op de volgende webinars, de live webinars, die gaan door. We hebben vanmiddag nog eentje en morgen nog twee. En natuurlijk worden ze ook weer op den duur gepubliceerd op onze website op de website van IPLO. Dus daar kunnen jullie ze altijd terugkijken. Maar voor nu is dit het einde van dit webinar en hopelijk tot ziens! Dank jullie wel.
Dirk Harryvan: 'Dankjewel.'
Stijn van Werven: 'Graag gedaan.'
Logo Informatiepunt leefomgeving
Beeldtekst: Datacenters en serverruimten
Bedankt voor het kijken!
Meer informatie over webinars over energiebesparing
Het Informatiepunt Leefomgeving (IPLO) organiseert in samenwerking met het ministerie van Klimaat en Groene Groei en het ministerie van Binnenlandse Zaken en Koninkrijksrelaties diverse webinars met uitleg over de plicht tot verduurzaming van energiegebruik. Ook de onderwerpen waarmee toezicht en handhaving op deze plicht mee te maken krijgt komen aan bod.Het IPLO biedt de volgende webinars aan:
- Algemene webinars (uitleg over definitieve wetgeving en over veelgestelde vragen aan de helpdesk van het IPLO)
- Technische webinars (uitleg over technieken die energietoezichthouders tegenkomen bij hun controles op de energiebesparingsplicht)