blog.JanWiersma.com

Chill Off 3 aan de horizon

Het heeft even geduurd voordat DatacenterPulse (DCP) met een update rond de Chill Off testen konden komen. Dit heeft te maken met wat tegenslag tijdens het testen, maar vooral met de ontzettende hoeveelheid aan onderzoeks data, die het opgeleverd heeft. Deze moet, uiteraard, nauwkeurig onderzocht en getoetst worden voordat men met resultaten komt.

Op dit moment worden de resultaten van de Chill Off 2 aan diverse externe specialisten voorgelegd; technische DCP leden die hun sporen verdient hebben in de datacenter wereld en in hun huidige functie verantwoordelijk zijn voor de grootste datacentra op de wereld.

Tijdens het SVLG Data Center Energy Efficiency Summit in oktober van dit jaar zullen de resultaten gepresenteerd worden.

De DCP Board is zich vast aan het voorbereiden op het vervolg: de Chill Off 3.

Tot nu toe hebben we ons gefocust op de efficiëntie van koelsystemen. De datacenter koelsystemen zijn er om de IT systemen in het datacenter te kunnen laten functioneren. De vraag is echter: wat kunnen de IT systemen eigenlijk hebben en wat kunnen we daar nog aan verbeteren.

Denk hierbij aan de Datacenter Tent test van Microsoft;

Inside the tent, we had five HP DL585s running Sandra from November 2007 to June 2008 and we had ZERO failures or 100% uptime.

In the meantime, there have been a few anecdotal incidents:

  • Water dripped from the tent onto the rack. The server continued to run without incident.
  • A windstorm blew a section of the fence onto the rack. Again, the servers continued to run.
  • An itinerant leaf was sucked onto the server fascia. The server still ran without incident (see picture).

Maar ook aan het recent oprekken van de temperatuur in het datacentrum door ASHRAE;

Expansion of the recommended data center temperature range, which should be taken at the server inlets. They should now be 18 degrees Celsius to 27 degrees (64.4 degrees Fahrenheit to 80.6 degrees), expanded from 20 degrees to 25 degrees (68 degrees Fahrenheit to 77 degrees).

De IT systemen blijken dus best wel wat te kunnen hebben… tijd dus om ze aan de tand te voelen.

Voor de Chill Off 3 zullen server leveranciers gevraagd worden om hun beste systeem te leveren met de volgende parameters:

– DCP stelt de inlet temperatuur vast (verwacht voor lucht rond de 40C)

– DCP levert benchmark software (o.a. eBay query’s en mogelijk SPECxxx)

– DCP test met luchtkoeling en waterkoeling (ook water direct op de chip) in een datacenter omgeving.

Resultaten zullen getoetst worden op basis van het aantal Query’s per Watt dat de machine kan verwerken bij de door ons aangegeven omgevingscondities. De server leveranciers worden hiermee gedwongen om te kijken hoe ver ze kunnen gaan met hun systemen.

Tot nu toe heeft o.a. Intel al toegestemd met medewerking voor deze testen.

Er moeten nog een hoop details uitgewerkt worden voordat we kunnen starten met deze testen, maar deze tweaker/overklokker mentaliteit zie ik natuurlijk helemaal zitten 🙂

Share

Microsoft’s holistische blik…

Microsoft heeft een nieuw whitepaper uitgebracht genaamd A Holistic Approach to Energy Efficiency in Datacenters.

In het document onderschrijven ze de manier waar op DatacenterPulse naar het datacenter kijkt en die ik eerder heb beschreven in Groene applicaties ? Integratie !

But just improving PUE should not be an organization’s goal. The real goal is to eliminate waste and pack as much
compute capability in the available power budget. PUE can be a useful indicator of energy efficiency, but it can also
mislead you if used blindly. Take for example a scenario in which the fans in a server can be removed without impacting
its performance. The elimination of fan power reduces the IT power (fan power is part of IT power), improves energy
efficiency, but it also increases the PUE!

De Microsoft mensen (voornamelijk Global Foundation Services (GFS)) verdienen credits voor hun werk en openheid hier over.

Meer:

Share

Groene applicaties ? Integratie !

In de datacenter wereld zijn we al enige tijd bezig met energie efficiëntie. Er worden gezamenlijke normen ontwikkeld zoals Power Usage Effectiveness (PUE). De kunst in het datacenter is dan om zo veel mogelijk energie voor de IT apparatuur beschikbaar te hebben en zo weinig mogelijk te ‘verliezen’ in koeling, verlichting, UPS en andere facilitaire voorzieningen.

Er is een constante race gaande om deze PUE zo klein mogelijk te maken. Er ontstond zelfs een hele PUE ‘oorlog’, aangevoerd door de marketing afdelingen van diverse grote datacenter aanbieders. Deze race levert hele goede innovatie op, maar richt zich alleen op het fysieke datacenter.

Deze PUE zegt helemaal niets over het verbruik van de IT apparatuur zelf; een server kan energie verbruiken en ondertussen geen nuttig werk staan te verrichten (‘idle’ zijn). Ook kunnen de applicaties die op de systemen in het datacenter draaien, ontzettend inefficiënt geschreven zijn en daar door veel energie verbruiken.

Het hebben (en behouden) van een goede PUE betekend dus niet automatisch dat men ook Groen is. Zeker niet als we ook aspecten als grondstof verbruik, recycling en afvoer van afval stoffen (denk aan verpakkingsmaterialen voor servers) en water verbruik (denk aan koelinstallaties) meenemen.

Dat het bekijken van het geheel in plaats van het (sub)optimaliseren van delen handiger is, is iets wat ik al langer verkondig in presentaties en artikelen. Hier voor hanteer ik meestal de DCP Stack;

090924-dc-stack-1.4

Deze toont de gehele keten, die noodzakelijk is om waarde te leveren aan de organisatie. Ook zien we dan de onderlinge afhankelijkheden. (Dit word ook wel de holistische datacenter blik genoemd.)

De IT zijde van de DCP Stack (Platform en hoger) beleven dynamische tijden met virtualisatie en Cloud technieken. Deze dynamiek heeft ook zijn uitwerking op de onderliggende lagen; het fysieke datacenter.

Zo komt men met technieken om virtuele servers dynamisch te verplaatsen van de ene naar de andere fysieke server (VMotion genaamd bij VMware). Hier door ontstaat de mogelijkheid om tijdens dal uren fysieke servers uit te schakelen; deze staan dan toch niets te doen. (VMware Distributed Power Management – Youtube Video).

Hiermee krijgen we een dynamisch IT datacenter, waarbij collecties van servers op- en afschakelen en daar mee ook een zeer dynamische warmte last gaan genereren. Daarbij zou communicatie tussen de IT omgeving en het fysieke datacenter handig zijn; de IT omgeving kan een voorwaarschuwing afgeven naar het koelsysteem bij het opschakelen van een grote collectie servers.

Continue with reading

Share

PUE, wereldwijd ondersteund

Zoals ik eerder melde in Werken aan eenheid rond PUE.., is men bezig om een breed ondersteunde omschrijving van PUE vast te stellen.

Deze is recent uitgebracht:

On January 13, 2010, eight leading organizations that set or use data center energy efficiency metrics, including the 7×24 Exchange, ASHRAE, The Green Grid, Silicon Valley Leadership Group, U.S. Department of Energy’s Save Energy Now and Federal Energy Management Programs, U.S. Environmental Protection Agency’s ENERGY STAR Program, U.S. Green Building Council, and Uptime Institute, met to discuss these metrics for data centers and formed a task force to further define these measurements. This task force, which has met regularly since the initial summit, has prepared the attachedRecommendations for Measuring and Reporting Overall Data Center Efficiency. The goal of this document is to recommend a consistent and repeatable measurement strategy that allows data center operators to monitor and improve the energy efficiency of their facilities. A consistent measurement approach will facilitate communication of Power Usage Effectiveness (PUE), the recommended energy efficiency metric from the agreed upon guiding principles, among data center owners and operators. More information about the guiding principles from the January meeting can be found here.

The attached document addresses how to measure PUE in dedicated data centers. The task force will continue to meet to develop recommendations for how to measure PUE for data centers in larger mixed-use facilities.

We hope that these recommendations help you understand how to measure and publish overall data center infrastructure energy efficiency, and we welcome any questions by e-mail to ENERGYSTARdatacenters@icfi.com.

Data Center Metrics Task Force Recommendations 7-15-2010

Dit document geeft een mooie basis voor het werk van NEN en CENELEC voor de respectievelijk Nederlandse en Europese datacenter standaarden.

Mijn dank aan DatacenterPulse collega Tim Crawford, voor zijn inzet en werk op dit vlak!

Share

BICSI-002 uitgebracht

Zoals eerder vermeld is BISCI bezig met de “Data Center Design and Implementation Best Practices”. Deze is nu officieel uitgebracht.

With the push for greater capacity, increased efficiency and higher levels of utilization, data centers have become
more complex to design and bring on-line. Due to this, today’s data center designer is often required to have knowledge in mechanical, electrical and telecommunications systems—areas not typically found in the same reference manuals or standards.

BICSI 002 addresses this need. Written to complement existing standards, within its pages are requirements,
recommendations and additional information that should be considered when planning and building a data center,
such as site selection, layout, thermal systems and security.

http://www.bicsi.org/uploadedFiles/News062110_Standard.pdf

Share

Automation levert DC container uit België

Afgelopen week presenteerde de Belgische firma Automation hun datacenter container concept. Het bedrijf heeft zijn wortels in de telecom en levert daar al jaren succesvol container modellen voor.

Na enkele jaren traditionele datacentra te hebben gebouwd, is men nu begonnen met een datacenter container.

Daar waar de meeste datacenter container leveranciers kiezen voor de standaard (ISO) afmetingen, kiest Automation er voor om de container als basis te kiezen en deze uit te bouwen.aut-cont2

De standaard ISO container is ongeveer 2,4 meter breed, waar die van Automation ongeveer 3,5 meter is. Hier door ontstaat meer ruimte om een fatsoenlijke rack opstelling te maken waarbij men zonder problemen systemen kan in- en uitbouwen.

De standaard ISO container komt o.a. in 20 en 40 feet lengte. Die van Automation is wat langer aangezien deze aan het einde voorzien is van de koelinstallatie.

De afmetingen zijn echter wel zo gekozen dat deze vallen binnen de Europese regels rond weg vervoer. Ook heeft men de ‘oude’ bevestigingspunten van de ISO container bewaard zodat deze gemakkelijker te hijsen is.

aut-cont1

Bij vervoer word de koelinstallatie tijdelijk gedemonteerd.

Al deze ruimte maakt diverse configuraties mogelijk. Hierbij kan een generator (N), een UPS (N+1), een koelinstallatie (N+1) en enkele systeem racks in 1x 20 feet container gestopt worden. Er behoeft dan enkel elektra en glasvezel toegevoerd te worden. Ook zijn configuraties mogelijk waarbij meerdere IT containers en Utility containers een totaal datacenter container park vormen.

Omdat de container van binnen netjes afgewerkt is met isolatie materiaal (komt o.a. de brandwerendheid ten goeden) en hij ruimer is dan een standaard container, word er een laag drempelig alternatief gecreëerd voor de bestaande oplossingen van bijvoorbeeld SUN/Oracle en HP; men heeft  binnen het idee in een ‘normale’ datacenter ruimte te staan.

Met een gemiddelde levertijd van 6 weken, staat dit kant en klare datacenter op de stoep bij de afnemer.

Share

De keten specialisten ?…

Afgelopen week berichte de Computable over de aankoop van AAC Cosmos door Unica. Hier mee versterkt het installatie groep Unica zijn mogelijkheden in de ICT infrastructuur en datacentra.

Unica creëert hier mee dezelfde mogelijkheden als Imtech. Zij namen in 2002 ICT bedrijf Brocom over.

Zoals ik eerder berichte, staat de facilitaire organisatie nog steeds ver van de ICT afdeling als het op het datacenter aan komt. Dit is ook vaak het geval bij installatie bedrijven; ze zijn erg goed in het bouwkundige, mechanische en elektrotechnische aspect van het datacenter, maar missen de taal van de ICT-er die vaak benodigd is.

Tevens limiteert deze kloof organisaties in het toepassen van energie efficiëntie en beschikbaarheid in de keten;

Binnen de hele keten zijn veel vakspecialisten werkzaam. Deze zijn dagelijks bezig met optimalisatie op hun eigen deel gebied. Vanuit de bedrijfsvoering moeten managers echter wel kijken naar de gehele keten. Als we op elk blokje bijvoorbeeld redundantie toepassen om de beschikbaarheid te verhogen, leidt dit tot dubbele kosten in de gehele keten. Zo komt het voor dat de applicatiebouwer beschikbaarheid in de applicatie bouwt, de (Windows-)beheerder zijn systeem als clustersysteem uitvoert, de hardwarebeheerder de systemen met dubbele voeding uitvoert en vervolgens de facilitair beheerder een redundante voeding levert en een Tier 4-datacenteromgeving bouwt.

De potentie om de keten te bedienen en te doorzien, had Imtech al even met Brocom en komt mondjes maat van de grond. Ik ben benieuwd of de installatie specialisten van Unica en de ICT architecten van AAC Cosmos elkaar snel kunnen vinden en echte meerwaarde voor de klant kunnen creëren in het datacenter.

Komt het misschien toch nog goed met de echte datacenter architect. 😉

Share

Werken aan eenheid rond PUE…

Op 13 januari 2010 kwam onder leiding van de US Department Of Energy (DOE) een bont gezelschap bij elkaar:

  • 7×24 Exchange
  • ASHRAE
  • The Green Grid:
  • Silicon Valley Leadership Group
  • U.S. Department of Energy Save Energy Now Program
  • U.S. Environmental Protection Agency’s ENERGY STAR Program
  • U.S. Green Building Council
  • Uptime Institute

Doel was consensus te vinden rond het meten van energie efficiëntie. Naar aanleiding van deze bijeenkomst werd een overeenkomst gesloten om op dit gebied samen te werken en te komen tot een standaard.

In navolging van deze overeenkomst werd in april aangekondigd dat diverse overheids en standaarden organisaties ook aangehaakt zijn en gezamenlijk werken aan de wereldwijde normering van PUE:

Parties to the agreement include segments of the U.S. Department of Energy, as well as the U.S. Environmental Protection Agency’s (EPA’s) Energy Star program, Japan’s Ministry of Economy, the European Union Code of Conduct, and various industry groups, such as the before-mentioned Green Grid and the Green IT Promotion Council of Japan. The agreement specifies power usage effectiveness (PUE) as the industry standard for energy efficiency measurement.

Zie ook: The Green Grid in een persbericht hier over.

Hier mee heeft deze samenwerking de potentie om een wereldwijde standaard voor PUE neer te zetten.

De vraag is; wat gaat Nederland doen ? Gaat bijvoorbeeld ICT~Office (samen met TNO) door met de ontwikkeling van de Nederlandse EUE ? Of zoeken we aansluiting bij de internationale initiatieven.

DatacenterPulse is aangesloten bij het internationale initiatief, via de samenwerkingsovereenkomst met The Green Grid en de samenwerking met Silicon Valley Leadership Group.

Meer over de samenwerking aan een energie efficiëntie norm:

DatacenterJournal.

Persbericht van EnergyStar.gov

Share

De BICSI-002 standaard.. of.. handboek…

Zoals eerder aangegeven werkt BICSI aan een datacenter standaard. Deze heeft de naam BICSI-002 mee gekregen en word verwacht in 2010. Nu de laatste hand word gelegd aan het document van 400+ pagina’s, word er ook meer bekend over de inhoud.

Het document krijgt de naam “Data Center Design and Implementation Best Practices” mee. Hier mee is het ook duidelijk dat het meer om een ‘best practices’ handboek gaat, dan om een standaard.

Het document is gebaseerd op Amerikaanse normen, maar zou internationaal bruikbaar moeten zijn. Zoals met veel documenten van standaarden organisaties, beschrijft het redelijk traditionele techniek.

BICSI heeft een uitgebreid artikel geschreven over de te verwachte inhoud van het document.

BICSI News Magazine

Share

Microsoft’s (Cloud) container

De afgelopen tijd zijn er meer details bekend geworden over de al eerder besproken Windows Azure Container, ook wel ITPAC’s genaamd.

De ontwikkeling van deze ITPAC’s is onderdeel van het generatie 4 concept microsoft-ballmer-containerrond datacentra van Microsoft. Hier is bijvoorbeeld het Chicago datacenter een onderdeel van. In dit datacenter worden nog containers gebruikt van o.a. Dell. Met de bouw van de eigen ITPAC’s hoopt Microsoft o.a. het energie en water verbruik nog verder te reduceren.

Een video met de opbouw en werking van de container is te vinden op de Microsoft website.

Enkele spec’s:

  • PUE – 1,15 tot 1,19
  • 400 tot 2500 servers (Dell tot nu toe) afhankelijk van de gewenste storage/server mix.
  • Omgeving:  10-32 C (50 –90 F) en 20-80% luchtvochtigheid. Dus geschikt om buiten te plaatsen.
  • 8 tot 11 liter water per minuut voor koeling. (Een tuinslang red tot wel 18 liter per minuut.)
  • Ledig gewicht 5000 kg. Gewicht incl. IT systeem +/- 12.500 kg.
  • Gebouwd in 4 dagen met ‘standaard’ componenten.
  • Slechts benodigde aansluitingen: water, elektra, glasvezel.

De container zal niet verkocht worden als concurrent van bijvoorbeeld de SUN MD20 (Blackbox), en zal ook niet alle apparatuur uit een gemiddelde enterprise omgeving kunnen huisvesten… het is echter wel een zeer innovatief ontwerp.

De hoop is dat de commerciële container bouwers dit oppikken en de innovatie geschikt maken voor het brede publiek.

Meer op:

One Small Step for Microsoft’s Cloud, Another Big Step for Sustainability

Share