blog.JanWiersma.com

SCADA netwerken & beveiliging… vervolg

De laatste weken is er aardig wat rumoer rond SCADA netwerken en hun beveiliging;

Sporthal gehackt via wijd open SCADA-systeem;

Een openstaande log-in heeft internetgebruikers onbeperkte toegang gegeven tot het beheren van fysieke zaken als luchttoevoer, temperatuur en alarmen in een sporthal in Spijkenisse.

En;

Nederlandse hacker onthult open SCADA-systemen;

Een Nederlandse hacker heeft een lijst van SCADA-systemen gepubliceerd die open en bloot aan het internet hangen.

En;

Zeeuwse gemalen te hacken via SCADA-lek;

De SCADA-systemen van rioleringspompen en gemalen van de gemeente Veere blijken slecht beveiligd. Hackers kunnen de systemen manipuleren vanuit huis. De gemeente is geschrokken.

En zelfs op Nu.nl;

D66 en VVD willen opheldering over hackers;

AMSTERDAM – D66 en VVD willen dat minister Ivo Opstelten (Veiligheid) opheldering geeft over het feit dat het kinderlijk eenvoudig is sluizen, gemalen, rioleringspompen en bruggen via internet te bedienen.

En 1-Vandaag besteden er een uitzending aan;

Sluizen, gemalen en bruggen slecht beveiligd;

Het blijkt kinderlijk eenvoudig om sluizen, gemalen, rioleringspompen en zelfs bruggen in Nederland via internet op afstand te bedienen. In EenVandaag een reportage die bijvoorbeeld laat zien hoe slecht de rioleringspompen en gemalen van de gemeente Veere zijn beveiligd. Met een paar simpele handelingen zijn ze vanaf een thuiscomputer te bedienen.

Het eerder geschreven artikel door Jeroen en mij rond datacentra, SCADA en veiligheid, is inmiddels opgepikt door DatacenterWorks: http://datacenterworks.nl/uploads/DCW%209-2011.pdf . Ook het Vakblad informatiebeveiliging pikte het op voor de leden van de PvIB : http://www.pvib.nl/tijdschrift

Het Nationaal Cyber Security Centrum (NCSC) heeft inmiddels een factsheet online gezet met daarin de veiligheidrisisco’s die overheden lopen. “De praktijk wijst uit dat veel organisaties onwetend zijn over welke van hun systemen direct via internet bereikbaar zijn. Een deel van die onwetendheid komt omdat systemen zijn aangelegd en/of worden beheerd door derden, waarmee geen of onvoldoende afspraken zijn gemaakt over beveiligingseisen”, waarschuwt het NCSC.

 

 

Share

Datacenter strategie 101

Eerder gepubliceerd in vakbladen voor Facilitair beheer. Datacenter strategie basics:

 

Informatie Technologie (IT) verandert heel snel en daarmee verandert ook het koppelvlak tussen IT en facilitair: het datacenter. Door de snelle veranderingen in de markt is het de afgelopen jaren steeds belangrijker geworden om het datacenter (of rekencentrum) mee te kunnen laten bewegen met deze ontwikkelingen. De kijk op datacenters is daardoor veranderd: daar waar het vroeger vaste ruimtes waren die men voor 10 à 15 jaar met een grote kapitaalinvestering bouwde, is hiervoor tegenwoordig een gedegen strategie vereist om flexibel in alle marktontwikkelingen mee te kunnen gaan. Deze datacenterstrategie is inmiddels net zo belangrijk geworden als de IT-strategie die het moet faciliteren.

Een goede datacenterstrategie moet de specifieke eisen en wensen van de organisatie adresseren. Het dient een strategie te zijn waarbij rekening gehouden moet worden met de groeiende complexiteit en de tientallen keuzes die de organisatie gaandeweg verwacht tegen te komen. Strategische planning is daarbij geen poging om risico’s te elimineren of te voorspellen hoe het datacenter er uit zal zien over vijftien jaar. Wel is het een manier om te bepalen welke risico’s de organisatie bereid is te nemen en vast te stellen welke richting past bij de bedrijfsstrategie.

Aan de hand van de drie volgende speerpunten kan men een pragmatische datacenterstrategie opstellen voor iedere organisatie:

  • trends en technologieën beoordelen die passen bij de organisatie;
  • de juiste stakeholders betrekken;
  • een kostenmodel bepalen.

Continue with reading

Share

Datacenter relevante (energie) wetgeving – whitepaper

The green gridDe Green Grid heeft een nieuw whitepaper uitgebracht: White Paper #44 – Energy Policy Research and Implications For Data Centres In EMEA. Het document telt 216 pagina’s aan relevantie wetten, regelgeving en subsidie mogelijkheden op het gebied van energie verbruik en relevante gebieden. Diverse landen in de EMEA regio worden behandeld, waar onder Nederland, Duitsland, Frankrijk, UK, maar ook Zuid Afrika en Rusland. Het document is een product van de EMEA Technical Commissie van The Green Grid, onderleiding van Harkeeret Singh. CBRE was verantwoordelijk voor het uitvoeren van het onderzoek. Het document is beschikbaar voor Green Grid leden en komt op termijn beschikbaar voor niet-leden.

Als voorbeeld de inhoudsopgave voor het Nederlandse deel:

  • 8 Netherlands
  • 1. EU and International Policies
  • 1.1. European Performance of Buildings Directive & Energy Performance Certification
  • 1.2. The Energy Labelling Directive (92/75/EEC)
  • 1.3. EU Ecolabel/Flower
  • 1.4. European Commission Code of Conduct on Data Centre Energy Efficiency
  • 1.5. Eco-Design Directive for Energy-Using Products (2005/32/EC)
  • 1.6. Certain Fluorinated Greenhouse Gases (EC Regulation 842/2006)
  • 1.7. EU GHG Emission Trading Scheme (Directive 2003/87/EC)
  • 2. National Policy Context .
  • 2.1. Decree Energy Performance of Buildings (BEG)
  • 3. Regulatory Obligations
  • 3.1. Building Regulations: Bouwbesluit
  • 3.2. Planning: Spatial Planning Act
  • 3.3. Spatial Planning Act (Wet op de ruimtelijke ordaening)
  • 3.4. Environmental Management Act (2004)
  • 4. Financial Costs
  • 4.1. NOx emissions trading
  • 4.2. Carbon Taxes
  • 5. Financial Incentives
  • 5.1. Tax incentive: EIA (Energy Investment Allowance) .
  • 5.2. Financing Support and Interest-Free Loans
  • 5.3. Feed-in Tariffs (FITs)
  • 6. Voluntary Mechanisms
  • 6.1. BREEAM-NL
  • 6.2. Green Fan
  • 6.3. More with Less Programme
  • 6.4. InfoMil
  • 6.5. Energy Star

 

Share

The ‘green’ PUE monster…

<sorry Dutchies.. this one is in English… sort of..>green-monster

My fellow Datacenter Pulse (DCP) colleague Mark Thiele wrote a good article on the use of PUE in the datacenter industry. He basically argues that you should look at the TCO of the datacenter and have a holistic view (like we promote with the DCP stack)

He opens with the ‘my PUE is better than yours remark’ we see going around in the industry. This is mentioned before by the Green Grid; the misuse of PUE. (I have written several articles about this issue on my Dutch datacenter blog)

Well guess what… we kinda created this monster ourselves;

Commodity

Datacenter are going commodity. Differentiation is in efficiency; looking at all the signs in the datacenter industry: the datacenter is becoming a commodity. The general idea is that any successful product will end up a commodity. See Simon Wardley’s excellent presentations on this subject.

Example signs are:

(got lots more, but for an other blog and beyond the point now…)

Most of this leads to technology being available to everyone. You still need a big budget to start building a datacenter but cost is coming down thanks to advances in IT technology (like: do we still need to build TIER4?) and facility technology. Great example is the option to build modular and from an assembly line. This reduces datacenter production cost and you can spread CAPEX across time.

For any commodity product the competitive advantage diminishes, prices go down and if you’re in the market of selling the stuff: your differentiation is on price and efficiency.

So we push towards efficiency and lowering our operational cost, to be cheaper that the competition. It doesn’t matter what type of datacenter owner you are (enterprise, cloud, co-lo, whole sale..) the competitive advantage is in the operational cost. Everyone already has a SAS70, ISO27001, ISO9001, PCI, etc.. certificate. Everyone can get and build the technology and at some point it doesn’t pay off to worry about the small engineering details anymore; the cost are too high to get enough competitive advantage in return.

Marketing & Sales

If you’re in the datacenter co-lo or whole-sales business then your marketing and sales guys are trying to look for the (next) USP.

With the datacenter efficiency on the rise, it’s nice to have a single figure to tell your customer you are more efficient that the competition (and able to offer lower prices with it..).

PUE presented a great opportunity to get a nice USP for our sales guys. And I can’t blame them: it’s hard to sell a (going) commodity product and it’s something our customers are asking for.

Sustainable & marketing

The whole ‘green wash/hype’ (before the economic crisis) added to the misuse of PUE from a sales and marketing perspective. Everyone was, and still is, building the next greenest datacenter on this planet. It would be nice to have a single figure to promote this ‘green stuff’ and tell the world about this new engineering marvel… and PUE is happily adopted for this.

On the enterprise/cloud datacenter owners side it’s not very different.. it’s just another angle. Especially the larger datacenter (cloud) owners are pushed from a marketing perspective thanks to organizations like Greenpeace. They demand full disclosure of datacenter energy use and sustainability on behalf of the world’s population.

PUE is a nice tool to get some of the pressure off and tell the world you have the greenest datacenter operation, like Facebook, Google, Microsoft and others are now doing. The problem with those numbers is they don’t say anything without the full context. And like Mark says in his article; it doesn’t say anything about the full datacenter stack.

Sustainable & Government

The really interesting thing I have been dealing with recently is government and PUE.

Many state and local government organizations are looking at datacenters from an energy use perspective. This focus is thanks to reports from research and governmental institutes (for example EPA) and organizations like Greenpeace.

Government can either use the ‘carrot (subsidies) or stick (penalties)’ approach but it always requires some kind of regulation and some form of measurement. They happily adapted PUE for this.

The main problem with this is that PUE is not ready to be audited. Sure general guidelines for PUE calculation are available, but it still doesn’t have all the full details and leaves opportunity to ‘game the system’. It also doesn’t address the full holistic datacenter approach and the fact that you cannot use PUE to compare different datacenters.

Datacenter customer

Some of the governmental organizations are also using PUE for their co-lo tenders. And they are not the only ones. More and more RFP’s on the datacenter market state a specific PUE number or target with additional credits for the lowest number.

I can’t blame the datacenter customer; the datacenter is a pretty complex facility box if you’re not educated in that industry. It would be nice to just throw some numbers at it like TIER1-4 and PUE1-2 and select the best solution provider on the market…

I can’t blame the datacenter owner for the answer with ‘the best possible number he can think of’… they just want the business…

Datacenter vendor

As usual I’m part of the problem also. When I go shopping for the next big thing in datacenter technology, PUE is always part of the conversation.

Datacenter equipment vendors (especially cooling and power) are happy to throw some numbers my way to convince me that their solution is the most efficient.

The PUE numbers are on the equipment spec sheets, on the vendor website and in the sales meeting… but at the end I always have to conclude that our little number dance really doesn’t tell me anything. Just like Mark mentions: I go back to TCO.

Our own monster

So… we created this monster as a datacenter industry. Owners and consumers. Government and industry groups. I can also assure you that this will continue and will also happen to some of the great other Green Grid initiatives like CUE, WUE and the Maturity Model. It’s just a way of trying to put a number on what can be a very complex stack of functions called ‘the datacenter’.

Only way to diminish the monster is to educate our industry colleagues and our customers. And stop throwing the numbers around…

For the record1: the use of PUE

Don’t get me wrong, I love PUE and have used it successfully many times to benchmark my own data centers and prove to senior management that we progressed in efficiency. It’s also the way the EU Datacenter Code of Conduct works: show progress every year by calculating the PUE for the same datacenter with the same calculation method. This way you will have apples – apples situation.

Its just that I don’t like the way PUE is used in the above examples…

For the record2: On datacenter and green

Full disclosure: Datacenters are not green and will never be green. They consume large amounts of energy and will consume more energy in the future. All thanks to Jevons Paradox and the fact that we start to consume more CPU/Storage if prices go down…. And yes, someone has to build datacenters for all the CPU’s and disk’s…

See GreenMonk – Simon Wardley on ‘Cloud & Green’

I do think that:

1. We should aim to build the most efficient datacenters on the planet. It should not only focus on energy consumption but on all resources used for build and operation.

2. We cannot keep up with the rising demand from an energy-grid perspective. We should start looking for alternative ways for datacenter builds and deployment.

Share

Een virus in je noodstroom generator…

Artikel door Jeroen Aijtink, CISSP en Jan Wiersma, Int. Director EMEA DatacenterPulse.securing-scada-network-p1

In de zomer van 2010 werd bekend dat er een zeer geavanceerd worm virus was gevonden die als doel had om Iraanse ultracentrifuges te saboteren. Door programma code in PLC’s van Siemens te wijzigen kon men de motoren van de centrifuges beïnvloeden. Het virus kreeg de naam Stuxnet mee en was het eerste virus dat industriële besturingssystemen als specifiek doel had.

Tot voor kort was het idee dat SCADA en industriële besturingssystemen kwetsbaar waren voor een cyber aanval, voor vele slechts theorie. Op basis van de complexiteit van deze systemen en hun bijzondere communicatie protocollen achtte leveranciers en gebruikers zich veilig tegen dergelijke aanvallen. De redenatie was dat dergelijke industriële besturingssystemen zoals PLC’s simpel weg zo verschillend zijn van normale IT systemen, dat deze geen interessant doel zijn voor traditionele hackers. De verschillen waar door de industriële besturingssystemen geen interessant doel zouden zijn waren:

  • Industriële besturingssystemen bevatten componenten zoals PLC’s, motor controllers en intelligente automaten waar van de kennis ver buiten die van de meeste hackers ligt.
  • Industriële besturingssystem componenten zijn uitgevoerd in wijdvertakte netwerken met honderden onderdelen waarbij de complexiteit er van meestal door enkel ervaren engineers begrepen word.
  • Industriële besturingssystem communicatie protocollen zoals Modbus en BACNet zijn onbekend in de wereld van de meeste hackers. Data pakketten in deze omgeving zijn niet te vertalen zonder specifieke kennis van dit soort systemen.
  • Zonder gedetailleerde kennis van de specifieke systeem architectuur, zegt veel van de systeemdata de hacker niet veel.
  • Industriële besturingssystemen bevatten geen financiële of persoonlijke data die normaliter het doel zijn van de traditionele hacker.

Een beveiligings strategie gebaseerd op de bovenstaande systeem complexiteit en unieke systeem architecturen word door beveiliging specialisten ook wel ‘security through obscurity’ genoemd. Dit alles heeft er voor gezorgd dat de meeste SCADA netwerken slechts beveiligd zijn met een wachtwoord voor het bedienend personeel en niet veel meer.

In de afgelopen jaren is de wereld van industriële besturingssystemen en SCADA’s echter behoorlijk veranderd. (Oudere)Legacy industriële besturingssystemen bestonden uit speciale hardware, merk gebonden communicatie protocollen en aparte communicatie netwerken. Moderne industriële besturingssystemen bestaan uit standaard PC’s en servers die communiceren via standaard IT protocollen zoals IP en hun netwerk omgeving delen met andere IT eindgebruiker netwerken. Deze verandering heeft diverse voordelen opgeleverd zoals gereduceerde hardware kosten en verhoogde flexibiliteit en bruikbaarheid van deze industriële besturingssystemen. Het gaf de leveranciers van industriële besturingssystemen de mogelijkheid om hun systeem te ontwikkelen op standaard Windows of Unix platformen. De systemen kregen ook de mogelijkheid om gemakkelijke data en rapportages te delen met andere IT en netwerk systemen. Hier door zagen we in de afgelopen jaren echter wel de grens tussen IT (Kantoor Automatisering) omgevingen en de facilitaire industriële besturingssystemen vervagen. De voordelen brengen ook de nadelen van de traditionele IT omgeving met zich mee; de verhoogde kans op cyber crime.

In 2008 schreef het Amerikaanse NIST hier over in hun Guide to Industrial Control System Security: “Widely available, low-cost Internet Protocol (IP) devices are now replacing proprietary solutions, which increases the possibility of cyber security vulnerabilities and incidents.”

Dat de verhoogde kans op cyber crime een reële bedreiging vormt toonde DOE engineers van het Idaho National Engineering Lab (USA) in het Aurora Project (2007) aan. Samen met hackers van het Department of Homeland Security (DHS) startte ze een cyber aanval met als doel een grote diesel generator te vernielen. Enkele minuten nadat de hackers toegang kregen tot het SCADA systeem wist men de generator in handen te krijgen. Op een video die in 2009 getoond werd in het Amerikaanse CBS’60 Minutes was te zien dat de 27ton wegende generator gestart werd, flink begon te schudden en na enige seconde volledige gehuld was in rook. De generator overleefde de cyber aanval niet.

[youtube=http://www.youtube.com/watch?v=fJyWngDco3g&w=448&h=252&hd=1]

Het Aurora Project project toonde daar mee aan dat het mogelijk was voor hackers om via een netwerk toegang fysieke schade toe te brengen aan een generator. De hackers hadden hier bij kwetsbaarheden gebruikt die in de meeste industriële besturingssystemen vandaag de dag aanwezig zijn.

Beveiligen van een modern SCADA netwerk

Het feit dat leveranciers van moderne SCADA systemen deze gebaseerd hebben op standaard IT onderdelen en protocollen, levert wel als voordeel op dat er al veel kennis is over beveiliging van dergelijke omgevingen.

De basis voor een goed beveiligde omgeving begint met het bepalen van dreigingen en risico’s die er zijn voor de organisatie en zijn infrastructuur. Door het combineren van de facilitaire systemen met de IT-omgeving is de stelling “we hebben toch een firewall” niet meer afdoende. Denk bijvoorbeeld aan het draadloze netwerk, laptops van bezoekers  of een account manager die regelmatig via draadloze netwerken in hotels of restaurants op Internet gaat. Let ook op  zaken die niet direct met ICT te maken hebben. Welke (openbare) informatie is over de organisatie beschikbaar, welke communicatie stromen zijn er met onderhoudsleveranciers en hoe controleer ik de onderhoudsmonteur. De vraag ‘waartegen beveilig ik de organisatie’ is een belangrijke vraag om te beantwoorden. Iedere organisatie heeft tenslotte andere tegenstanders.

Goed beveiligingmaatregelen zijn afgestemd op de bedreigingen en tegenstanders van een organisatie. Zorg dat beveiligingmaatregelen bruikbaar zijn en de processen de organisatie ondersteunen. Naast techniek is scholing van medewerkers over beveiliging erg belangrijk.

Om een bedrijfsnetwerk te beveiligingen is het creëren van verschillende zones het uitgangspunt. Iedere zone heeft zijn eigen functie en de overgang tussen zones verloopt via een firewall. Communicatie met een zone die minder vertrouwd worden, zoals Internet, verloopt via een proxy-server in een demilitarized zone. Door de proxy-server ontstaat een scheiding in de verkeersstroom en wordt de inhoud gecontroleerd op virussen en malware. Houdt ook het rekencentrum voor kantoorautomatisering en de facilitaire systemen gescheiden van elkaar met eigen zones.

Door de verschillende zones zijn de facilitaire systemen gescheiden va
n de IT-omgeving en communicatiestromen hiernaar toe zijn te inspecteren met intrussion detection systemen. Een tweede voordeel van het aanbrengen van zones is een performance verbetering doordat communicatiestromen elkaar niet hinderen.

Naast beveiliging binnen het netwerk zijn servers, besturingssystemen, applicaties en databases goed beveiligd en voorzien van de laatste (security) patches en antivirus software. Server beveiliging is belangrijk, omdat de firewall alleen kijkt of de communicatie toegestaan is terwijl antivirus software de servers beveiligd tegen bekende virussen. Patches voor het besturingssysteem zorgen dat beveiligingslekken gedicht worden. Na installatie moet software in een doorlopend proces onderhouden worden.

Steeds meer facilitaire systemen hebben remote-support vanuit de leverancier. Denk hierbij goed na over welke informatie de organisatie kan verlaten. Daarnaast kan het een goed idee zijn om de leverancier alleen toegang te geven wanneer er daadwerkelijk een probleem is. Het oplossen van storingen vanuit de locatie lijkt ouderwets, maar geeft wel de meeste controle. Zeker wanneer de monteur begeleid wordt door iemand die inhoudelijk kan beoordelen wat deze uitvoert.

Bovenstaande lijkt niet in lijn te zijn met de visie, van de laatste jaren, op informatiebeveiliging volgens Jericho. Jericho gaat uit van netwerken zonder “firewall-slotgrachten”,  waarbij beveiliging aangebracht wordt daar waar dat nodig is op de servers en werkplekken. De traditionele firewall zou hierdoor overbodig zijn. Wanneer beveiliging op alle systemen integraal geregeld is kan de firewall uit. Voordat dit moment is aangebroken is er bij veel organisaties nog een lange weg te gaan.

Continue with reading

Share

My cloud rules…

Enige tijd geleden, tijdens een verhitte Twitter conversatie tussen cloud guru’s en evangelisten, stelde ik mijn lijst met cloud regels op. Aangezien Twitter nogal ongenuanceerd is met een beperkt aantal karakters volgt hier een samenvatting met wat tekst en uitleg:

Regel 7

5az_bor_w300

Er is veel discussie over cloud definities. Wat is nu wel en wat is nu niet cloud ? De meest gebruikte definitie is die van NIST (pdf).

Echter kijkend naar de ontwikkelingen in de markt en de volwassenheid van de oplossingen , ga ik echter een stapje verder: een generieke definitie van cloud is op dit moment niet relevant.
De scope van o.a. de NIST definitie is op dit moment al erg breed. Met alle ontwikkelingen die er nog komen, zullen we de definitie steeds moeten aanpassen. Over een paar jaar zullen veel van deze ontwikkelingen zo gewoon zijn voor ons dagelijks IT gebruik, dat we het niet meer cloud zullen noemen. Daar waar een ‘definitie’ voor cloud wel van toepassing is, is binnen je eigen organisatie. Dat bevorderd de communicatie tussen bijvoorbeeld IT en de business.
De inhoud van die definitie is opzicht niet eens zo heel relevant, als je maar iets gezamenlijks afspreekt.
Tussen jou en alle leveranciers… tja, daar ga je gedurende de hele cloud hype fase nooit uitkomen. Zodra we in Gartners "Trough of Disillusionment" komen zullen alle marketing afdelingen snel afscheid willen nemen van de cloud term.
Om met de woorden van Simon Wardley te eindigen: Cloud; It’s like computers on the internet, innit?!?

Regel 6

mv7_bor_w300

Voordat je cloud computing gaat inzetten als middel, dien je een exit strategie te formuleren. Bij de meeste cloud oplossingen maak je jezelf enigszins afhankelijk van een leverancier of een technologie. Dit is soms omdat er data opslag plaats vind bij de leverancier of wegens het afstemmen van je architectuur of ontwerpen op die van de leverancier.

Je dient dus een plan te hebben om afscheid te kunnen nemen van de cloud leverancier. “Hoe krijg ik mijn data terug?” bijvoorbeeld.

Regel 5

v7g_bor_w300

Diverse nieuwe applicatie frameworks geven de mogelijkheid om applicaties te ontwikkelen die minder gevoelig zijn voor de variabele performance van het basis netwerk dat ‘het internet’ heet. Dit is nodig omdat de gebruiker van de applicatie soms de functionaliteit via een mobiele internet verbinding gebruikt en dan weer via een ADSL2 verbinding. Daarnaast levert de manier waar op het internet technisch is uitgelegd altijd variabele performance. De nieuwe technologische mogelijkheden zorgen er voor dat men zich minder druk hoeft te maken over latency. (denk aan video streaming zoals Netflix doet)

Zie ook: http://jwiersma.wordpress.com/2011/01/08/paas-de-toekomst-van-programmeren-1/

Regel 4

qs2_bor_w300

Bij het bouwen van cloud applicaties dient men rekening te houden met uitval van software, delen van hardware, complete servers en zelfs complete datacentra. Dit betekend bijvoorbeeld op een juiste manier om gaan met state en stateless.

De nieuwe applicatie framewerken en vooral de PAAS oplossingen die geboden worden, hebben hier voor diverse standaard mogelijkheden.

Zie: http://jwiersma.wordpress.com/2011/01/08/paas-de-toekomst-van-programmeren-1/

Regel 3

ukn_bor_w300

Veel IT-ers stappen de cloud wereld in met het idee dat ze hun gedachtegoed, ontwerpen en applicaties zo mee kunnen mee nemen en ‘in de cloud kunnen gooien’. Zo werkt dat echt niet.

Om goed in een cloud omgeving van een leverancier te kunnen werken moet je hun architectuur en ontwerpen goed begrijpen en kunnen toepassen.

Zie:
http://jwiersma.wordpress.com/2011/02/21/mijn-cloud-is-beter-dan-die-van-jou/
http://jwiersma.wordpress.com/2011/04/22/mestvorkknuppels-uit-de-stal-de-cloud-is-down/

Regel 2

94x_bor_w300

Cloud geeft de mogelijkheid om functionaliteit die uitermate gestandaardiseerd is (commodity IT) buiten de organisatie te plaatsen en je te concentreren op zaken die je een voordeel geven op de concurrentie.

Zo levert het hebben van een tekstverwerker of een spreadsheet programma al lang geen voordeel meer op; de concurrentie kan deze ook gewoon kopen en implementeren. De vraag is dus hoeveel geld je moet uitgeven om deze functionaliteit in eigen huis te ontwikkelen en beheren.

Zie:
http://jwiersma.wordpress.com/2010/11/06/en-dan-die-applicatie-naar-de-cloud-toe/
http://jwiersma.wordpress.com/2011/01/31/de-nieuwe-overheid-i-strategie-cloud/ (laatste paragraaf)

Regel 1

bqs_bor_w300

Cloud is vooral voor en door de eindgebruiker. Daarbij moet de IT-er vooral de organisatie helpen in te transitie. Een afwerende houding op dat vlak zal cloud computing niet buiten te deur houden en zal de eindgebruiker naar Schaduw-IT drijven.

Deze regel is beschreven in ‘de opkomst van Schaduw-IT’: http://jwiersma.wordpress.com/2011/07/06/de-opkomst-van-schaduw-it/

Share

Energie verbruik Datacentra stabiliseert ??!?

Op 1 augustus j.l. kopte de New York Times:

Data Centers’ Power Use Less Than Was Expected

Data centers’ unquenchable thirst for electricity has been slaked by the global recession and by a combination of new power-saving technologies, according to an independent report on data center power use from 2005 to 2010.

Het artikel is gebaseerd op een onderzoek van Jonathan G. Koomey die voor Stanford University werkt en een bekende is in de datacenter wereld met eerdere onderzoeken.

Het onderzoek komt tot de conclusie dat de energie afname voor datacentra niet zo hard gegroeid is als eerder voorspeld werd in de rapporten van de EPA.

koomey-research

De reden voor de verminderde groei zou te vinden zijn in:

  • Economische crisis –> minder server verkoop en datacenter bouw;
  • Verminderde server aankoop door virtualisatie;
  • Inzet van energie efficiënte technologieën in IT systemen en datacentra.

Minder servers?

De eerste twee redenen zouden uit de server verkoop cijfers te halen moeten zijn en dat doet Koomey aan de hand van IDC cijfers van 2007 v.s. 2010. (pagina 20 rapport). Als we deze cijfers langs die van een andere markt analist liggen, Gartner, komen deze redelijk overeen. In september 2009 gaf Gartner aan dat de server verkoop zo’n 28% lager was dan die periode een jaar geleden (2008);

In the second quarter of 2009, worldwide server shipments dropped 28 per cent year-on-year, while revenue fell 29.4 percentage points year-on-year, according to Gartner, Inc.

“The server market remains constrained on a worldwide level,” said Jeffrey Hewitt, research vice president at Gartner. “Server sales have felt the impact of reduced budgets since the last half of 2008 and the second quarter of this year remained in the negative.”

In mei 2010 rapporteerde ze dat er een groei geboekt was van 23% ten opzichte van het voorgaande jaar (2009);

Worldwide server shipments grew 23 percent year over year in the first quarter of 2010, while revenue increased 6 percent, according to Gartner, Inc.
"We’ve seen a return to growth on a worldwide level, but the market has not yet returned to the historical quarterly highs that were posted in 2008,

Maar de groei was nog niet op het niveau van 2008. In november 2010 werd nog steeds groei gemeten van zo’n 14%. IDC gaf recent aan dat de verkoop in de lift zit en behoorlijk zal stijgen. Dit zou te danken zijn uit de wereldwijde uitrol van cloud computing initiatieven;

Investments in private and public clouds will spur worldwide server sales over the next four years to the tune of $9.4bn (£5.8bn), according to IDC.

<IDC> estimates 1.2 million systems that underpin public cloud deployments will be shipped by 2015, a compound annual growth rate of 21 per cent and 570,000 servers to be sold for private cloud implementations, CAGR of over 22 per cent.

Bij al deze server markt groei cijfers moet echter wel opgemerkt worden dat ze wel relatief zijn en zeggen niets over het feit of het energie efficiënte modellen zijn en of deze in hoog efficiënte datacentra terecht komen. Daarnaast is de focus van de eerder genoemde energie groei in datacentra onderzoeken, die van de US situatie en moeten de server verkoop cijfers dus per geografische markt bekeken worden.

Het lijkt echter valide om te stellen dat de dalende server verkoop heeft bijgedragen aan de verminderde groei van energie afname van datacentra.

Energie afname per server.

Als we kijken naar energie afname in een datacenter dan zien we dat er een hele energie keten is waar verbruik en verlies in optreed. Deze is duidelijk te zien in de DatacenterPulse Stack  of het Cascade Effect van Emerson:

The_cascade_effect

Deze laatste geeft een aardig beeld waarbij elke watt die bespaard word bij de bron totaal 2,84 watt aan besparing levert. Dit is uiteraard afhankelijk van alle schakels die er tussen zitten en de efficiëntie daar van. Als we kijken naar de totale energie last van een datacenter is het dus zeker interessant om te kijken naar de ontwikkeling van server componenten in de afgelopen jaren.

Dus de HP power calculator gepakt en een theoretische berekening gemaakt:

Productie Jaar Type CPU’s RAM HD Afname
2003 DL360 2 (PII) 4 2x 18GB 176W
2004 DL360G3 2 8 2x 36GB 360W
2008 DL360G5 2 (Intel L5240) 8 (low power) 2x 36GB 238W
2011 DL360G7 2 (Intel L5630) 8 (low voltage) 2x 60GB SSD 160W

Los van het feit dat dit een theoretische benadering is en n
ogal hoog over, levert het een aardig aanknopingspunt: in de server ontwikkeling hebben we een grote sprong gezien in energie toename met de komst van snellere systemen. Echter zijn er in de afgelopen 2 a 3 jaar grote stappen gemaakt in het terug dringen van dat energie verbruik. In bovenstaande berekening zien we dat een snelle quadcore machine met solid-state disken minder energie verbruikt dan zijn broertje met een Pentium 3 CPU uit 2003.

Een collega zetten mij recent op dit spoor toen we keken naar het aantal ampère dat er per rack verbruikt word en de groei hier van; bij rackmount servers bleek dit redelijk te stabiliseren en op bepaalde vlakken zelfs te dalen.

We kunnen dus wel stellen dat de servers die vandaag de dag gekocht worden zuiniger zijn dan voorheen en zeker bijdragen aan de daling die gesignaleerd word in het rapport van Koomey. Zeker als we het cascade effect er nog eens overheen gooien. De combinatie van efficiëntere servers, die beter uitgenut worden door virtualisatie zal het verhaal alleen nog maar versterken.

De grote glazen bol

De vraag is nu echter waar gaat het de komende jaren heen en zet de daling zich voort of is het slechts uitstel van executie? Het antwoord hier op ligt op een aantal vlakken:

1. Besparingen.

De ontwikkeling van energie zuinige servers zet zich voort. Neem als voorbeeld de inzet van de ARM en Atom CPU voor servers. Mensen die recent een keynote van mij hebben gevolgd weten dat ik daar een fan van ben en deze ontwikkeling op de voet volg. Voorbeeld: Low-power server startup pitches Intel Atom for Hadoop en zoals Gigaom enige tijd geleden melde:

ARM-based servers will consume a fraction of the power and space demanded by today’s most efficient servers. Performance per “core” will be lower, but clusters of these efficient nodes will consume perhaps as little as 1/10th as much power to deliver comparable performance. Couple that with huge gains in performance density to realize massive savings potential in data center capital expenditures.

De ontwikkelingen op het efficiëntie gebied van datacentra gaat ook door. De grote datacentra ontwikkelen zich langzaam naar de PUE onder de 1.1. Daar zien we de ontwikkeling in technologie en de discussie over temperatuur in het datacenter die ik al eerder in een blog behandelde. Er blijft echter een groot markt aandeel van kleiner datacentra die zich nog nooit druk heeft gemaakt over PUE. Deze zitten o.a. in kantoorpanden met hun datacentra. Google is nu gestart met een stuk bewustwording voor dit deel van de markt met de publicatie van hun Best practices

2. Groei.

Zoals ik beschreef in de Jevons Paradox blog zullen we de komende jaren behoorlijke groei zien in de cloud computing markt. Dit levert verhoogde afname van servers zoals IDC dus al schetste. Ook zal dit leiden tot meer en grotere datacentra. (Deze servers en datacentra zijn dan hopelijk wel zo efficiënt mogelijk..) Dit werd ook geschetst door Christian Belady (Microsoft) bij zijn toekomst schets van datacenter bouw markt.

Met de mate van groei in afname van cloud computing producten die nu al te zien is in de markt denk ik echter dat we Gartner (2007!) gaan volgen:

image

Ze hadden dan wel niet de economische crisis zien aankomen toen ze deze in 2007 opstelde, maar die scherpe daling mede dankzij nieuwe (efficiënte) technologieën is heden ten dagen wel te zien. De energie consumptie zal daarna weer toe nemen wegens de massale groei aan servers en datacentra vanuit Jevons paradox. Zoals Simon Wardley daarbij aangeeft:

By increasing efficiency and reducing cost for provision of infrastructure, a large number of activities which might have once not been economically feasible become economically feasible.

The effect of these forces is that whilst infrastructure provision may become more efficient, the overall demand for infrastructure will outstrip these gains precisely because infrastructure has become a more efficient and standardised component.

De ontwikkeling in energie efficiënte servers en datacentra zal de groei iets temperen maar de vraag is daarbij enkel: hoe hard gaat de totale groei en volgens welk (EPA) scenario ?

Meer: Blog J. Koomey

 

Continue with reading

Share