De virtualisatie van servers en opslagsystemen is een proces dat amper nog uitleg behoeft. Concreet laat je een fysieke infrastructuur fungeren als een veranderlijk aantal servers en opslagsystemen, conform de veranderende noden van een bedrijf of een groep klanten. Dat resulteert zowel in een maximale benutting van de beschikbare middelen als een optimale flexibiliteit. En dat contrasteert fel met de wereld van netwerken, zo bleek uit een levendig paneldebat op een recente editie van NetEvents, een Europees netwerk- en securityevent.
...

De virtualisatie van servers en opslagsystemen is een proces dat amper nog uitleg behoeft. Concreet laat je een fysieke infrastructuur fungeren als een veranderlijk aantal servers en opslagsystemen, conform de veranderende noden van een bedrijf of een groep klanten. Dat resulteert zowel in een maximale benutting van de beschikbare middelen als een optimale flexibiliteit. En dat contrasteert fel met de wereld van netwerken, zo bleek uit een levendig paneldebat op een recente editie van NetEvents, een Europees netwerk- en securityevent. "Netwerken leggen geen soepelheid aan de dag in functie van de bedrijfsnoden," stelt Dan Pitt, executive director van de Open Networking Foundation (ONF), "ze zijn erg arbeidsintensief en foutgevoelig bij het configureren, [...] en ze slagen er niet in bij te dragen aan de 'business value'." De connectiviteitssystemen vormen stand-alone toestellen met hun eigen bedrijfseigen software-omgevingen, wat wel goed is met het oog op het voortbestaan van een netwerk in oorlogstijd, maar het heeft tevens tot gevolg dat "niemand een totaalkijk op het netwerk heeft." Laat staan op de afzonderlijke datastromen in functie van de bedrijfsnoden. software defined networking (sdn) beoogt daar aan te verhelpen door het virtualiseren van netwerken. Dat betekent een abstractie maken tussen het fysieke netwerk en het beheer van het netwerk en de bijhorende datastromen. De netwerktoestellen zelf worden relatief simpele dozen die aan 'packet forwarding' doen, met daarboven een network OS en een centraal controlesysteem. Nog daarboven komen dan de nodige bijkomende geprogrammeerde datadiensten, in functie van de bedrijfsbehoeften. Een cruciaal onderdeel vormt de uitwisseling van data tussen de 'forwarding' dozen en het centraal controlesysteem, waarvoor het OpenFlow protocol werd geformuleerd. Dat zag rond 2008 het daglicht als een researchtool aan de Stanford universiteit, met het oog op het testen van nieuwe aanpakken van netwerking. Het omvatte de grootste gemene deler van de functies om de 'flow table' in een netwerksysteem bij te werken, maar werd wel als een uitbreidbaar geheel geconcipieerd. Sindsdien wordt in de ONF gewerkt aan de standaardisering van dit protocol, inclusief het definiëren van testen inzake interoperabiliteit, conformiteit en uiteindelijk ook performantie. Op basis hiervan kunnen specifiek OpenFlow gesteunde switches worden gebouwd, maar kan het protocol ook worden voorzien (via een API) in andere 'hybride' netwerksystemen. Het doel is om zo een programmeerbare netwerkomgeving te creëren, met een totaaloverzicht op een centrale controller. Overigens is die controller zelf gedistribueerd geïmplementeerd, met het oog op redundantie en schaalbaarheid. Op Netevents werd de vraag gesteld waarom bouwers van netwerksystemen en telecominfra-structuur hun toegevoegde waarde aan netwerksystemen zouden opgeven, en waarom klanten voor dergelijke OpenFlow switches zouden kiezen. Een bedrijf als Nokia Siemens Networks zag OpenFlow en bijhorende systemen veeleer als een extra dan een bedreiging. "OpenFlow biedt ons de mogelijkheid om meer netwerken te bouwen", klonk het letterlijk. "Het is gewoon een nieuw platform waar nu al bestaande mogelijkheden bovenop kunnen worden aangeboden. Zeg maar toepassingen die bovenop een sdn-platform draaien", klinkt het bij telcosysteemproducent Accedian. En Deutsche Telekom rekent erop "om er eigen toepassingen op te bouwen, die ons onderscheiden van de concurrentie." Wel wordt duidelijk gesteld dat de huidige implementatie van OpenFlow - 1.2 - nog niet van 'carrier'-kwaliteit is. Wat performantie bereft wordt gemikt op een implementatie op standaardchips (in plaats van maatwerk-asic's) en moet de winst aan flexibiliteit een eventuele terugval in kracht opvangen. Allicht tot ook die standaardchips zelf aan kracht hebben gewonnen. Deutsche Telekom schat dat nog twee à drie jaar (of wellicht wat meer) nodig zijn eer dergelijke systemen voor productie in een telco- omgeving kunnen worden ingezet. Het gebruik ervan in datacenters en enterprise-omgevingen kan wel vroeger worden verwacht. Recent werd al een 'campuswijde' implementatie van OpenFlow systemen op de universiteit van Indiana gerealiseerd. Bondig gesteld moeten de voordelen zich vertalen in een flexibeler en meer op bedrijfsnoden aangepast netwerk (onder meer voor de ondersteuning van cloud- toepassingen), het sneller bouwen van bijkomende netwerkdiensten, en besparingen in het operationeel beheer van netwerken ("veeleer 'opex' dan 'capex' besparingen", onder meer door meer automatisatie). Overigens vormt sdn ook een uitdaging en opportuniteit voor vars en partners. Ze moeten beseffen dat sdn geen 'rip & replace' aangelegenheid voor de klant vormt, maar steeds een 'solution sell'. Immers, de klant heeft zijn legaatsysteemen en gaat die heus niet in één klap meteen de deur uitdoen. De var of partner moet dan ook investeren in de studie van het netwerk van de klant en de kansen grijpen om door eigen ontwikkelingen bovenop de sdn softwareomgeving een toegevoegde waarde te bieden aan de klant. Guy Kindermans'Software defined networking' draait om het virtualiseren van netwerken. Open Flow is nog niet van 'carrier'-kwaliteit.