maandag 29 februari 2016

Chips: Klein, kleiner, KLEINST.

Het einde van Moore's Law
De viering van de vijftigste verjaardag van Moore's Law is nog maar net geweest, of de 'wet' wordt 'al' ontkend.

In 1965 publiceerde Gordon Moore, medeoprichter van Intel, een verassend vooruitziend artikel waarin stond dat het aantal transistors op een geïntegreerde schakeling iedere twee jaar zou verdubbelen en waarin werd voorspeld dat deze snelheid ertoe zou leiden dat computers gebruikt zouden worden in huizen, auto's en communicatiesystemen.

Dat idee, welke bekend is als Moore's Law, heeft geholpen om de digitale revolutie te versterken. Met het exponentieel goedkoper en robuuster worden van computing performance, zijn we in staat geweest om er veel meer mee te doen. Het heeft een enorm effect gehad op het vermogen van de maatschappij om informatie te verwerken en het makkelijker en sneller te bereiken. Iedere nieuwe generatie chip is kleiner dan en mintens zo krachtig als als zijn voorganger, maar minder duur om te maken. Zelfs een simpele smartphone is vandaag de dag krachtiger dan de supercomputers uit het verleden.

Echter, deze 'wet' zal binnenkort zijn beperkingen bereiken. De fysieke beperking van hoe klein verwerkingstechnologie kan worden is nu in zicht.

Volgens de voorspellingen van chip fabrikanten zal de fysica die bepaalt hoe chips zich gedragen niet langer van toepassing zijn zodra de vijf nanometer verwerkingstechnologie arriveert ergens rond 2021. Als een chip kleiner wordt dan dat, dan zullen elektronen zich onbetrouwbaar gaan gedragen. De chips kunnen misschien wel kleiner gemaakt worden, maar er zal geen garantie zijn dat ze werken.

De shift in het boeken van progressie

Toch betekent het einde van Moore's Law absoluut niet het einde van progressie. Wel zal er een shift komen van de focus op de chip naar het systeem in zijn geheel, door zowel hardware als software strategieën te volgen. Maar, hoewel het verkleinen van de afstanden op systeem niveau bijvoorbeeld een manier is om performance te verhogen, zal het menselijke aspect een grotere rol in progressie gaan spelen. 

Toen Moore zijn beroemde wet formuleerde, waren computers nog enorme apparaten die weinig mensen zagen. Na zo'n twintig jaar kregen we personal computers en weer twintig jaar later ontpopte de mobile revolutie. De toekomst van de technologie zal altijd menselijker worden.

Bernie Meyerson, IBM's Chief Innovation Officer, verwacht dat in 2020 systeem performance nog steeds exponentieel zal verbeteren, maar dat we onze opvatting van informatie technologie weer moeten veranderen. Deze keer moet het veranderen van machines die informatie opslaan, analyseren en terugvinden, naar systemen die actieve partners zijn in een natuurlijke mens/machine samenwerking. 
Waar we als mens vroeger werden gewaardeerd voor ons vermogen om fysiek werk te doen, gevolgd door de waardering op basis van onze cognitieve vaardigheden, zal deze waardering nu verplaatsen. In de toekomst, wanneer machines cognitieve taken effectiever kunnen vervullen dan de mens, zullen we waarschijnlijk ontdekken dat het concurrentievoordeel zal liggen bij degenen die het best kunnen samenwerken, zowel met mensen als met machines. De sleutel tot vooruitgang in de toekomst ligt volgens hem dus niet zozeer in techniek zoals microchips, maar in onszelf.

maandag 22 februari 2016

Netwerk Virtualisatie (NV)

Vorige week vertelde ik dat software-defined networking (SDN) een manier is om netwerken mobieler en meer agile te maken. Bij SDN worden netwerk beheer en doorstuur functies ontkoppeld, om het netwerk programmeerbaar te maken en centraal te beheren. Hierdoor is er een goed overzicht van het netwerkverkeer en kan het verkeer efficiënt gebeuren.

Naast SDN is er nog een andere manier om het netwerk mobieler en meer agile te maken, namelijk Netwerk Virtualisatie (NV). Het doel van deze technologie is om een flexibele pool van netwerk middelen te creëren die kan worden toegewezen, benut en hergebruikt op aanvraag.

Wat is NV?
Virtualisatie principes, zoals we die kennen van server- en storage virtualisatie, worden bij NV toegepast op de fysieke netwerk infrastructuur, waardoor de netwerk diensten losgekoppeld worden van de onderliggende hardware. Conceptueel vergelijkbaar met een virtuele machine, is een virtueel netwerk een software vat dat netwerk componenten (switches, routers, firewalls, load-balancers VPN's en meer) aanbiedt aan gekoppelde workloads.

Hiermee wordt een belangrijk netwerk probleem dat ontstaat bij het creëren en verplaatsen van VM's opgelost. In plaats van dat twee domeinen in een netwerk fysiek worden gekoppeld, creëert NV een tunnel door het bestaande netwerk om de domeinen te koppelen. Hierdoor hoeven beheerders niet elke domein connectie fysiek te maken, wat enorm scheelt als er nieuwe VM's gecreëerd of verplaatst worden. Ze hoeven dus niet hun fysieke infrastructuur te veranderen. De verandering wordt virtueel, bovenop de bestaande infrastructuur gemaakt.
Bovendien worden virtuele netwerken programmatisch gecreëerd, bevoorraad en beheerd, waarbij het onderliggende fysieke netwerk simpelweg data doorstuurt. Netwerk- en beveiligingsdiensten worden aan iedere VM toegewezen aan de hand van hun behoeften en deze diensten blijven aan de VM's gekoppeld als de VM verplaatst naar een andere host in de dynamisch gevirtualiseerde omgeving.

Voordelen NV
Netwerk virtualisatie bespaart een hoop tijd aan handmatige bevoorrading. Daarbij kan de bevoorrading efficiënter gebeuren, omdat netwerk diensten niet meer voor het gehele netwerk geschikt hoeven te zijn, maar alleen voor de specifieke tunnels die ze nodig hebben. 
Hoewel de efficiëntere bevoorrading kapitaaluitgaven verlaagt, zijn de operationele verbeteringen het grote voordeel van NV.

maandag 15 februari 2016

Software-defined networking voor next-generation computing

De behoefte aan nieuwe netwerk architectuur
Door de enorme groei in mobiele apparaten, data, server virtualisatie en cloud computing dienen netwerk architecturen herzien te worden. Veel traditionele netwerken zijn hiërarchisch, met rijen Ethernet switches in een boomstructuur. Dit ontwerp is geschikt voor traditionele computing met eenvoudig data verkeer, maar ongeschikt voor de dynamische computing en storage behoeften van vandaag de dag.

Interconnectiviteit
Computing en storage worden steeds meer geïntegreerd tot een groot geheel waarbij iedereen toegang heeft tot alle middelen (indien deze toegang verleend is). Dit heeft vele voordelen, maar het vereist wel een aanpassing in de netwerk architectuur. Bestaande netwerken zijn te eenvoudig, met recht toe recht aan datapaden. Wat we nu nodig hebben is veel meer interconnectiviteit, veel meer data paden. Niet alleen dienen er meer paden binnenin de databases en servers aanwezig te zijn, maar ook naar de gebruikers toe, aangezien men nu beschikking tot applicaties en data wil hebben vanaf allerlei soorten apparaten (zelfs hun prive apparaten), vanaf iedere locatie en op ieder moment. Hierbij is het belangrijk dat de bedrijfsdata beschermd wordt en dat het dataverkeer gebeurt conform het beleid.

Aanpasbaar en schaalbaar netwerk
Daarbij moet het netwerk zich kunnen aanpassen aan veranderende behoeften. Zo zal het netwerk sterk moeten veranderen als er door fusies IT infrastructuren van verschillende bedrijven moeten worden gekoppeld. Ook de capaciteit van het netwerk moet verhoogd kunnen worden door de toename in mega datasets. De netwerken moeten enorm kunnen opschalen, bijvoorbeeld om parallel processing (data opknippen in stukjes en deze stukjes tegelijkertijd (=snel) te verwerken) mogelijk te maken.

Software-defined networking
Software-defined networking (SDN) is een netwerk architectuur waarbij netwerk beheer en doorstuur functies worden ontkoppeld. Hierdoor wordt het netwerk beheer direct programmeerbaar en de onderliggende infrastructuur los gemaakt van applicaties en netwerk diensten, met als doel dat het netwerk dynamisch, beheersbaar, kostenefficiënt en aanpasbaar wordt. Hiermee is SDN geschikt voor de hoge brandbreedte en dynamische aard van de applicaties van tegenwoordig.

SDN stelt beheerders in staat om netwerk-wijd verkeer aan te passen aan veranderende behoeften. Daarbij zorgen de SDN controllers ervoor dat beheerders een goed overzicht hebben van het netwerk en het beheer centraal kan plaatsvinden (met alle eenvoud en efficiëntie voordelen van dien). Bovendien stellen geautomatiseerde SDN programma's netwerk beheerders in staat hun netwerk middelen snel en dynamisch te configureren, beheren, beveiligen en optimaliseren. Deze programma's kunnen zij zelf schrijven, omdat ze niet afhankelijk zijn van gepatenteerde software.

Grote kans dat SDN ook een hoop problemen oplost voor uw bedrijf, in het heden of de toekomst.

maandag 8 februari 2016

Trends betreffende datacenters en cloud computing

Op datacenterknowledge.com vond ik een aantal belangrijke trends betreffende datacenters en cloud computing. Hierbij een samenvatting.

SDN (software-defined networking) wordt heel groot
Een van de grootste uitdagingen van vandaag de dag is de complexiteit en distributie van middelen. Organisaties hebben problemen met het managen van het beleid, het beheren van administratieve privileges, en het toewijzen van middelen. Dit wordt een steeds grotere uitdaging nu er meer interconnected, 'smart' apparaten komen en er meer data verkeer is vanwege de Internet of Things. Om die reden wordt er steeds meer gebruik gemaakt van SDN in netwerken. Zo kunnen vereisten tegemoet gekomen worden, zoals meer 'agile' benaderingen voor netwerk architectuur, middelen voorziening (provisioning) en operaties. Het netwerk wordt ook steeds meer gevirtualiseerd.

Bedreigingen zullen zich blijven ontwikkelen

Verder is er een ware economie en industrialisatie gaande in de hacking community. Er zijn individuen, teams en gehele staten aan het werk om toegang te krijgen tot jouw waardevolle informatie. Er zijn allerlei fysieke, logische en menselijke bedreigingen rond datacenters. Het wordt steeds belangrijker voor organisaties om hun gehele aanval continuüm te onderzoeken en te verzekeren dat ze intelligente beveiligingsdiensten hebben voor hun gehele datacenter en cloud.

Automatisering en orchestration (dirigeren) zullen steeds meer voorkomen

Vele automatiseringstools plaatsen bestuur en gevorderd beleid beheer direct in hun product voor het beheren van beveiliging, het beheer van en inzicht in kosten en een geautomatiseerd cloud platform. Schalen, orchestration en zelfs multi-cloud controls zijn nu ingebouwd. Je cloud automatisering platform wordt nu ook proactief. Visualiseren en het voorspellen van de behoefte voor je cloud infrastructuur gebeurt door analytics en automatisering. Zo worden het beheren van middelen en de gebruikerservaring geoptimaliseerd en houden de beheerders meer tijd over voor innovatie.

Het convergeren van architectuur zal de economie van datacenters veranderen

Bovendien gaan hyper-converged systemen dit jaar steeds meer geïmplementeerd worden. Niet alleen platformen worden samengevoegd, ook de gehele pool aan beschikbare middelen wordt geconvergeerd doordat de platformen met elkaar kunnen 'praten'.
Uit een Gartner report blijkt dat in 2019 hyper-converged, geïntegreerde systemen 35 procent van de totale omzet van de markt van geïntegreerde systemen zullen vertegenwoordigen. Het is het snelst groeiende en meest waardevolle technologie segment in de branche vandaag de dag. Hyper-converged systemen stellen beheerders in staat om krachtige beheer mechanismen te gebruiken voor hun business en datacenter ecosysteem. Het integreren van cloud, virtuele applicaties, desktops en zelfs gedistribueerde middelen wordt makkelijker met zo'n systeem.

Dit zijn weer interessante ontwikkelingen voor datacenters en cloud computing. Leveren deze trends voor jou kansen op?

maandag 1 februari 2016

Kansen met hybride clouds

Behoefte aan hybride clouds
Steeds meer organisaties besteden hun infrastructuur uit. Aangezien verschillende bedrijfsprocessen verschillende eisen hebben, is er vaak behoefte aan een mix van cloud oplossingen, bestaande uit on premises en off premises private clouds en public clouds. Door workloads toe te staan om te verplaatsen tussen private en public clouds aan de hand van veranderende computing behoeften en kosten, bieden hybride clouds meer flexibiliteit en data inzet opties. Dit maakt hybride clouds een aantrekkelijke keuze.

Complex management
Het managen van deze verschillende platformen is echter een complexe zaak. Hybride cloud beheerders zijn verantwoordelijk voor het beheren van computing, networking en storage middelen in meerdere domeinen. Zij moeten voldoende begrip hebben van alle aspecten van de omgeving, applicaties, performance vereisten, compliance vereisten, etcetera.

Pak je kans
Het formuleren van effectieve strategieën voor het managen van hybride clouds kan de complexiteit handelbaar maken. Met de juiste tools kan het managen van hybride clouds efficiënt en effectief worden gedaan. 
Hoewel elke situatie anders is, is een goed begrip van de bedrijfsprocessen die gemanaged moeten worden en het opstellen van een management strategie de eerste stap. Het ontwikkelen van een succesvolle, hybride cloud management strategie zal geen gemakkelijk proces zijn, maar door de kansen die er liggen zal het een rendabele investering zijn.

Klanten willen graag horen dat hun servers en applicaties beheerd kunnen worden waar zij willen, dat het overzien en geregeld wordt door één partij, en dat ze over hun gehele portfolio gerapporteerd worden. Bedrijven die het vermogen hebben om de omgevingen van meerdere platformen en meerdere cloud providers te managen zullen veel toegevoegde waarde te bieden hebben en mooie resultaten kunnen behalen.