Cloud: wegbereider voor spraakherkenning?

IBM heeft besloten om superslimme computer Watson naar de cloud te verhuizen en zijn rekenkracht te verdubbelen, zo berichtte AG half januari. Hiermee wil IBM nieuwe mogelijkheden scheppen voor AI-as-a-service: kunstmatige intelligentie op afroep, bijvoorbeeld voor big data analyses en linguïstiek. Hoewel beide zaken weinig te maken hebben met AI – van klein denken is nog nooit iemand groot geworden, en van snel rekenen word je niet echt intelligenter – biedt de cloud wel een mooi platform om technologieën die rekenkracht en -snelheid nodig hebben een kans van slagen te bieden.

Vice president Stephen Gold, betrokken bij de Watson-activiteiten van IBM, voorspelt dat toekomstige generaties op 2013 zullen terugblikken als het jaar van ‘een monumentale verandering’. Hij doelt daarmee wellicht op de mogelijkheden van Watson op het gebied van verwerking van natuurlijke taal.

Het inzetten van natuurlijke taal in de automatisering wordt al enkele decennia gezien als een veelbelovende technologie. Zo ongeveer iedere vijf jaar werd door leveranciers, ontwikkelaars en goeroes geroepen dat de komende vijf jaar toegepaste technologieën zoals spraakherkenning zouden doorbreken. Maar spraaktechnologie is net zo breed inzetbaar als het jongere broertjes touch technologie. Soms is het handig om tegen apparaten te spreken, soms is het handiger te aan te raken. Spraaktechnologie is wel verbeterd door goedkopere en snellere rekenkracht en verder ontwikkelde software en er zijn meer succesvolle toepassingen ontstaan, waarvan Siri (geïntroduceerd in  oktober 2011 op de iPhone 4S) en Glass mooie voorbeelden zijn. Maar om nu te zeggen dat spraakherkenning mainstream is sinds Siri? Ik mis daarvoor zowel de cijfers als de hype rondom het gebruik van Siri. Ook Google Glass, aangestuurd met basale commando’s, moet nog een hele weg afleggen. In het algemeen werkt spraakherkenning beter naarmate het systeem meer getraind is in het herkennen van een bepaalde stem (of bepaalde klanken). Systemen luisteren dus na verloop van tijd vooral goed naar hun baasje, maar zelfs marktleider Nuance heeft voor dat trainingsvraagstuk nog geen oplossing.

Een spraakherkenningssysteem werkt onder andere op basis van waarschijnlijkheid en die wordt steeds groter naarmate er meer data beschikbaar zijn om waarnemingen te vergelijken met opgeslagen kennis. In dit opzicht zou de cloud een belangrijke rol kunnen gaan spelen. Daarnaast is voor het kunnen werken met natuurlijke taal data over de context nodig. Ook hier kan de cloud meerwaarde bieden, want als er ergens ‘context’ beschikbaar is, dan is dat wel in de cloud, waar we doorlopend informatie in opslaan en van waaruit veel apps werken. Met behulp van een 4G verbinding zou Siri real time informatie kunnen ophalen uit de cloud, onder meer via anticiperende systemen als Google Now.

Wanneer gesteld wordt dat 2014 het jaar van de spraakherkenning wordt, heb ik zo mijn twijfels. Het zou ook zo maar 2015 of 2016 kunnen worden. Maar voor een geleidelijke doch stevige ontwikkeling van technologie en in praktische toepassingen is zo langzamerhand wel aan alle voorwaarden voldaan. Spraakherkenning heeft inmiddels een goed imago. Er ontstaan steeds meer devices die in specifieke omstandigheden goed met spraak zouden kunnen worden bediend. Steeds meer apparaten (wearables, maar ook ingebouwde systemen) zijn gemakkelijk te bedienen met spraak – en ook in professionele omgevingen leidt spraaktechnologie tot slimme oplossingen. Daarnaast groeit de behoefte aan nieuwe security-oplossingen op het gebied van identificatie en authenticatie, onder meer bij banken. Tot slot worden devices zoals tablets en smartphones zelf ook steeds krachtiger. De cloud als data hub tenslotte gaat wat mij betreft de doorslag geven.

 

Deze post is tot stand gekomen in samenwerking met de Zero Distance community en T-Systems

[wp_twitter]

Consument in de wolken met de cloud?

Voor de doorsnee consument is het gemakkelijk om je spullen in de cloud te zetten. Dat doen we dan ook massaal en tamelijk zorgeloos, met toepassingen als Gmail, hotmail, Facebook en Linkedin. Ook voor onze oude data die we voorheen in huis bewaarden, zoeken we steeds vaker een nieuwe opslagbestemming. We kunnen kiezen voor een harde schijf (de meeste diskettes zijn al weggegooid, en de content op die stapels volgeschreven CD’s en DVD’s komt toch vaak weer op de harddisk terecht), voor een eigen dataserver (NAS) of voor een echte cloudoplossing.

DSC_5613Bijna alle telecomspelers, maar ook software- en hardware-leveranciers leveren cloudopslag. Koop een laptop en je krijgt er cloud bij. Ga naar Flickr en je krijgt 1 TB opslagruimte. Schaf een smartphone aan en je leverancier biedt 5 GB voor nop aan (“Met T-Mobile Cloud Basis 5 heeft u altijd toegang tot uw cloud via uw internet browser”). Probeer bij Apple maar eens uit de iCloud weg te blijven. Open een e-mail adres of doe zaken met een internet serviceprovider en de Gigabytes staan klaar. Zelfs een fabrikant van harde schijven biedt losse harddisks inclusief  cloudcapaciteit aan.

Maar waar moet je nu je spullen laten? Is het verstandig om je risico’s te spreiden en alle data op verschillende plekken te stallen? Of moet je juist kiezen voor een combinatie cloud + eigen harde schijf? Op het doorsnee etiket van een DVD-verpakking staat gemiddeld meer woorden.

De Wet Bescherming Persoonsgegevens vereist dat de aanbieder van een cloud dienst passende technische en organisatorische maatregelen treft om persoonsgegevens te beveiligen tegen verlies of onrechtmatige verwerking. Een beveiligde verbinding is een minimale vereiste, maar daarna houdt ons inzicht eigenlijk op. Wat is de beschikbaarheid van de dienst? Slaat de provider onze data gecodeerd op? Waar staan de data, wie kan er bij en hoe wordt misbruik of dataverlies voorkomen? Wat gebeurt er bij een storing of een faillissement van de provider? Van wie zijn de data wanneer jij als klant overlijdt en stopt met betalen? Hoe kom je er achter of je provider wel of niet onder de Patriot Act valt?

Bedrijven beschikken zelden over een goed exit plan, laat staan de consument. Wat zijn eigenlijk de risico’s van het delen van bestanden via cloud diensten over een langere termijn?

Twee derde van de cloud gebruikers heeft geen flauw idee, zo onderzocht IT-beveiliger F-Secure dat april vorig jaar bij 6.000 personen uit 15 landen. En we zijn niet veel opgeschoten: in 2010 concludeerde de Business Software Alliance (BSA) nog dat 60 procent van de Europeanen geen idee heeft wat ‘in de cloud’ betekent en dat er maar weinig bekend is over de verantwoordelijkheid voor de bescherming van gegevens die via webdiensten worden opgeslagen.

DSC_5289Het is niet verwonderlijk dat er nog geen keurmerk of standaard is voor cloud diensten gericht op consumenten. Eerst moet er nog veel gebeuren voor de zakelijke markt, waar nog volop wordt gewerkt aan standaarden. Bovendien is het aanbod voor consumenten volkomen versnipperd over onderling sterk verschillende aanbieders. Een keurmerk of productclassificatie zou wellicht kunnen helpen, maar zo lang consumenten zich niet verdiepen in de algemene voorwaarden en de rol van wetgeving in het vestigingsland van de cloud leverancier (zoals de Amerikaanse Patriot Act) heeft het lezen van die voorwaarden weinig zin. Vermoedelijk moet er eerst iets op grote schaal mis gaan.

Een classificatie of norm, specifiek voor cloud diensten voor consumenten, is nog niet in zicht, aldus Nan Zevenhek, bestuurslid van Eurocloud en betrokken bij de ontwikkeling van een NEN-industrienorm voor bedrijfsmatige cloud diensten. Cloudperformance is voor consumenten lastig te meten. Veel op consumenten gerichte cloud diensten worden gratis aangeboden (dat hoeft op zich geen probleem te zijn), maar consumenten moeten er dan ook rekening mee houden dat ze niet al te hoge eisen kunnen stellen. Zo lang de consument niet kritisch is, aldus Zevenhek, is er veel mogelijk en zullen aanbieders proberen een positie te verwerven in de markt voor particuliere cloud diensten. De enige zekerheid die je als consument hebt is dat geen van de grote aanbieders zijn goede naam in de waagschaal zal stellen door slechte cloud diensten te leveren. Pas wanneer er iets mis gaat en krantenkoppen verschijnen, zullen ze gedwongen worden om USP’s en certificeringen duidelijker uit te spelen.

Met andere woorden: waar bedrijven zich kunnen laten adviseren door IT’ers en consultants, moeten consumenten via learning by doing ontdekken wat de gegarandeerde uptime van Dropbox is of wat de beschikbaarheid is van diensten van Google apps, Linkedin of Twitter.

linkedin TenC
Linkedin User Agreement

Goed zoeken naar algemene voorwaarden kan wel inzicht opleveren: zo kunnen de foto’s die je plaatst in de cloud van Facebook, naar eigen inzicht worden hergebruikt door Facebook omdat je een licentie hebt verschaft aan Facebook – ook wanneer jij het beeldmateriaal hebt verwijderd, maar een andere Facebookgebruiker het heeft overgenomen.

Deze post is tot stand gekomen in samenwerking met de Zero Distance community en T-Systems

[wp_twitter]

 

Zorgprofessionals moeten hun hok uit

Dat de gezondheidszorg steeds duurder wordt, is geen geheim. Met ingrepen zoals bezuinigingen, innovatie, substitutie (van medische zorg naar mantel/zelfzorg) komen de beleidsmakers, verzekeraars, zorgverleners en directies niet veel verder dan het afremmen van de aanhoudende kostenstijgingen. Om tot (ook financieel) duurzame zorg te komen is een omslag in denken en doen nodig waarbij zorgverlening en bedrijfsvoering nauw op elkaar gaan aansluiten.

Dat vraagt om een cultuuromslag en om het anders inrichten van bedrijfsprocessen, zodat de productie beter beheersbaar wordt. Daarbij kan je denken aan artsen die hun opleiding terugbetalen door eerst tien jaar in loondienst te werken, aan operatiekamers en andere dure infrastructuur die een optimale bezettingsgraad heeft, aan verregaande specialisatie bij klinieken en aan ketengerichte samenwerking tussen professionals.

Een van de manieren om de zorgproductie beter beheersbaar te maken is om informatie (en data) intensiever te benutten. Met anonieme historische zorgdata kan een groter deel van de zorg planbaar gemaakt worden; het beschikbaar maken van patiëntendata is de driver voor zowel betere medisch-inhoudelijke samenwerking tussen zorgverleners als voor efficiencymaatregelen.

Sinds minister Schippers in 2011 besloot de ontwikkeling van het landelijke EPD te stoppen bij gebrek aan draagvlak, is de ontwikkeling van een landelijk EPD in grote lijnen tot stilstand gekomen. Digitale dossiers van patiënten zijn niet geïntegreerd of gekoppeld, maar als los zand verspreid over instellingen en zorgverleners. De functionaliteit van het Landelijk Schakel Punt (LSP) is op dit moment uiterst beperkt. Dat heeft tot gevolg dat zorgverleners nu zelden kunnen beschikken over een compleet beeld van alle patiëntgegevens, laat staan dat zorginstellingen deze data kunnen inzetten bij de dagelijkse bedrijfsvoering.

In het bedrijfsleven wordt steeds duidelijker dat data – meer specifiek: klantdata – een van de belangrijkste ‘grondstoffen’ voor succes worden. Analisten van The Industrial Internet@Work, een initiatief van GE, betogen dat sectoren als de energie, transport en gezondheidszorg er nu eindelijk van doordrongen zijn dat real time data het mogelijk maakt om beter en sneller te reageren op behoeften van de business en processen te ontdoen van ruis.

De gezondheidszorg staat daarbij voor twee uitdagingen: het digitaliseren van processen en vervolgens processen data-driven maken. Daarbij horen data gedreven planningssystemen voor de zorgverlening, collaboration tools voor zorgverleners en uiteraard een digitaal patiëntendossier. De zorgsector zal op meerdere fronten moeten overstappen op cloud technologie, zodat systemen en data tijd- en plaats onafhankelijk ingezet kunnen worden.

 

Gelukkig begint de gezondheidszorgsector interesse te tonen voor cloud technologie. Cloud levert flexibiliteit en kostenvoordeel op, er is aandacht voor de beveiliging, maar het belangrijkste is dat de cloud de mogelijkheid biedt om het eigenaarschap van data bij de patiënt te leggen. Het idee dat de patiënt zelf rondloopt met een smartcard of USB-stick is achterhaald: de kans dat gegevens kwijtraken of verouderen is erg groot. Het cloud model is gebaseerd op vertrouwen – iets wat extreem belangrijk is bij het gevoelige karakter van patiëntgegevens – en op het vlak van privacy en security moet er nog het nodige werk  verzet worden. Ook in de VS, als het gaat om IT vaak een gidsland, bestaan de nodige zorgen over opslag en gebruik van patiëntgegevens. Toch krijgt de gezondheidszorgsector in de VS  steeds meer oog voor de voordelen van cloudcomputing. Amerikaanse zorg-CIO’s raken geleidelijk meer overtuigd van de volwassenheid van cloud technologie, hoewel je je kunt afvragen wat het huidige niveau van volwassenheid is.

Ook andere sectoren worstelen met vraagstukken over innovatie en data. De automotive sector staat op het punt te kantelen: van auto’s en berijders naar data. Het Internet of Things gaat, samen met de connected car er voor zorgen dat de auto een permanente datastroom gaat generen over condities en gedrag van de auto en gebruiker. Van wie zijn die data? Verschillende partijen zijn bezig posities in deze data-economie te vestigen.

Er is een belangrijke analogie tussen de automotive sector en de gezondheidzorg. De auto en de automobilist zijn bij uitstek mobiele databronnen en goedbeschouwd wordt ook het datavraagstuk in de gezondheidszorg bepaald door mobiliteit van de patiënt: die maakt gebruik van verschillende medisch specialisten, apparaten, instellingen en locaties – data komen op verschillende plekken tot stand en zijn op verschillende plekken nodig voor verschillende doeleinden.

Dat pleit er voor om executives uit de gezondheidzorg en de automotive sector een tijdje samen in een hok op te sluiten. Maar er zijn ook andere sectoren waar de hoofdrolspeler bewegelijk is. Wat te denken van de shoppende consument, waar succesvolle (r)e-tailers al jaren geleden gestart zijn met kantelen van hun processen, het denken in ketens en het werken met de customer journey? First time right en de customer effort score, maar ook principes als straight through processing (veel ingezet in de financiële sector voor de administratieve verwerking van transacties van die zo actieve klant) zijn leerzame modellen. Trek die witte jas uit, kom je hok uit en ga op verkenning in andere sectoren. Niet alleen nuttig, maar vooral noodzaak.

 

Deze post is tot stand gekomen in samenwerking met de Zero Distance community en T-Systems

[wp_twitter]

Contactcenters in de cloud: wisselend bewolkt

Naarmate customer service processen steeds meer digitaal worden, ligt het voor hand dat contactcenters kiezen voor de cloud. Cloudtechnologie lijkt op het lijf gesneden voor contactcenters: gemakkelijk schaalbaar en kostentechnisch voordelig.

Jaarlijks komt Dimension Data met een grootschalige internationale benchmarkstudie. Het Global Contact Centre Benchmarking Report 2013/2014 (met een omvang van meer dan 230 pagina’s) is een van de belangrijkste en langer lopende benchmarkstudies in de wereldwijde contactcentersector. Het benchmarkrapport van Dimension Data is gebaseerd op 817 respondenten afkomstig uit 11 sectoren en 79 landen. De studie besteedt aandacht aan allerlei facetten van klantcontact: van kanaalvoorkeuren tot responstijden en van verloopcijfers tot innovatieplannen. Dit jaar heeft Dimension Data een opzienbarende conclusie: “The phone is no longer the predominant channel of choice.” Die overgang – social media en webselfservice zijn enorm in populariteit gegroeid – is een goed voorbeeld van hoe de klantcontactsector verandert. Digitalisering van klantcontact is daarbij een van de belangrijkste trends: online is leidend en de onderliggende technologie die deze ontwikkeling drijft is cloud computing.

Contactcenters zien steeds beter in dat ze hun IT-omgeving moeten vereenvoudigen en dat ze de overstap moeten maken naar een flexibel multichannel platform dat door de gehele organisatie wordt gebruikt. Van de early adopters die al IT in de cloud hebben zitten, geeft twee derde van de respondenten aan, dat de cloud toegang biedt tot nieuwe of verbeterde functionaliteit; een zelfde groep geeft aan dat de cloud bijdraagt aan meer flexibiliteit en drie vierde van de executives is van mening dat het de TCO van het service proces verlaagt.

contactcenters cloud 4
Bron: DMG

Het Dimension Data onderzoek is niet de enige studie die uitwijst dat de cloud het dominante technologieplatform wordt voor klantcontact. Het aantal contactcenters dat een op cloud technologie gebaseerde infrastructuur gebruikt, is tot nu toe ieder jaar met tientallen procenten gegroeid en DMG voorziet voor 2014 en 2015 groeicijfers van 40 en 35 procent. De on premise hardware gaat naar de schroothoop, de oude software kan in de prullenbak. Of is dat meer wens dan werkelijkheid?

Contactcenters bestaan (naast mensen, goed voor 70 procent van de kosten) hoofdzakelijk uit IT en dus is het logisch dat contactcenters de innovatieroute volgen die gebruikelijk is in IT. In het verleden investeerden contactcenters veel in eigen hardware en software; wanneer er nieuwe functionaliteit nodig was werd er veel gestapeld en over oude systemen werd vaak een schil gelegd. Dat soort ingrepen hebben de laatste jaren bijgedragen aan de toegankelijkheid tot klantinformatie, waardoor de customer service aanzienlijk is verbeterd. De keerzijde is dat de onderliggende systemen niet zijn vernieuwd, laat staan vervangen. Onderhoud van die oude systemen blijft dus noodzakelijk; met de groei van het applicatielandschap nemen de beheerkosten toe. Het wordt dus steeds interessanter om de sprong naar de cloud te wagen, maar ook steeds onaantrekkelijker – want de transformatie naar de cloud is minder eenvoudig dan vaak wordt gesuggereerd en wordt lastiger naarmate het aantal applicaties toeneemt.

Bron: DMG
Bron: DMG

Het gaat dan om kernsystemen voor de centrale, routering, wachtrijen en systemen die stuurinformatie geven over agent- en queue performance; management systemen op het vlak van kwaliteit en performance (denk aan quality monitoring) ; ondersteunende systemen zoals scripting, webselfservice- en kennissystemen; service-systemen zoals CRM-applicaties waarmee klantprocessen aangestuurd en gevolgd kunnen worden, en algemene systemen zoals databases, analytics, workflow- en contentmanagement-systemen.

Een overstap of cloud migratie kost volgens sommige aanbieders slechts twee tot drie weken, maar voor contactcenters zijn er weinig redenen om zo’n termijn  als uitgangspunt aan te houden. Hoewel de meeste systemen die in contactcenters worden gebruikt als cloud applicatie verkrijgbaar zijn, is er geen enkel platform dat precies alle functionaliteiten geïntegreerd aanbiedt, ondanks de beloften van talloze aanbieders.

cloud contactcenter inplementatietijd
DMG: Cloud-Based Contact Center Infrastructure Market Report

Een overstap naar meer flexibiliteit in ‘kosten en capaciteit’ – typische voordelen van de cloud – kost vooral veel aandacht, tijd en geld. In het voortraject moeten hardware en software licenties worden afgekocht, moet voor verschillende soorten data worden bekeken of ze in de cloud mogen staan, moeten servers worden ‘schoongemaakt’ voor een cloudomgeving, moeten applicaties veelal worden aangepast, en moet de bestaande datacenterdienstverlening worden gewijzigd. Vaak blijken er naderhand contractuele beperkingen te bestaan als het gaat om een exit of een migratie naar de cloud. IDC voorziet een verdrievoudiging van uitgaven aan cloud computing tussen 2012 en 2017. Hardwareleveranciers en systeemintegratiespecialisten zullen het meest te lijden hebben van de afnemende vraag naar lokale systemen. De kans dat zij zich zullen vastbijten in lopende contracten met klanten wordt daarmee groter. Ook het securitybeleid moet opnieuw worden opgesteld en financiële instellingen hebben bij een cloudmigratie, ook van contactcentertechnologie, te maken met toezichthouders zoals DNB.

Marco Gianotten waarschuwt in een commentaar op Computable voor een teveel op techniek georiënteerde benadering van het cloud vraagstuk. “Cloud gaat over: 1) technologie, 2) veiligheid, 3) transitiekosten en 4) gebruikerservaring. We focussen teveel op technologie en veiligheid en veel te weinig op voor de business echt belangrijke zaken: geld en gebruikers.”

Dat dit accent ook in contactcenters dikwijls verkeerd wordt gelegd is te zien aan een andere bevinding uit het Dimension Data rapport. Er treedt verbetering op, maar toch is slechts een minderheid van de contactcenters (40 procent in 2013, 30 procent in 2012) betrokken bij het opstellen van business requirements voor nieuwe technologieoplossingen. Een wake up call voor customer service directeuren en contactcentermanagers die – op weg naar de cloud – nog niet in de drivers seat zitten.

Deze post is tot stand gekomen in samenwerking met de Zero Distance community en T-Systems

[wp_twitter]

Cloud computing als versneller voor de business

Consumenten gebruiken steeds meer technologie en hebben daarbij steeds minder te maken met de onderliggende techniek. Ze schaffen nog wel zelf hun hardware aan, maar denken verder bij de aanschaf, het gebruik en de werking van connectiviteit en applicaties nauwelijks nog aan de techniek. Betrouwbaarheid en acceptatie dragen er toe bij dat er – zo op het eerste oog – weinig redenen zijn om alles te moeten begrijpen of beheersen. Consumenten willen functionaliteit die gemak biedt: snel weten waar het regent, wat de snelste route is of hoe het banksaldo er voor staat. Veel technologie is ‘gratis’ en daarmee vaak gestandaardiseerd: bij de tientallen apps die we gebruiken zijn de configuratiemogelijkheden beperkt. We zitten er niet mee.

Bedrijven maken een vergelijkbare ontwikkeling door, maar de motieven zijn anders. Ondernemingen en instellingen moeten – gedreven door concurrentie – hun kosten terugdringen, hun tempo versnellen en hun dienstenpakket doorlopend aanpassen. IT-dienstverleners spelen hier op in. Ze leveren geen pc’s meer (zoals in de begintijd van kantoorautomatisering het geval was), maar gaan steeds meer vanzelfsprekende onderdelen van de IT-voorzieningen als standaarddienst aanbieden. Cloud computing gaat de komende jaren zorgen voor het verschil tussen winnaars en verliezers.

Naast verschillende varianten (zoals de basiskeuzen public/private/hybrid cloud) ontstaan er steeds meer diensten en producten die betrekking hebben op het werken met zakelijke cloud omgevingen.

Twee voorbeelden zijn OpenStack en CloudStack, open source cloud-management tools die bijdragen aan twee belangrijke voordelen van de cloud: kostenreductie en versnelde ingebruikname van software. Cloud computing  is workload gebaseerd, zowel voor IT- en bedrijfsprocessen als voor opslag-, backup- en recovery-voorzieningen. De cloud provider zorgt voor het tijdig opschalen van de servers, het beschikbaar maken van databases en voor andere diensten verzorgen die ontwikkelaars voorheen zelf moesten regelen. Servers worden efficiënter ingezet en bedrijven hebben niet meer te maken met onderhoud. Aan de personele kant komen meer resources vrij voor softwareontwikkeling. Het configureren van complexe systemen, het ontwikkelen van software, het testen en de ingebruikname van software: het kan allemaal in de cloud. Het gebruik van software-ontwikkelplatformen in de cloud leidt volgens marktonderzoeker Evans Data Corporation tot een verkorting van projecten van gemiddeld 15 procent. Het sneller beschikbaar komen van (nieuwe) functionaliteit draagt direct bij aan een verkorting van de time-to-market.

Cloud computing maakt IT-voorzieningen niet alleen goedkoper en sneller beschikbaar (de beheer- en ontwikkelkant), maar helpt ook om bedrijfsprocessen te optimaliseren. Het werken met cloud gebaseerde oplossingen maakt het mogelijk om software en databases real time actueel te houden en beschikbaar te stellen. Een goed voorbeeld hiervan is de logistieke operatie op luchthavens, waarbij het aanbod aan passagiers DSCN1826en vracht moet worden afgestemd op beschikbare vliegtuigen. Die complexe operatie vergt veel coördinatie en communicatie tussen allerlei partijen: luchthavenexploitant, luchtvaartmaatschappijen, vliegveiligheidsdienst, dienstverleners zoals afhandelings-, catering- en schoonmaakbedrijven en verschillende autoriteiten. Vliegtuigen die niet vertrekken, kosten geld: resources op de grond worden geblokkeerd en luchtvaartmaatschappijen moeten passagiers bij langere vertragingen schadevergoedingen betalen: beginnend bij bedragen vanaf 250 euro per passagier na drie uur.

Met een cloudgebaseerd Total Airport Management Systeem (TAMS) kunnen alle activiteiten rondom de werkzaamheden op het vliegveld gecoördineerd en geregeld worden. Om de besluitvorming te vereenvoudigen en te versnellen, worden verschillende bestaande databases geconsolideerd zodat actuele gegevens centraal beschikbaar zijn. Daarnaast wordt een helder rechtenbeheer ingevoerd, zodat de afzonderlijke dienstverleners alleen over die informatie beschikken, die voor hen bestemd is: zowel op vaste als mobiele eindapparatuur. De cloud vormt hierbij dus de basis voor zowel de infrastructuur als de data en applicaties. Als de aankomsttijd van een vlucht verandert en daarmee bijvoorbeeld ook de gate, worden alle betrokken dienstverleners direct geïnformeerd. Op die manier kan de luchthaven flexibel en daarmee ook efficiënt op de wisselende capaciteit inspelen. Een TAMS optimaliseert grondtijden, verkort wachttijden, vergroot de tevredenheid bij passagiers en zorgt uiteindelijk voor meer omzet.

IT wordt voor bedrijven steeds meer een middel om snelheid te maken. Driekwart van de Nederlandse organisaties vindt dat de opkomst van cloud-oplossingen snelle innovatie voor de eigen organisatie mogelijk maakt, zo blijkt uit het onderzoek ‘Eilanden in de Cloud’, dat in opdracht van Macaw door Pb7 Research is uitgevoerd onder 100 IT-beslissers van Nederlandse organisaties. De meest genoemde oplossingen met grote toegevoegde waarde zijn een complete werkplekomgeving in de cloud (44%), gebruik van een dienstverlener die als cloud-broker optreedt (39%) en het gebruik van open standaarden (39%).

Er zijn echter ook beperkende factoren. Bij het geleidelijk vergroten van de inzet van cloud computing is integratie van verschillende cloudtoepassingen de belangrijkste uitdaging voor vier van de vijf Nederlandse bedrijven.  Nieuwe ondernemingen kunnen hun IT direct in de cloud onderbrengen, maar oudere organisaties hebben te maken met legacy: oude systemen – datacenters, softwareomgevingen – die niet geschikt zijn voor de cloud.

Om de concurrentie bij te benen hebben veel van deze bedrijven vaak prioriteit gegeven aan het stapelen en aan elkaar knopen van applicaties en daarnaast achterstallig onderhoud opgebouwd. Hoe groter en ouder de organisatie, hoe groter dit probleem is. Het maakt deze groep dinosaurussen minder wendbaar en meer kwetsbaar, niet alleen voor nieuwe concurrentie, maar ook voor cybercrime.

Een transitie naar de cloud heeft veel voeten in aarde – naast het verhuizen speelt ook mee dat veel cloud toepassingen gestandaardiseerd zijn, iets dat om flinke aanpassingen vraagt in de IT-organisatie. Een model als cloudstack kan waarde toevoegen aan zowel het migratie- en transformatievraagstuk als aan cloud integratie. Met CloudStack is het mogelijk, ook in een private cloud omgeving die niet volledig gestandaardiseerd is, om snel up en running te zijn, al blijft net als bij andere IT-projecten de rol van een integrator noodzakelijk. Daarbij hebben met name financiële instellingen te maken met complexe wet- en regelgeving. Uit ervaringen van ‘cloud migranten’ valt op te maken dat dit transitievermogen de komende jaren voor veel ondernemingen een doorslaggevende succes- of faalfactor zal worden. Conclusie: lenigheid in IT wordt de ultieme voorwaarde.

 

Dit blog werd geschreven naar aanleiding van de European Cloud  Stack Collaboration  Conference en is tot stand gekomen in samenwerking met de Zero Distance community en T-Systems

[wp_twitter]

Onbetrouwbare overheid obstakel voor digitale innovatie

De cloud wordt het ideale platform voor het internet of things (IoT). De cloud is snel op te tuigen en in te richten, is op afstand toegankelijk, maar locatieonafhankelijk, kan enorm snel worden opgeschaald en kost relatief weinig geld. Het vormt ook de ideale basis voor een wireless sensor netwerk (WNS): een netwerk van sensoren, die door hun lage energieverbruik autonoom functioneren en in staat zijn permanent data door te geven aan het web. Denk aan sensoren in onze directie omgeving: systemen voor het bepalen van de luchtkwaliteit, sensoren die het klimaat in gebouwen optimaal reguleren.

Ook sensoren die we nu al intensief gebruiken – bijvoorbeeld bewakingscamera’s in en om gebouwen – zullen, voor zo ver ze dat niet al doen, steeds vaker hun data in de cloud opslaan. De schaalbaarheid (niet alleen voor opslag, maar ook voor analysecapaciteit) en de gemakkelijk te organiseren toegankelijkheid maken de cloud de ideale thuisbasis voor de sensordata die het IoT in toenemende mate gaat produceren.

 

Het idee achter een meer en meer connected world is dat onze mogelijkheden toenemen: we krijgen meer informatie over en meer vat op de systemen om ons heen. Daardoor kunnen we processen efficiënter inrichten, verspilling tegen gaan, bij complexe vraagstukken sneller tot conclusies komen en bepaalde verschijnselen eerder ontdekken, zo luidt de belofte. Kortom, (big) data gaan ons leven prettiger maken.

Maar het produceren van meer – of liever gezegd, meer nieuwe informatie, maakt ons ook kwetsbaarder. Denk aan een connected auto die gehackt kan worden, of inbrekers die aan de hand van domotica-gegevens precies weten wanneer ze moeten inbreken.

Wanneer onze zorg en aandacht rondom security vooral uitgaat naar de klassieke criminelen die met hacks onze systemen willen gijzelen, dan maken we een grote denkfout. Het vertrouwen in cloudtechnologie loopt de meest ernstige schade op, als niet criminelen, maar onze eigen medemensen – overheidsdienaren, civil servants die we zelf hebben aangewezen – misbruik van hun informatieprivileges gaan maken, ook al beloven ze dat ze de burger zullen beschermen tegen een overheid met expansiedrift.

 

De afgelopen zomer heeft cloudcomputing al de eerste ernstige deuken opgelopen en niet doordat commerciële spelers te snel gewaagde diensten en producten lanceerden. In de VS waren het de NSA-praktijken die het cloudconcept onder enorme druk zetten. Zo onthulde de Britse krant The Guardian dat de NSA via geheime gerechtelijke dwangbevelen de mogelijkheid gebruikte om clouddata af te tappen van miljoenen Verizon-klanten. Voor het eerste werd duidelijk in de VS wat de kracht was van de Patriot Act. Het ging niet langer om een ‘mogelijkheid’ dat jouw persoonlijke data door de overheid zouden kunnen worden opgevraagd, maar om de realiteit dat ze al waren gekopieerd en opgeslagen door die overheid. Weg privacy.

 

Bij het uitrollen van nieuwe IoT-modellen en -concepten (bijvoorbeeld protocollen voor machine-to-machine-communicatie zoals bij slimme energiemeters of on demand diensten voor gebouwenbewaking) houden ontwikkelaars nadrukkelijk rekening met security-aspecten van zowel M2M als cloud. Wanneer systemen onbetrouwbaar blijken te zijn, zullen consumenten ze massaal de rug toe keren, hetgeen dergelijke concepten financieel kwetsbaar maakt. Er is bij datagebaseerde diensten geen tweede kans zoals bij fysieke producten waarbij je met een goede recall actie de schade nog kunt proberen te beperken. In het een betrouwbaar Internet of Things wordt authenticiteit van dingen een belangrijk element. Is de sensor wel het apparaat dat het beweert te zijn? Hoe kan voorkomen worden dat Things ongeoorloofd elkaars identiteit overnemen? Daarnaast speelt data-integriteit een belangrijke rol: is de informatie die een sensor afstaat, nog steeds dezelfde informatie die uiteindelijk op een tussen- of eindbestemming wordt opgeslagen?

 

Wat is de waarde van dit soort inspanningen? De belangrijkste voorwaarde om met een prettig gevoel het cloud tijdperk te betreden, blijft toch een betrouwbare overheid. Wanneer die het keer op keer laat afweten, worden alle andere maatregelen op het gebied van security – ook die van de overheid zelf, bijvoorbeeld om ons op te voeden op het vlak van datasecurity – een lachertje. In plaats van meer veiligheid en betrouwbaarheid is het eindresultaat het omgekeerde: de stap naar cybermuiterij, cyberterrorisme en cyberactivisme wordt steeds kleiner, zoals Edward Snowden al overtuigend heeft laten zien. En last but not least wordt het gedrag van overheden een ernstig obstakel voor innovatie.

 

Deze post is tot stand gekomen in samenwerking met de Zero Distance community en T-Systems

[wp_twitter]

De impact van het internet of things wordt zichtbaar

Hoe groot is de impact van het internet of things? Afgaand op de soms hoogdravende berichten uit de media lijkt het er op dat bedrijven en instellingen nog even achterover kunnen leunen. Maar schijn bedriegt: alleen toekijken levert het risico op van een achterstand.

De impact is al volop merkbaar en de uitdagingen blijven niet beperkt tot de whizzkids van IT, maar beïnvloeden de gehele organisatie. Het internet of things, of liever gezegd het internet of everything, gaat over sensors, netwerken, de verwerking en opslag van data, applicaties en beveiliging. Het is geen hype meer, zo blijkt uit de voorbeelden van bedrijven die zich voorbereiden op een nieuwe toekomst. Die voorbereiding vergt niet alleen een brede blik – wat staat er voor ons op het spel? – maar ook een transformatie van de complete organisatie. Het internet of things is meer dan het ‘aan elkaar knopen’ van enerzijds objecten en anderzijds IT. Tijdens de tweede Imtech ICT-rondetafeldiscussie onder leiding van Marco Gianotten met als thema het internet of things werd duidelijk: steeds meer bedrijven praten niet alleen over het internet of things, maar implementeren op dit moment concrete toepassingen.

Download verslag Imtech ICT rondetafeldiscussieLees het verslag van de Imtech rondetafeldiscussie met daarin onder meer een nieuw luchtmeetnetwerk in Eindhoven; een nieuw, groen en slim kantoorgebouw van Deloitte in Amsterdam; de kloof tussen IT-organisatie en operationele organisatie; en het kantelen en/of verdwijnen van bestaande business modellen als gevolg van het internet of everything. Download pdf


De data spreken voor zichzelf

Discussies over big data beginnen steeds meer te lijken op de discussie over de opwarming van de aarde. Dat de aarde geleidelijk opwarmt, mag als een feit worden beschouwd, bij het nadenken over mogelijke gevolgen zijn we afhankelijk van de betrouwbaarheid van scenario’s – het is immers een vraagstuk over de toekomst. Ook aan de kant van big data wordt de groei van het datavolume niet ontkend, maar wordt het lastiger als je de aandacht op de gevolgen wil vestigen.

DatainOneMinuteDe feiten rondom big data zijn helder. Het datavolume groeit snel en op veel gebieden (denk aan de zorg) explosief. De toekomst biedt weliswaar geen feitelijke zekerheden, maar dat de groei sterk zal doorzetten valt niet te betwijfelen. Alleen al het mobiele dataverkeer neemt tot 2019 met 45 procent toe, aldus het laatste Mobility Report van Ericsson. Wereldwijd zijn er nu twee miljard mobiele breedbandabonnementen, in 2019 zullen dat er 8 miljard zijn. Rond die tijd zal ook het aantal tablets, mobile pc’s en mobile routers meer dan verdubbeld zijn. De exacte impact is niet duidelijk, maar dat vrijwel alle grote brands bezig zijn met het internet der dingen maakt in elk geval duidelijk dat het IoT de komende vijf jaar een enorme ontwikkeling zal doormaken.

Niet alle bedrijven zullen in 2019 (dat is over vijf jaar, de iPad is op dit moment nog maar drie jaar oud!) gelijktijdig in staat zijn met deze databubble om te gaan. Big data staat vooral bij IT-dienstverleners hoog op de agenda en daarnaast zijn er steeds meer CIO’s die inzien dat het tij niet te keren is. Steeds vaker gaat de CIO met de business in gesprek om te bezien wat de kansen, maar ook de uitdagingen zijn bij het aan de slag gaan met big data.

 

hollandse brug tekening - webIn veel gevallen moet de business echter nog tot het inzicht komen dat big data geen hype is. De early adopters van het big data fenomeen hebben nu dus al een voorsprong. Voor de late majority wordt de achterstand straks op twee manieren een probleem: er is minder tijd om een inhaalslag te maken, maar de transformatie naar de cloud zal sneller moeten. Tegen de tijd dat de late majority tot het inzicht komt dat er een begin moet worden gemaakt, wordt de jacht op data-analisten geopend en zullen prijs en beschikbaarheid verder uiteen gaan lopen. Kortom, veel organisaties zullen niet tijdig toegerust zijn – ook op boardroom niveau – om op het vlak van technologie, personeel en processen aan de slag te kunnen met big data. Niet nadenken over big data is dus ernstiger dan alleen uitstel van executie.

Waar te beginnen met big data? – live webcast

Op dinsdag 19 november organiseert Computerworld een live webcast met T-Systems en IDC, met als invalshoek: waar te beginnen met big data?

Tijdens de webcast wordt ingegaan op vraagstukken rondom security; besluitvorming en algoritmes; waarde en ROI van big data en de rol van technologieoplossingen waaronder cloudcomputing.

  • Datum: 19 november 2013
  • Aanvangstijd: 4.00 p.m. CET
  • Deelname is kosteloos
  • Aanmelden kan hier.

 

Deze post is tot stand gekomen in samenwerking met de Zero Distance community en T-Systems


Cloudbankieren

DSC_9178Wanneer je het vliegtuig naar de VS neemt, weet de NSA vermoedelijk sneller wat jij aan boord hebt gegeten dan dat de cabin crew het aan je heeft gevraagd. Passenger Name Records moeten door vliegmaatschappijen beschikbaar worden gesteld aan de VS, die afspraak is nu eenmaal gemaakt, maar het afluistervraagstuk plaatst internationale afspraken en wet- en regelgeving in een ander perspectief. Onze banken worstelen echter al langere tijd met het datavraagstuk en met vergelijkbare wetten en regels met een eveneens twijfelachtige werking.

Cloud computing is een vorm van outsourcing

Nederlandse banken die zaken doen met Amerikaanse bedrijven, hebben te maken met verschillende regelingen. Aan de ene kant is er de Patriot Act, die de AmerikaanDSC_8837se overheid (officieel na toestemming van de rechter) de mogelijkheid biedt om data op te vragen van Amerikaanse burgers en bedrijven, ongeacht waar die zich bevinden. Aan de andere kant dragen Nederlandse organisaties vanuit Nederlandse en Europese wetgeving zelf de verantwoordelijkheid voor een correctie verwerking en bescherming van persoonsgegevens. Wanneer Europese banken zaken doen met internationale dienstverleners, wordt de wet- en regelgeving alleen maar complexer. Niet-Europese dienstverleners moeten verklaren dat zij de Europese wet- en regelgeving respecteren. Hun datacenters moeten bijvoorbeeld binnen Europa gevestigd zijn, zodat voorkomen kan worden dat een vestigingsland (buiten Europa) via eigen wet- en regelgeving kan bepalen hoe er wordt omgegaan met data. Datacenters zijn relevant voor de opslag van klantgegevens. Van grote financiële instellingen is vrijwel nooit bekend waar zij welke data onderbrengen.

Safe harbor

De Safe Harbor-regeling tussen de EU en VS schrijft voor dat Amerikaanse bedrijven alleen privégegevens van Europese consumenten verwerken en opslaan als ze (Safe Harbor)-gecertificeerd zijn. Onderliggende regels hebben betrekking op zaken als toestemming, databeveiliging, handhaving en klachtafhandeling. Het Safe Harbor-keurmerk wordt gehandhaafd door het Amerikaanse ministerie van Handel.

Of het Safe Harbor-keurmerk garanties biedt, is de vraag. De Patriot Act geeft de VS altijd de mogelijkheid om data (of complete servers) te vorderen, iets waardoor het keurmerk aanzienlijk aan kracht inboet. Het College Bescherming Persoonsgegevens (CBP) stelt daarom dat Nederlandse bedrijven en organisaties die clouddiensten afnemen in de VS, zelf eindverantwoordelijk zijn voor de bescherming van persoonsgegevens.

Toezicht?

Om die verantwoordelijkheid goed te kunnen invullen moet je dan wel een audit kunnen uitvoeren bij je clouddienstverlener. Voor financiële instellingen geldt dat De Nederlandsche Bank (DNB) toezicht houdt en dat toezicht strekt zich uiteraard ook uit tot de DSC_9178IT van banken. In de Wet Financieel Toezicht (WFT) en de Pensioenwet is vastgelegd dat DNB een right to audit heeft. Dat recht kan gebruikt worden wanneer DNB er niet of onvoldoende in slaagt om via normale procedures (opvragen van documenten, stellen van vragen) aan informatie te komen. Wanneer banken overgaan tot het uitbesteden van IT, mag dat niet leiden tot belemmeringen in het toezicht, zo is één van de eerste voorschriften van DNB. Cloud computing verandert daar niets aan. Het audit-recht van toezichthouders blijft aan de orde en gaat bij IT-outsourcing bijvoorbeeld tot op het niveau van onderaannemers van IT-dienstverleners. De praktijk is echter tot nu toe dat veel Amerikaanse partijen niet toe stonden dat een Nederlandse toezichthouder het right to audit ook daadwerkelijk zou uitoefenen: toezichthouders kwamen er eenvoudigweg niet in.

Werkbare afspraken

Financials ervaren het dan ook als een hele toer om alle wet- en regelgeving vertaald te krijgen in juridische contracten en afspraken met hun service providers. Service providers op hun beurt vrezen dat opdrachtgevers of toezichthouders zo maar kunnen binnen vallen. Het realiseren van contractuele afspraken met service providers rondom het naleven van wet- en regelgeving is hierdoor tijdrovend maatwerk.

De service providers en de Nederlandse financiële sector zijn gebaat bij heldere afspraken over bijvoorbeeld het invulling van het toezicht. DNB heeft met de clouddienstverleners Microsoft, Salesforce.com en Amazon overeenstemming bereikt over de wijze waarop specifieke clausules van IT-contracten kunnen worden ingevuld. Het gaat dan om aspecten als hoe vaak het right to audit speelt, wie de kosten draagt en wat een audit precies inhoudt. De afspraken die DNB met Salesforce.com, Microsoft en Amazon heeft gemaakt, zijn echter niet openbaar. Ze zijn concurrentiegevoelig en hangen nauw samen met de aangeboden diensten van de betrokken partijen; mede een gevolg van principle-based toezicht door DNB (in plaats van rule-based toezicht).

Meer transparantie?

Hoewel de Patriot Act een pijnpunt blijft, begrijpt een partij als Microsoft dat ze moet inspelen op de lokale Europese situatie – het bedrijf wordt dan ook steeds transparanter over de locatie van de eigen datacenters, aldus DNB. Wanneer concurrentie er voor zorgt dat meer leveranciers DSC_8957versneld gaan inspelen op regelgeving, wordt dat aantrekkelijk voor klanten. Het vergroot tegelijkertijd de complexiteit: dienstverleners zullen namelijk sterker moeten inspelen op uiteenlopende omstandigheden van verschillende lokale markten. Of de verschillende nationale toezichthouders eenzelfde beweging zullen maken en zullen streven naar geharmoniseerde regelgeving, valt te betwijfelen. Daarvoor zijn de verschillen in nationale wet- en regelgeving op het vlak van levensverzekeringen en pensioenen nog veel te groot.

Of juist gebrek aan transparantie?

Leveranciers bieden inmiddels allerlei verschillende cloud diensten aan, bijvoorbeeld afgestemd op verticals of op specifieke vraagstukken rondom data of toepassingen. IT-uitbesteders ervaren tot nu toe vaak gebrek aan transparantie bij aanbieders. Zo worden ze soms achteraf toch geconfronteerd met additionele kosten en vragen ze zich af wat het verschil is tussen een private cloud en gevirtualiseerde diensten. Aan de andere kant kan het schaalvoordeel dat een cloudprovider kan leveren, ook betrekking hebben op het gebied van security. Kiezen voor de cloud betekent dat je als uitbesteder in een multi-tennant-omgeving terecht komt, waarbij de aanbieder maximale energie in beveiliging zal steken. Maar wanneer financials met die reden allemaal voor dezelfde cloudprovider kiezen, maakt dat die ene provider en daarmee de financiële sector als geheel weer extra kwetsbaar.

 

Dit blogbericht is gebaseerd op een verslag van een rondetafeldiscussie over ‘financials in de cloud’ (2013). De discussiebijeenkomst werd geleid door Marco Gianotten en was een initiatief van de Werkgroep Cloud van Platform Outsourcing Nederland. Het uitgebreide verslag inclusief een case over de stap van Robeco naar de cloud is te vinden op http://giarte.nl/publications/outsourcing-performance-2014/

Deze post is tot stand gekomen in samenwerking met de Zero Distance community en T-Systems


WTF is IFTTT?

Het Internet of Things (IoT) is geen toekomstmuziek, het bestaat gewoon. Mijn telefoon veert (via een bluetooth melding) al op wanneer m’n vriendin in haar auto voor ons huis langsrijdt en in de draadloze thermostaat die ik al twee jaar gebruik zit een Zigbee-chip die met de ketel communiceert.

Om dat snel oprukkende internet van dingen te temmen met zelfbedachte en controleerbare acties is er sinds enige tijd IFTTT. IFTTT staat voor ‘If This Then That‘. IFTTT is een startup – gevestigd in San Francisco – die een service aanbiedt om internet te gebruiken als dashboard voor het aansturen van dingen of processen.

IFTTT maakt het mogelijk om zelf online diensten aan elkaar te koppelen: zo kan je bijvoorbeeld inregelen dat je een sms ontvangt als een andere app regen in jouw buurt voorspelt. Het bedrijfje IFTTH sloot partnerships met onder meer Philips. Hierdoor is het mogelijk om de kleur van Philips Hue’s paars te laten schijnen als het regent.

IFTTT beeldLinden Tibbets is een van de bedenkers en ontwikkelaars van IFTTT. Tibbets was op zoek naar algemene regels die het werken met internet meer specifiek kunnen maken. Met andere woorden, hij wilde internet gaan gebruiken als thoughput, als schakelkast tussen input en output, of tussen actie en reactie. ‘Recepten’ zijn de instructies die er voor zorgen dat een bepaalde actie tot een bepaalde respons leidt. Dat mag in de visie van IFTTT geen heel ingewikkelde operatie zijn. In tegendeel, het mag niet gaan lijken op programmeerwerk, al is dat wel wat je doet. De ontwikkelaars zijn daarom met ikonen gaan werken, hetgeen IFTTT geschikt maakt voor mobiel gebruik. Natuurlijk worden de recepten, die iedereen kan creëren, straks ook gedeeld via social media.

IFTTT beeld 2Met platforms zoals IFTTT krijgt domotica een consumerized tintje: het zijn niet langer de hardware- en software-boeren die IoT-functionaliteit leveren: denk aan de zonwering of verwarmingsthermostaat thuis die je vanaf je werk met je mobiel kunt bedienen. Of een meer praktisch voorbeeld van GE, die een IoT-dingetje voor in de koelkast ontwikkelde.

Met IFTTT kunnen mensen zelf gemakkelijk koppelingen tussen verschillende online zaken aanbrengen. En waar het IoT nu nog vooral gericht lijkt te zijn op de interactie tussen online  en fysieke ‘voorwerpen’, kan met IFTTT als platform straks iedere interactie ontworpen worden. Het betekent ook dat consumenten niet beperkt worden door producenten die koppelingen voorschrijven: je koelkast kan zelf melk bestellen bij iedere online retailer, en niet alleen bij de eerste retailer die denkt in te spelen op IoT.