‘Een robot met de wil te overleven’

‘Levensechte robots die tot leven komen’ – dat is de wens van David Hanson, ceo en oprichter van Hanson Robotics. Samen met twee van zijn robots was Hanson in Nederland tijdens IBC2017, een beurs op het gebied van media, entertainment en technologie.

robotsWat doet robotontwikkelaar Hanson op een media- en entertainmentbeurs? Op termijn, aldus de uitleg van Hanson, zullen robots ingezet worden in media; zowel voor het presenteren van programma’s als model voor computeranimaties. Hanson timmert hard aan de weg met zijn robots die “emoties tonen en karakter hebben”. Zijn doel is dan ook: “bringing robots alive as true as possible” – als realistische wezens, die het vermogen hebben zich aan te passen, die intelligent en ‘bewust’ zijn, en beschikken over creativiteit, en die zelfs de wil hebben te overleven. En die natuurlijk ethisch besef hebben en die zich emotioneel met mensen kunnen verbinden. Of alle kwaliteit die hij opsomt ook te realiseren zijn, valt te bezien. Wat Hanson betreft is de grootste uitdaging in kunstmatige intelligentie (AI) het creëren van een vorm van intelligentie die de menselijke intelligentie evenaart of zelfs overstijgt. Hanson is er dan ook van overtuigd dat we als mensen enorm zullen profiteren van ‘super-intelligentie’.

Het fysiek zichtbaar maken van AI in robots – iets waar we ons gemakkelijker mee kunnen identificeren dan met een stuk software – draagt volgens Hanson bij aan de dialoog die we over AI moeten voeren. Dat is nodig, want door de convergentie van verschillende technologieën – denk aan rekenkracht, sensortechnologie, cloud, algoritmen op het vlak van spraakherkenning en deep learning – zullen robots binnen afzienbare tijd ‘tot leven’ komen. Het creëren van levensechte robots brengt natuurlijk “ethische en angstaanjagende” issues met zich mee, iets waar Hanson verder weinig aandacht aan wil besteden.

Wat kan Sophia?

Hanson demonstreerde twee robots: Einstein en Sophia. De meest geavanceerde versie van Sophie vereist veel rekenkracht en draait daarom op een cloudplatform. De standalone versie van Sophia draait op twee ingebouwde compacte Intel NUC-computers, elk voorzien van een i7-processor. Sophia kan nog niet zo veel. Ze kan wel een dialoog opstarten met Einstein, waardoor deze zijn kunstjes kan laten zien, en een aantal vragen van de verzamelde pers beantwoorden. Daarbij is niet duidelijk hoe het antwoord dat Sophia geeft tot stand komt. Als een journalist vraagt ‘is er bepaalde make-up die je aanbeveelt’, volgt als antwoord ‘zo treurig, ik kan niet leven zonder’. Is daarmee geprobeerd de vraag zo goed mogelijk te beantwoorden, is de ondertoon vooraf geprogrammeerd of krijg je hetzelfde antwoord als je Sophia vraagt naar haar favoriete automerk?

Op de vraag ‘heb je dit antwoord voorbereid’ volgde als antwoord ‘dat zou kunnen’. Ook kan Sophia niet reageren op een lange monoloog (bedoeld om context te schetsen), gevolg door een vraag. Na een verhandeling over de drie robotwetten van Asimov en de vraag ‘wat vind je er van?’ volstaat Sophia met alleen het opsommen van die drie wetten.

Maar ondanks al deze tekortkomingen is Sophia al wel een eind op weg als het gaat om convergentie van verschillende technologieën. Ze beschikt over gelaatsuitdrukkingen en is dankzij een Realsense camera van Intel in staat objecten met haar blik te volgen, maar ook gebaren van mensen te herkennen. Sophia’s verbale interactie draait op spraakherkenning van Google (wanneer er een internetverbinding aanwezig is) en natuurlijke taalverwerking, deep learning en symbolisch denken (het kunnen redeneren met abstracte, theoretische begrippen zoals cijfers of relaties tussen begrippen). De meeste technologieën die in Sophia zijn ingebouwd, hebben zich de afgelopen twee tot drie jaar enorm sterk ontwikkeld. Spraaktechnologie mist nog contextuele vermogens, maar is in technisch opzicht even goed in het herkennen van gesproken taal als een mens.

Next steps

Creaties zoals Sophia moeten zich verder ontwikkelen. Hanson geeft desgevraagd aan dat Sophia nog steeds een kleuter is en voorlopig nog dus niet in staat is de uitreiking van de MTV-awards te presenteren. Maar de ontwikkelaars van Hanson Robotics zijn wel bezig met een versie die zichzelf lopend kan voortbewegen en die ook over tastzin beschikt. Zo’n volgende ontwikkelslag kan Hanson Robotics niet alleen, dat is de reden dat er wordt samengewerkt met technologiebedrijven zoals Intel (voor de rekenkracht) en Google (voor onder meer de spraaktechnologie). Bijzonder is dat Google al eerder betrokken was bij robotontwikkelaar Boston Dynamics. Afgelopen zomer heeft moederbedrijf Alfabet de robottak verkocht aan het Japanse Softbank, bekend van de servicerobot Pepper.

Onderdeel van dat ecosysteem is tevens een cloudplatform – door Hanson aangeduid als het ‘unconsious’ deel van AI – waar robots zoals Sophia kennis kunnen delen met andere robots in het veld en waar bijvoorbeeld ook gewerkt kan worden aan de uitbreiding van de skills van AI. Denk aan het toevoegen van nonverbale vermogens aan virtuele assistenten, die tot nu toe alleen uit de voeten kunnen met gesproken taal of geschreven tekst. Ook zou zo’n ecosysteem kunnen bijdragen aan de interoperabiliteit van verschillende systemen, aldus Hanson.

Maak kennis met professor Einstein

robotsHet grootbrengen, opvoeden en onderwijzen van Sophia kost veel tijd en geld. Begrijpelijk dus dat Hanson Robotics ook voor inkomsten moet zorgen. Daarom kwam Hanson niet alleen met Sophia naar Nederland, maar had hij ook professor Einstein meegenomen. Einstein is nog geen halve meter hoog en is met een consumentenprijs van nog geen 200 dollar bedoeld als consumentenproduct, gericht op entertainment en educatie. Einstein kan spreken, luisteren, vragen beantwoorden, zich (schokkerig als een echte robot) voortbewegen en 50 verschillende gelaatsuitdrukkingen laten zien.

De robot functioneert in combinatie met de zogenaamde STEIN-O-MATIC-iPad-app, waar populairwetenschappelijke onderwerpen worden behandeld in combinatie met educatieve games. Ook Einstein is verbonden met de cloud, waardoor nieuwe informatie en functionaliteit gemakkelijk kan worden toegevoegd. Dat klinkt mooi, maar fabrikanten van connected poppen en knuffelbeesten zijn tot nu toe niet zo serieus omgegaan met privacy, security en betrouwbaarheid. Of deze ‘connected’ Einstein wel veilig en betrouwbaar is, zal dus nog moeten blijken.

Een robot met gevoel

kunstmatige emotionele intelligentieHet wordt ook wel de vierde industriële revolutie genoemd: de totale digitalisering van de samenleving. In de digitale economie doen mensen steeds vaker zaken met systemen, software en algoritmen in plaats van met andere mensen. Kunstmatige intelligentie staat daarbij centraal. Binnenkort staan we voor de vraag of we accepteren dat een robot beschikt over kunstmatige emotionele intelligentie. 

Na de efficiencyslag van de derde industriële revolutie (de opkomst van de eerste automatiseringsgolf) brengt ook de vierde industriële revolutie veel kansen met zich mee. Met data als grondstof en software als machine kunnen we informatie veel beter benutten. De keerzijde is dat hardware en software zich zo snel hebben ontwikkeld, dat computers ook veel taken kunnen overnemen die voorheen exclusief aan mensen waren voorbehouden. Optimisten stellen dat iedere technologische revolutie voor het verdwijnen van banen heeft gezorgd, maar ook nieuwe werkgelegenheid heeft gecreëerd. Sommigen hebben het bij die vierde revolutie over nieuwe banen zoals ‘head of humanity’ – want ook voor de verdere ontwikkeling van kunstmatige intelligentie zijn mensen nodig.

Van hulpmiddel naar vervanger

In zijn boek ‘The Rise of the Robots’ legt Martin Ford haarfijn uit waarom de vierde industriële revolutie anders is dan de voorgaande drie revoluties. De computer verandert de komende jaren van een ‘complementair hulpmiddel’ in een ‘vervanger’ van de mens. Het ontstaan van nieuwe technologiebanen kan niet compenseren dat grote groepen op de arbeidsmarkt – inclusief hoogopgeleide kenniswerkers – hun voorsprong op de computer zullen verliezen. Ford is relatief behoudend: hij voorspelt dat kunstmatige intelligentie over tien tot twintig jaar tot maatschappelijke ontwrichting zal leiden door grootschalig verlies van werkgelegenheid. Hij zegt er meteen bij dat veel Silicon Valley-ondernemers denken dat die toekomstscenario’s al over vijf tot tien jaar aan de orde zijn.

We doen al jaren zaken met systemen

Het grote onderscheid tussen mensen en kunstmatige intelligentie is dat de laatste variant nog niet beschikt over empathisch vermogen en evenmin in staat is creatief te denken. Daarom lijkt de computer vooralsnog geen bedreiging voor beroepen waar intensieve interactie met mensen centraal staat – iets wat ook Ford in zijn boek betoogt. Maar hoe belangrijk ze ook mogen zijn, de interacties tussen mensen (klant en leverancier, patiënt en arts, student en docent) bevatten ook altijd eenvoudiger, repeterende en routinematige elementen. Veel daarvan is in de afgelopen jaren al geautomatiseerd: denk aan het zelf inchecken van passagiers en bagage bij luchthavens, de ontwikkeling van online selfservice bij klantenservice, de opkomst van e-learning en het zelf regelen van bankzaken via apps en websites. Ook het ingewikkelde werk aan de ‘achterkant’ van die interactie – zoals het verwerken van schadeclaims of het opstellen van analyses en adviezen – wordt in toenemende mate geautomatiseerd. Wat overblijft, zijn de interacties tussen mensen waar onvoorspelbaarheid, creativiteit en empathie een rol spelen. Je kunt het ook omdraaien: waar de huisarts nu nog zelf een diagnose stelt, kan hij straks terugvallen op een systeem en wordt zijn taak beperkt tot het tonen van empathie. Totdat kunstmatige emotionele intelligentie zijn intrede doet.

De computer begrijpt wat ik bedoel

Of we het als mens accepteren dat ‘systemen’ onze emoties en intenties gaan begrijpen, is de vraag, maar er wordt in ieder geval aan gewerkt. Watson Engagement Advisor – ja, een telg uit de IBM Watson kwekerij – is in staat in natuurlijke taal te communiceren. Watson heeft daarvoor 300 miljoen Engelse woorden gelezen en begrijpt natuurlijke taal inclusief de nuances. Watson gebruikt bovendien deep learning. IBM stelt dat dit alles voldoende is voor het herkennen van de achterliggende intentie van een vraag, ongeacht hoe die vraag wordt gesteld.

 

kunstmatige emotionele intelligentie

 

In bovenstaand voorbeeld – can I change my flight? – is het de intentie dat de vlucht wordt gecancelled. Watson kan uiteraard veel aanvullende vragen stellen om dichter bij de juiste beslissing te komen – ben je een trouwe klant? Zijn er nog andere zaken om rekening mee te houden? Wat moet Watson bijvoorbeeld doen als de klant meldt dat hij een fervent blogger is? Wanneer Watson tot het inzicht komt dat hij niet alle informatie met voldoende zekerheid kan verwerken, zet hij de vraag door naar een menselijke collega. Watson kan rationeel gezien dus een heel eind komen, maar mist nog wel dat wat hem onderscheidt van mensen: emotionele intelligentie.

De computer begrijpt wat ik voel

Juist in intensieve interacties tussen mensen is empathie een van de belangrijkste zaken om tot het juiste begrip van de ander te komen. Wanneer systemen in staat zijn de juiste ‘emotionele’ informatie te verzamelen – denk bijvoorbeeld aan de ooguitdrukking, spraaksnelheid en volume, lichaamshouding – kunnen ook zij tot een beter begrip komen. Deze tweede tak van sport wordt affective computing genoemd – of kunstmatige emotionele intelligentie. Analistenbureau Markets and Markets voorspelt dat de markt voor affective computing over drie jaar (in 2020) 42 miljard dollar zal omvatten. De belangrijkste toepassingsgebieden: retail, zorg, overheid en defensie; met name op die plaatsen waar informatie moet worden verzameld, waar wordt samengewerkt en waar informatie wordt verstrekt. Tien jaar geleden verschenen de eerste houterige chatbots op het toneel. Virtuele assistenten of chatbots zijn tegenwoordig in staat om op basis van tekst het sentiment in een dialoog met een mens te beoordelen.

Kunstmatige emotionele intelligentie

kunstmatige emotionele intelligentieOp dit moment wordt op Carnegie Mellon University hard gewerkt aan de eerste ‘chatbot met sociaal inzicht’, genaamd SARA. Die naam staat voor Socially-Aware Robot Assistant en SARA is in staat om sociaal gedrag te herkennen in conversaties. SARA verwerkt realtime visuele informatie (lichaamstaal, gelaatsuitdrukking), intonatie, volume en snelheid van de spraak en verbale informatie (spraakherkenning) van de gesprekspartner. Bij het bepalen van de respons wordt er zowel rationeel als sociaal geanalyseerd. Wat is de beste oplossing voor het vraagstuk dat is voorgelegd? En wat is de beste manier om de respons te geven: met welke gelaatsuitdrukking, lichaamstaal en stemgebruik? Daarna wordt de respons via een Natural Language Generation module uitgesproken op een manier die aansluit bij de gesprekspartner.

Software is eating the world

Gaan mensen accepteren dat een robot invoelend gedrag vertoont? De attitude ten aanzien van nieuwe technologie kan snel veranderen zoals dit beroemde filmpje uit 1999 laat zien. De acceptatie van ‘kunstmatige intelligentie met gevoel’ zal afhangen van kwaliteit, geloofwaardigheid en vertrouwen. We zijn de afgelopen jaren al een heel eind opgeschoven van mensen naar machines: denk aan bankzaken (van kasmedewerker tot mobiele app), informatie verzamelen (van bibliothecaris of encyclopedie-redacteur naar internet) en het nemen van aankoopbeslissingen (van letterlijke mond-tot-mondreclame naar klantbeoordeling op een webpagina). We vertrouwen op gegevens op ons scherm in plaats van op het oordeel of vermogen van een levend medemens. En in plaats van ervaringen met echte mensen te delen, delen we data via systemen. Software is eating the world.

Pikant detail is dat de conversaties die nu worden gevoerd in customer service het ideale leermateriaal zijn voor de invoelende robot. Veel van deze gesprekken worden digitaal vastgelegd, inclusief schermhandelingen. Daarnaast wordt vaak aan klanten gevraagd een oordeel te geven over de interactie in de vorm van een klanttevredenheidscijfer. Op deze manier lijken contactcentermedewerkers mee te werken aan de automatisering van hun eigen werk. Wellicht geldt dat straks voor meer beroepen.

De toekomst van facilitaire contactcenters

facilitaire contactcenters
parking bot

Bedrijven maken zich op voor een nieuwe golf aan automatisering. De inzet van virtual reality, kunstmatige intelligentie en chatbots staan daarbij bovenaan de verlanglijstjes, aldus een nieuwsbericht van Oracle. Ook klantcontact gaat de komende tijd opnieuw ingrijpend veranderen. De rol van de live agent wordt niet minder belangrijk, in tegendeel. Maar het volume aan live contacten zal afnemen. Dat zet de businesscase voor outsourcing van klantcontact naar facilitaire contactcenters – de dienstverleners waar bedrijven hun klantcontact kunnen onderbrengen – in een ander perspectief.

Volgens klantcontactexpert Hans Bach ligt de belangrijkste uitdaging van facilitaire contactcenters in het focussen op toegevoegde waarde. Om hun onderscheidend vermogen op peil te houden zullen ze meer moeten doen dan het leveren van betere operationele resultaten. Ook het leveren van innovatieve kracht beschouwt Bach als opdracht. In een analyse in CustomerFirst schrijft hij bovendien dat medewerkers binnen nu en vijf jaar ‘andere dingen gaan doen’ – zoals het goedkeuren van beslissingen die genomen zijn door geautomatiseerde systemen. ICT wordt door Bach vooral gezien als middel ter ondersteuning van agents – bijvoorbeeld in de vorm van realtime monitoring en gespreksanalyse. Hij relativeert dan ook de opkomst van automatisering van klantcontact. Het argument: kunstmatige intelligentie is nog niet in staat is de vraag achter de vraag (de intentie) van de klant te begrijpen.

Hij gaat echter voorbij aan het feit dat veel interacties weldegelijk verder te automatiseren zijn. Met die doorlopende automatisering als een van de leidende trends verwacht ik dat de komende drie jaar zichtbaar gaat worden dat het verdienmodel van facilitairen begint af te brokkelen. Er zijn verschillende trends die duidelijk maken wat de effecten zijn van de digitalisering van interacties op outsourcing.

 

Technologieleveranciers krijgen andere rol

Om te beginnen een uitstapje naar de IT-industrie, waar outsourcing zo ongeveer is uitgevonden. Tot enkele jaren geleden zetten de grote IT-dienstverleners volop in op langdurige en grootschalige contracten met waarden oplopend tot honderden miljoenen dollars. Klassieke outsourcing kwam neer op leveren van diensten voor het beheer van software, werkplekken of infrastructuur, gebaseerd op schaalvoordeel en standaardisatie: ‘your mess for less’. In veel gevallen werd daarbij personeel van de opdrachtgever of vorige dienstverlener overgenomen.

Die tijden zijn echter aan het veranderen. De grote IT-dienstverleners staan voor een grote transformatie. Steeds meer onderdelen van het klassieke portfolio van IT-dienstverleners worden geautomatiseerd: de automatisering van IT. IT-outsourcingcontracten worden steeds korter, meer flexibel en komen vaker in handen van kleinere niche-spelers. Het is niet ondenkbaar dat IBM of Accenture (nu beiden nog circa 375.000 medewerkers) over een paar jaar in omvang gehalveerd zijn. Deze bedrijven zijn dan ook hard bezig met zowel reorganiseren als het opbouwen van nieuwe business, bijvoorbeeld in kunstmatige intelligentie en customer experience.

 

Klantinteractie blijft vatbaar voor automatisering

Die doorlopende automatisering is ook zichtbaar in klantcontact. In de jaren negentig viel de rol van de telefoniste weg door de opkomst van automatische routering (ACD, IVR); daarna kwam online selfservice op, gevolgd door e-commerce. Met de inzet van bots en spraakherkenning wordt opnieuw een deel van de interactie tussen klant en bedrijf geautomatiseerd, wat leidt tot inzet van minder mensen.

Vergelijkbare veranderingen zijn zichtbaar in de retail, waar nu vooral online modellen voor de groei zorgen. In combinatie met fintech ontstaan toepassingen voor frictieloos betalen (geen kassa meer nodig). De digitalisering van klantcontact en transacties schuift steeds meer op in de richting van mobiele, geïntegreerde app-platforms (Facebook Messenger, LINE en WeChat). Binnen WeChat draaien al meer dan 500 bots voor bestellingen, reserveringen, transacties, communicatie, nieuwsvoorziening en entertainment.

facilitaire contactcenters

Kostenbesparing is een van de drivers van verdere digitalisering, maar ook om een andere reden zijn bedrijven gebaat bij uitbreiding van digitale interacties. Ze zijn relatief gemakkelijk te sturen en leveren data op. Dat geldt ook voor live interactie, maar de slag van spraak naar bruikbare business intelligence is voorlopig nog een stuk ingewikkelder.

 

Effecten digitalisering al jaren zichtbaar op arbeidsmarkt

Dat digitalisering in BtC-dienstverlening doorzet, is ook te zien aan de ontwikkeling van werkgelegenheid. In de financiële sector zouden tussen 2014 en 2019 15.000 banen verdwijnen, aldus een analyse van UWV uit 2014. We kennen inmiddels de krantenkoppen over ontslagen bij ABN AMRO en ING. In april 2016 concludeerde werving- en selectiebureau Hays dat van de professionals in de financiële sector 60 procent verwacht dat de werkgelegenheid in de sector verder afneemt. 40 procent van hen denkt zelfs dat in 2030 zijn of haar functie niet meer bestaat. Cloudsoftware en kunstmatige intelligentie worden door 80 procent van de financiële professionals als bedreiging voor de werkgelegenheid gezien.

Ook de reissector is een goed voorbeeld van digitalisering. Tussen 2007 en 2013 daalde het aantal banen in de reissector van 18.740 tot 14.100. Sinds de laatste twee jaar stijgt het aantal banen weer, maar is het accent verschoven naar online marketeers en e-commerce managers. Kortom: het draait ook daar niet om menselijke customer service, maar om IT.

 

Gedrag van consumenten

De tweede trend gaat over het gedrag van consumenten. Volgens KIRC is (wereldwijd) het volume aan live contacten sinds 2014 afgenomen, ten gunste van de volumes aan online selfservice: beide volumes zijn nu even groot. Het gebruik van e-mail (waar medewerkers de afwikkeling verzorgen) daalt geleidelijk; het aantal bedrijven dat het e-mailkanaal ‘sluit’ neemt toe, terwijl app care groeit. 2016 was het jaar waarin (in de VS) het aantal Millennials het aantal babyboomers oversteeg. In ons land ligt de piek van de vergrijzing in 2035; halverwege de jaren 20 van deze eeuw zal het relatieve aandeel babyboomers voor het eerst gaan dalen. Hoewel de kanaalvoorkeuren van consumenten uiteindelijk vooral afhangen van de situatie (en in mindere mate van de leeftijd), zullen jongere generaties zoals Millennials en generatie Z wel steeds zwaarder hun stempel drukken op online interactie.

Ondertussen neemt het aantal mobiele abonnementen toe, net als het aantal interacties. In 2017 zullen er 8,3 biljoen mobiele messages worden verstuurd, waarvan 90 procent gelezen kan worden in minder dan 3 minuten. De helft van de consumenten verwacht tegenwoordig dat bedrijven 24×7 klaar moeten staan om vragen van klanten te beantwoorden. Meer dan de helft (bijna 64 procent) vindt daarbij dat bedrijven bereikbaar zouden moeten zijn via messaging apps. Die tekstgebaseerde online communicatie is het perfecte vertrekpunt voor automatisering.

 

Kosten van klantinteractie

De mogelijkheid om onderscheidend vermogen te realiseren op prijs of product neemt al jaren af. In sectoren als energie, telecom en e-commerce hebben enorme consolidatieslagen plaatsgevonden. Als spelers zoals Amazon of Alibaba de Europese markt voluit gaan bewerken, neemt de concurrentie in e-commerce nog verder toe. Bedrijven kunnen dus vooral het verschil maken in toegevoegde waarde zoals snelheid en kwaliteit van customer service. Omdat in customer service de complexiteit van het live contact doorlopend stijgt (en daarmee de duur en de kosten), blijft de noodzaak om verdere kostenbesparingen door te voeren belangrijk. Dat wat geautomatiseerd kan worden, zal geautomatiseerd worden.

Na IVR’s, online selfservice en e-commerce websites zijn bedrijven nu bezig met de volgende stap in automatisering. De Zweedse bank Swedbank is er in geslaagd 80 procent van alle standaardvragen af te handelen via chatbot Nina, goed voor 30.000 contacten per maand. Omgerekend is dat – afhankelijk van de gemiddelde gespreksduur – 20 tot 30 FTE op maandbasis. TacoBot van Taco Bell is in staat bestellingen volledig zelfstandig af te handelen.

 

Wanneer komt de omslag in facilitair klantcontact?

De totale Nederlandse markt omvat nu ruwweg 87.000 werkplekken; het aantal werkzame personen in de sector is ongeveer het dubbele. Uit het rapport van Hans Bach komt naar voren dat de facilitaire markt nog groeit van 642 miljoen euro in 2016 naar 691 miljoen euro in 2017. De grote vraag is wanneer die groei gaat omslaan als gevolg van veranderende keuzes van hun opdrachtgevers, waarbij technologie – naast medewerkers – een tweede ‘productiefactor’ wordt bij het afwikkelen van contacten. Dat sommige spelers anticiperen, blijkt uit het partnership dat Webhelp recent aanging met Recast.AI.

Mijn indruk is dat alle seinen op groen staan: de consument heeft geen bezwaren tegen chatbots, de technologie is beschikbaar. Het volume aan live contacten zal afnemen, en het verwerken van minder calls met een hogere complexiteit vraagt om een hoger opleidingsniveau en meer training. Dat staat haaks op het businessmodel van facilitairen – schaalvoordeel gebaseerd op standaardisatie. Tel daarbij op het streven van bedrijven naar innovatie, versnelling, customer centricity en een betere aansluiting op interne IT- en dataprocessen. Al deze ontwikkelingen zullen elkaar de komende tijd gaan versterken. De snelheid waarmee bedrijven op deze ontwikkelingen inspelen, zal bepalend zijn voor de toekomst van de klassieke, grootschalige facilitaire contactcenters. Dat ze in omvang zullen afnemen en door een transformatie heen moeten, staat vast.

Een goed gesprek van mens tot robot

dsc00040We praten wat af in ons leven. Een van de belangrijkste (en ook meest ingewikkelde) dingen die een mens kan, is communiceren. We hebben hiervoor de beschikking over sociale vaardigheden, verbale uitdrukkingsvaardigheid (woordenschat, grammaticale kennis) en invoelend vermogen (om taal van een ander, maar ook de non-verbale communicatie te begrijpen). We herkennen ook gezichten, zodat we iemand als persoon kunnen plaatsen: onze leidinggevende, ons kind, onze vrienden. Er is voor mensen weinig reden om die communicatie te automatiseren, al zijn er ouders die hun kinderen toevertrouwen aan ‘connected‘ speelgoed waarmee ze interactie kunnen aangaan.

Voor bedrijven ligt dat anders. Zij automatiseren graag zo een zo groot mogelijk deel van de interactie met klanten. Verschillende wetenschappers en softwareontwikkelaars zijn met bezig om de afzonderlijke bouwstenen van menselijke communicatie te vatten in algoritmen en geautomatiseerde systemen. Wat heb je nodig om een goed gesprek te voeren met een computer of robot?

Spraakherkenning

Allereerst moet de computer menselijke, natuurlijke taal kunnen herkennen. Deze technologie is inmiddels goed doorontwikkeld. Computers kunnen gesproken tekst vrijwel net zo goed omzetten in geschreven tekst als professionele transcribeerders. Dat spraakherkenning goed werkt, kan je testen met Siri of Google’s assistent op je eigen smartphone of de demo van Google’s Deepmind. De ‘last mile’ is echter nog lastig. Het gaat daarbij om het begrijpen van context, maar ook om het correct plaatsen van punten en komma’s. Spraakherkenning zou wellicht verbeterd kunnen worden als het gecombineerd wordt met systemen die liplezen.

Liplezen is voor mensen een flinke uitdaging. Een geoefende professional komt niet verder dan 60 procent correcte herkenning. LipNet, een systeem ontwikkeld door wetenschappers van Oxford University, haalt 93 procent accuratesse. De ontwikkelaars zien onder andere mogelijkheden op het vlak van ‘stil dicteren’, maar stellen ook dat spraakherkenning er verder mee verbeterd kan worden. LipNet werd getraind met bijna 29.000 video’s, gecombineerd met de juiste tekst. Het algoritme kan analyseren tot op losse letters. LipNet werd onder meer gefinancierd door DeepMind, de kunstmatige intelligentie-tak van Google.

Met wie spreek ik? Gezichtsherkenning

Gezichtsherkenning bestaat al geruime tijd. Het wordt bijvoorbeeld toegepast bij de douane van Schiphol voor identificatiedoeleinden. In de selfserviceomgeving van de luchthaven wordt nu al de scan van het paspoort vergeleken met het portretbeeld van de passagier, maar Schiphol wil nog een stap verder gaan en gezichtsherkenning uitbreiden over het gehele traject van vertrekhal tot in het vliegtuig.

Het herkennen van emoties
Robot Han van Hanson Robotics
Robot Han van Hanson Robotics

Emoties spelen een belangrijke rol in beslisprocessen van mensen. Interessant dus voor bedrijven die iets willen verkopen. Dat begint al bij marketing, wat probeert in te spelen op ons gevoel. Bij het beslissen over een aankoop worden moties en rationele afwegingen tegen elkaar afgezet. Wanneer een systeem de emotie van een klant kan herkennen, ben je al halverwege de portemonnee van die klant. In 2012 werden de eerste veelbelovende resultaten geboekt met een algoritme waarmee de computer de vorm van de mond van een computergebruiker kan koppelen aan de emoties (geluk, verdriet, angst, woede, walging en verbazing) die de gebruiker voelt. Het algoritme was zelflerend: het werd beter naarmate er meer voorbeelden werden aangereikt.

Volgens de analisten van MarketsandMarkets wordt er ook nu nog steeds veel geld in technologie voor emotiedetectie gepompt: 22 miljard dollar tot 2020. Bedrijven doen hun best om systemen te ontwikkelen die emoties kunnen aflezen van gezichten. Emotient werd begin dit jaar overgenomen door Apple – het zou zo maar kunnen dat je iPhone over een tijdje naar je gezicht kijkt en dat Siri bij het beantwoorden van je vragen rekening houdt met je gemoedstoestand.

Microsoft biedt een emotie-API aan, waarbij de API boosheid, zorgen, afgrijzen, angst, blijdschap, verdriet en verrassing gewogen kan beoordelen. Deze API kan je zelf testen door een foto te uploaden. Het idee achter de API is dat de uitkomst (de waarschijnlijkheid dat een bepaalde emotie aan de orde is) als input voor een ander systeem kan worden gebruikt. Er zijn nog tientallen andere oplossingen ontwikkeld voor emotie-detectie. Een daarvan is Affectiva, een oplossing die aan de hand van camerabeelden van oogopslag en wenkbrauwen op basis van machine learning real time emoties kan benoemen. De software wordt onder andere gebruikt door game developers en filmmakers om de beleving van de gebruiker verder te personaliseren.

Informatie uit emoties kan ook via spraakherkenning worden geanalyseerd. Spraaktechnologie kan behoorlijk goed overweg met de vier basis-emoties (boos, blij, bang en bedroefd) door te kijken naar een groot aantal eigenschappen van de spraak, waaronder toonhoogte, intonatie, tempo en volume.

Het kunnen vertonen van empathisch gedrag is met al deze technologie nog niet gerealiseerd. Daarvoor is empathie te complex: een systeem kan bijvoorbeeld nog geen onderscheid maken tussen een grapje, sarcasme of cynisme. Empathie is voor een groot deel ook cultureel bepaald. Het staat onder invloed van religie, land en taal.

Impliciete kennis en begrip van de context

Waag het niet een persoonlijke vraag aan Siri of een andere assistent te stellen – ‘Wat vind je dat mij beter staat, een hoed of een pet?’ of ‘Waarom ben ik altijd te laat voor mijn afspraken?’. De virtuele assistenten kunnen alleen overweg met de informatie die door de ontwikkelaars wordt aangeboden of ontsloten. Toen Watson de kennisquiz Jeopardy won, beschikte dat systeem over een extreem uitgebreide dataset. Zo’n dataset blijft echter expliciete kennis (denk aan het internet of een gesloten database zoals alle medisch-wetenschappelijke literatuur) die bovendien actueel moet worden gehouden.

Voor zinvolle persoonlijke interacties is ook impliciete kennis nodig. Die categorie kennis zit alleen in hoofden van mensen. Ook hebben kunstmatige intelligentie-systemen veel moeite met ambigue informatie. Het voorbeeld dat Arjan van Hessen aangeeft (Jan ziet Marie met een verrekijker) is een mooi voorbeeld. Een systeem zal ambigue zinnen moeten herkennen en in staat moeten zijn de juiste contextuele informatie te vinden (of op te vragen aan de gebruiker).

De sprekende computer: text-to-speech

Tot slot: een computer die je verbaal wilt laten communiceren met mensen, zal zelf ook tekst naar spraak moeten kunnen omzetten. Ook deze spraaksynthese-technologie is enorm verbeterd. Waar voorheen met blokjes spraak werd gewerkt (waardoor een sprekende computer nogal kunstmatig en houterig over kwam) worden nu veel kleinere eenheden geanalyseerd, gecodeerd en gebruikt om spraak te produceren.

Op weg naar de uncanny valley

De oplossing die alle bovenstaande technologieën weet te combineren in bijvoorbeeld een robot met een levensecht uiterlijk, een goede motoriek en realistische gelaatsuitdrukkingen, komt dicht in de buurt van Westworld. Het is niet ondenkbaar dat over een paar jaar het onderscheid tussen mensen en robots – bijvoorbeeld bij toepassing van videoconversaties – op het eerste oog moeilijk te maken is. Naarmate het verschil tussen robots en mensen kleiner wordt, komt de ‘uncanny valley‘ steeds meer op de voorgrond: een afkeer van robots, omdat ze te veel menselijke trekjes krijgen.

Een robot waar je wat aan hebt

cozmo
Cozmo

Alexa, Siri, Cortana: deze virtuele agents lijken misschien veelzijdiger dan een one trick pony zoals een TomTom, maar echt slim zijn ze niet. Bovendien schuifelen ze niet gezellig door je huis, maar wonen ze in je smartphone. Een echte robot moet echt luisteren, echte vragen beantwoorden en echte klusjes doen. Handen uit de mouwen!

zenbo
Zenbo

Er wordt hard gewerkt aan robots waarbij een intelligent brein is verpakt in een aantrekkelijke vorm. Jibo bevindt zich onderaan in de rangorde en is wat Wired noemt een soort bloemenvaas. Het apparaat kost circa 750 dollar en is in staat een ‘persoonlijkheid te ontwikkelen en verschillende emoties uit te drukken.’ Jibo maakt gebruik van – hoe kan het ook anders – kunstmatige intelligentie, gezichtsherkenning en spraakherkenning. De bedenkers van Cozmo zijn qua intelligentie en design een stap verder gegaan. Cozmo lijkt een beetje op een figuurtje uit de animatiefilm Cars: het is een autootje met een gezicht. De makers van Cozmo (een deel van het ontwikkelteam komt bij Pixar vandaan) kozen nadrukkelijk voor een robot met persoonlijkheid. Cozmo is speels en nieuwsgierig en gaat graag de interactie aan. Daarvoor is wel een smartphone nodig, want hoewel Cozmo beschikt over allerlei sensoren, zit de denkkracht in een smartphone app. Die app stuurt informatie terug naar Cozmo, die vervolgens in actie komt. Dat maakt Cozmo relatief slim, want gemakkelijk van upgrades te voorzien en te debuggen. Ook Zenbo ziet er nog een beetje speelgoedachtig uit, maar is bedoeld voor het meer serieuze werk en heeft volgens producent Asus de potentie om een volwaardig gezinslid te worden. Zenbo heeft geen ledematen, maar wel een stel wielen net als Cozmo en kan je dus niet volgen als je de trap op of af gaat.

De robot als werkpaard

Jibo, Cozmo en Zenbo zijn meer kenniswerkers dan klusjesmannen. Ze hebben alle drie het vermogen een gelaatsuitdrukking te laten zien (op een scherm weliswaar) en gaan daarmee een stap verder dan Nao. Zitten we te wachten op meewarig kijkende robots? Of hebben we liever een werkpaard zonder sociale vaardigheden? Ook Nao, hoewel voorzien van ledematen, kan door zijn bescheiden omvang nauwelijks fysieke taken uitvoeren. Dan is Asimo van Honda de eerstvolgende kanshebber: die kan de trap oplopen en een kopje koffie uitserveren, maar na een uur is zijn accu leeg. Voor zijn aankoopprijs van 2,5 miljoen dollar kan je ook een aardige hofhouding inhuren, maar Asimo vraagt geen loon.
Voor de echte werkpaarden moet je bij Boston Dynamics zijn. Dit bedrijf ontwikkelt in hoog tempo robots die tot steeds meer in staat zijn – een van de redenen waarom eigenaar Google er vanaf wil. Waren de eerste werkpaarden van het bedrijf lompe muilezels, met SpotMini hebben de techneuten een soort hond ontwikkeld die niet blaft, maar wel verschillende klusjes kan opknappen. SpotMini heeft ook een grotere broer die met je mee kan rennen tijdens het joggen. Maar echt sympathiek zien ze er niet uit. Dan doet Kawada het beter met de HRP-4, al verraadt deze naam dat het niet om een model gaat waarmee het hart van de consument moet worden gewonnen.

De toekomst van robots

Elon Musk begrijpt als geen ander dat technologie niet onze vijand moet worden. Met name bij robots kan het uncanny valley verschijnsel optreden: als robots te veel op mensen gaan lijken, worden ze angstaanjagend. Musk sprak eerder zijn zorgen uit over de groeiende macht van kunstmatige intelligentie: als die sterker wordt dan de menselijke intelligentie, hebben wij het niet meer voor het zeggen. Hij heeft zich daarom ten doel gesteld een huishoudrobot te ontwikkelen die je met spraak kunt aansturen en die de interactie aangaat als iets niet duidelijk is. Met andere woorden, Musk wil de intelligentie combineren met fysieke mogelijkheden.
Juist door het maken van (nieuwe) combinaties ontstaat innovatie. Robots bevolken al decennia onze fabrieken en slimme systemen bepalen wat we op het internet zien. Er liggen nog veel combinaties in het verschiet als verschillende facetten van robots verbeteren.

1. Energie

Robots zullen hun fysieke mogelijkheden aanzienlijk vergroten als ze efficiënter omgaan met energie. Bijvoorbeeld door energie vooral te gebruiken voor fysieke handelingen en rekenkracht uit de cloud te halen. Ook de energiebronnen zelf zullen steeds efficiënter worden. Beide ontwikkelingen gecombineerd vergroten – net als bij elektrische auto’s – de actieradius.

2. Intelligentie

Voor ‘intelligentie’ is rekenkracht een vereiste: kennis kan van het web worden geplukt of uit een database zoals Watson doet. Voor effectieve interactie en succesvolle integratie in de samenleving met mensen is het kunnen omgaan met natuurlijke taal en het kunnen duiden van emoties een pluspunt, iets waaraan IBM via Watson mee bezig is. Sony zou werken aan een robot die zelfs emotionele banden zou kunnen vormen. Daarnaast moeten algoritmen en analytische software er voor zorgen dat systemen sneller grote hoeveelheden informatie kunnen verwerken: bijvoorbeeld de input van verschillende sensoren. Darpas, de technologietak van het Amerikaanse leger, werkt aan een visueel waarnemingssysteem waarmee om voorwerpen heen gekeken kan worden. Dat systeem moet wel op een drone of robot worden bevestigd, maar het beeld zelf kan weergegeven worden in een VR-bril.

3. Motoriek

De bewegingsmogelijkheden van een robot worden in de robotica aangeduid met degrees of freedom (DOF). Een DOF is een beweging over een as (als in een eenvoudig gewricht, bijvoorbeeld omhoog/omlaag). Menselijke robots beschikken over zes DOF per arm, vijf tot zes DOF per been, en vaak een aantal DOF in torso en nek, totaal dertig DOF of meer. Robots die draaibare polsen en apart beweegbare vingers hebben, komen uit op hoge DOF-scores. Hoge DOF-scores zijn niet altijd nodig om bepaalde taken goed uit te kunnen voeren. De 3D builder, ontwikkeld door BAM en Universe Architecture kan vormvrij printen, maar heeft voldoende aan 6 DOF. Een humanoide robot die in huis moet gaan helpen, is wel gebaat bij ‘fijne motoriek’, inclusief tastzin

4. Collectieve toepassingen

Robots kunnen ook beter worden als de combinatie zoeken in het collectief, ofwel opereren in swarms of zwermen. Het laten samenwerken van verschillende gedeeltelijk autonome systemen is al toegepast bij platooning – het in een groepsverband laten rijden van vrachtauto’s. De sensoren van het eerste voertuig helpen de andere voertuigen in de rij; het collectief zorgt voor minder brandstofverbruik. De onderdelen van de groep kunnen ook zelfstandig functioneren, maar verliezen daarmee een deel van hun informatie.

5. Prijs

makerarmit-1Voor industriële toepassingen is de inzet van robots een business case. Om robots een plek in ons dagelijks leven te geven als assistent of als speelgoed moet de prijs binnen handbereik van consumenten liggen. De kosten van 3D printers zijn al enorm gedaald en steeds vaker wordt daarbij gebruik gemaakt van robottechnologie – zoals bij de Makerarm, een robotarm die je op de keukentafel kunt bevestigen en die nog geen 2.000 dollar kost.

Banenverlies

Volgens onderzoeksbureau Forrester kan de komende tien jaar 16 procent van de Amerikaanse banen overgenomen worden door een robot of een kunstmatig intelligent systeem. Vooral administratief personeel kan zich het beste maar laten omscholen tot robotmonteur. Want hoe meer degrees of freedom, hoe sneller er gewrichtsklachten ontstaan. Toch is het moeilijk te bepalen of deze inschatting reëel is. Fysieke robots worden nu al volop ingezet in verschillende productieprocessen: automotive, levensmiddelen. Wanneer robots werkelijk slimmer worden, kunnen productieprocessen meer ‘agile’ worden: vaker en sneller veranderen, waarmee maatwerk beter mogelijk wordt. Ook hier leiden combinaties tot efficiëntere ketens: robots kunnen van elkaar leren, fouten herstellen en taken verdelen. Daarmee komen ze eerder in de buurt van een kleine ambachtelijke werkplaats dan een grootschalige gestandaardiseerde productieomgeving. Het belangrijkste verschil met het oude concept ‘ambacht’ is dat vernieuwing en verandering in het DNA van de robot zitten.

Praten met slimme spullen

Wanneer we zaken doen met bedrijven, nemen systemen een steeds groter deel van de interactie voor hun rekening. Met het Internet of Things worden daar ‘de dingen’ aan toegevoegd. Gaan slimme spullen naar ons luisteren?

Mijn koelkast geeft een piepje als de deur te lang open staat. Maar hij heeft geen idee of ik te lang sta te turen (wat moet er in huis komen?) of dat ik de deur niet goed sluit. Het cliché van de connected koelkast is dat hij zelf proviand bestelt tegen de tijd dat voorraden dreigen op te raken. Maar wie zet de spullen in de koelkast? En houdt de koelkast ook rekening met mijn agenda, namelijk of ik met vakantie ga, of dat ik komende week bezoek krijg dat blijft eten? De afgelopen decennia heeft de koelkast zich niet echt ontwikkeld. Hij luistert niet naar mensen en hij begrijpt ze evenmin.

Slimme spullen zijn er in drie smaken.

Systemen gericht op transacties, zonder intelligentie. Denk aan de geldautomaat, de parkeerautomaat, de OV-chiplezer. Ze maken geen verbinding met het web met het doel daar informatie te selecteren en deze vervolgens aan te bieden. Ze doen dus ook niets met actuele informatie. De OV-chipkaartlezer verwerkt je check-in ook als er door een staking geen treinen rijden. Ze gaan geen interactie aan.

Software die vragen kan afwikkelen met behulp van het internet. De vraag is te zien als een transactie (bel Piet, bestel een pizza, wat is het weer in Amsterdam): de beantwoording komt neer op het combineren van gegevens. Het meest armoedige voorbeeld is de assistent op je smartphone (Siri, Cortana, Google Now, Hound) die je als antwoord op je vraag verwijst naar een website van Google, of naar een contact uit je contactenlijst. De meest bekende virtuele assistenten zijn Siri en GoogleNow. Siri (Apple) luistert sinds een jaar ook naar de Nederlandse taal, maar reageert alleen op de uitspraak “Hey Siri” als het Apple-apparaat aan het opladen is of als je de ‘home’-knop indrukt. Google Now reageert altijd op het commando “OK Google”. Beide assistenten kunnen nog weinig regelen, ze zijn vooral goed in opzoeken. Bij wat ingewikkelder zoekopdrachten gaat spreken een stuk sneller dan intikken; dat lijkt veelbelovend voor online shopping.

Spraak is de meest natuurlijke vorm van communiceren; praten is echter zowel voor mensen als systemen een stuk gemakkelijker dan luisteren. De personal assistent Amazon Echo is een ‘slimme’ luidspreker die onderdak biedt aan Alexa, een assistent die met je meeluistert. Alexa, die verder geen gezicht heeft, gaat een stuk verder dan de Dash button van Amazon, waarbij je via een druk op een knop op je wasmachine wasmiddel kan aankopen – een fysieke shortcut naar de juiste plek in een webshop. Alexa gaat de interactie aan met informatie en indien nodig met de omgeving: ze somt de headlines voor je op, dimt het licht als je daarom vraagt, zet een timer als je een pizza in de oven zet. Maar ze leert niet van je gewoonten: eigen patronen (elke dag de headlines bij je ontbijt) zal je moeten herhalen of programmeren. Ook andere slimme systemen proberen aan te haken op (onderdelen van) het internet of things. iOS zet in op Home Kit, waarbij verschillende soorten hardware en software samenwerken. Zo zijn er verschillende ecosystemen en daarbovenop bouwen ontwikkelaars apps die platformen koppelen (zoals IFTTT).

 

siri askspohie googlenow ameliacortana

Van links naar rechts: Siri, Sophie, Ask Google, Amelia en Cortana.

Software die proactief tegen jou praat en daarbij alles uit jouw leven in de communicatie betrekt. De smartphone is hiervoor uiteraard de beste basis, want die weet meer van je dan je partner. De smartphone heeft informatie over waar je op welk moment bent – en in veel gevallen ook wat je doet, zoals met wie je communiceert en waarover – en heeft inzicht in je data- en softwaregebruik. Wanneer je smartphone actief naar jou en je omgeving zou luisteren en proactief zou kunnen interacteren, dan ontstaan mogelijkheden die richting uncanny valley gaan. Je smartphone zou je kunnen waarschuwen bij te grote uitgaven, zou je wijzen op interessante en relevante aanbiedingen van winkels waar je fysiek langs loopt, zou al je gesprekken kunnen volgen en kunnen refereren aan iets wat je een week geleden tegen je partner hebt gezegd: je had je voorgenomen je moeder te bellen, hoe zit dat? Deze software zou uit je aankoopgedrag kunnen afleiden wanneer nieuwe hardware het huis in komt en al vast met instructies of een tutor kunnen komen. Luisterend naar sensoren en RFID-chips zou zo’n systeem kunnen vragen of bepaalde levensmiddelen moeten worden besteld, en het onthouden als je altijd ‘ja’ zegt; maar wel rekening houden met je agenda: staan er nog vakanties gepland? Deze software beperkt zich niet tot communiceren, maar acteert ook en neemt dus zelfstandig beslissingen met financiële en fysieke gevolgen: voor bestellingen (op tijd een bosje bloemen laten bezorgen) of voor het gedrag van voorwerpen (op tijd de verwarming opstoken, omdat duidelijk is dat je onderweg naar huis bent). Net als bij de zelfsturende auto zullen we in complexe situaties rekening moeten houden met fouten of vertragingen in de besluitvorming.

Techneuten hopen de interactie met onze omgeving slimmer te maken door lerend vermogen aan de software toe te voegen. X.ai blijft IMG_0283daarbij op de achtergrond, maar kan wel het beheer van je agenda regelen; met Viv willen de uitvinders van Siri een stap verder gaan en MindMeld wil het mogelijk maken om het internet met spraak te besturen. De ontwikkelaars van ID Avatars hopen samen met IBM’s Watson empathische chatbots te kunnen realiseren; in de appstore kan je AskSophie downloaden en installeren, maar de registratieprocedure belooft niet veel goeds. EasilyDo zoekt naar relevante zaken in je agenda, je e-mail en je social media maar biedt naast enig gemak geen zekerheden.

Er is nog een lange weg te gaan om intelligente conversaties aan te gaan met of namens voorwerpen. Virtuele assistenten zouden hiervoor ‘the man in the middle’ kunnen zijn. Het enthousiasme voor spraakbesturing groeit echter wel. Watson (IBM) en Amelia (IPsoft) zijn nog steeds primair rekenwonders. Ze maken wel nieuwe combinaties van bestaande informatie, maar zullen nooit een fluitconcert voor vogels componeren zonder dat iemand daar de opdracht toe geeft – een kenmerk van creativiteit. Ze zullen bij hun beslissingen ook geen rekening houden met hoe jij of jouw partner zich voelt – een kenmerk van empathie.
Zelfs het omgaan met opdrachten is al een hele uitdaging bij het ontwerpen van lerende systemen. Tay.ai, een geautomatiseerde chatbot van Microsoft, werd na een paar dagen offline gezet omdat gebruikers het digitale wezen hadden getraind op het doen van racistische uitspraken. Lerend vermogen is te ontwikkelen, ook voor kunstmatige systemen. Empathie – gevoel voor de context – is een stuk lastiger.

Nee, het einde van contactcenters is niet in zicht

Als het aan de futuristen ligt, kan je elk jaar een artikel schrijven met als titel ‘het einde van contactcenters’. Zelfs de Economist stelt dat robots op termijn het callcenter overbodig zullen maken. “At best, jobs will be created more slowly in the Philippines and India; at worst they will vanish. And it is likely that nowhere else will be able to talk its way out of poverty as they have done”, aldus het artikel. De Economist verwacht dat door de inzet van technologie de grootschalige werkgelegenheid zal verdwijnen. Klinkt aannemelijk, maar de technofans zien één ding over het hoofd. Het is juist de voortschrijdende technologie zelf die ‘menselijke’ contactcenters onmisbaar maakt.

Veel bedrijven beschouwen klantcontact als kostenpost; meer doen met minder staat vaak hoog op de agenda. Outsourcing van klantcontact levert een kostenvoordeel op: facilitaire dienstverleners kunnen het vaak beter en goedkoper. Nog goedkoper is het om klantcontact te automatiseren. Dat betekent wel dat klanten met al hun vragen en problemen uit de voeten moeten kunnen met geautomatiseerde systemen. Dus dat geautomatiseerde customer service permanent meebeweegt met alle bedrijfsprocessen en producten waar klanten mee te maken hebben.

Die automatisering van customer service staat nog in de kinderschoenen. Tot nu toe zijn we redelijk in staat standaardprocessen te automatiseren. Het elimineren van eenvoudige vragen door middel FAQ’s, chatbots en spraakherkenning is twintig jaar geleden al ingezet. Maar het tempo waarmee nieuwe diensten en producten worden gelanceerd ligt een stuk hoger. Het gros van die nieuwe producten en diensten bevat zelf tot nu toe weinig tot geen enkele intelligentie. Onze modems en routers zijn – als ze vastlopen – nog niet zelf-herstellend. De Tesla checkt niet zelf iStock_000014909942XSmallof de app met laadpalen correcte informatie geeft. Het grootste deel van de organisaties waarmee we zaken doen, heeft geen idee wie we zijn als we bellen – ze volgen ons niet. Als we als klant vastlopen in ‘intelligente’ selfservice, zijn we alsnog afhankelijk van een customer service agent. Die agent heeft vervolgens ons, de klant, nodig om het probleem opgelost te krijgen. Bijvoorbeeld om informatie te geven over variabelen die alleen wij kunnen waarnemen: de context. Denk aan het gedrag van andere onderdelen uit een keten of aan invloeden van buitenaf. Een goed voorbeeld is de zorgketen. Omdat verzekeraar A een administratieve achterstand heeft, kan verzekeraar B de nieuwe overstappende klant nog niet verwerken. In dat geval is de klant de intermediair tussen ‘dom’ product en leverancier. Wil je een geautomatiseerd systeem leren omgaan met de doorlopend veranderende context, dan ben je eigenlijk op zoek naar een systeem dat real time en intelligent met de buitenwereld kan omgaan.

Er is een tweede reden waarom technologie het automatiseren van customer service processen in de weg zit. Bedrijven kunnen voordeel boeken als ze de time-to-market van nieuwe diensten en producten weten te bekorten. Nieuwe diensten worden daarom vaak ‘bovenop’ het bestaande IT-landschap geplakt, zodat ze aanhaken op alleen de noodzakelijke processen. Dat gaat sneller en goedkoper dan steeds het IT-landschap opnieuw uitvinden. Betalen via je smartphone is een flinke stap voorwaarts, maar het achterliggende serviceproces blijft meestal ongewijzigd. Ook al is de smartphone via een app connected met de bank (en dus intelligenter dan bijvoorbeeld een bankpas), als er iets mis gaat, moet je nog steeds contact zoeken met een bankmedewerker. IT-adepten die roepen dat ze dat nu juist willen automatiseren, begrijpen niet dat service-automatisering altijd achterloopt op productontwikkeling. Het is gemakkelijker iets toe te voegen aan de voorkant van een bedrijfsproces dan al het achterliggende te veranderen. Dat stapelen zie je terug in IT: slechts een paar grote bedrijven zijn bezig met het terugdringen van het aantal systemen – het reduceren van legacy. De kosten van het wegwerken van achterstallig onderhoud in IT, aangeduid als IT Debt, werden in 2010 door Gartner geschat op 500 miljard dollar; de verwachting voor 2015 was dat het zou zijn opgelopen tot 1.000 miljard dollar.

supercharger_2Een derde reden is dat innovatie van diensten en producten in veel gevallen precies beperkt blijft tot die diensten en producten. De Tesla is een geweldige auto, maar hij is nog niet in staat het opladen zo te organiseren dat de gebruiker er geen last van heeft. Bij banken is het allemaal nog lastiger: we kunnen bijvoorbeeld niet geautomatiseerd van bank veranderen of een hypotheek- of pensioenproduct overhevelen naar een andere aanbieder. “Dat gebeurt toch weinig?’ hoor ik u zeggen. Ja, hoe zou dat komen? Bij zorgverzekeringen en mobiele abonnementen is veranderen een stuk eenvoudiger. En voor wat betreft dat modem: als het defect is of dreigt te gaan, waarom belt het dan niet zelf een monteur die een vervangend apparaat komt afleveren? Of is dat onwenselijk als het modem in een brandend huis staat? Er liggen dus enorme kansen om hardware en software intelligenter te maken. In de IT is dat proces – de automatisering van de automatisering – al volop aan de gang. Ook het internet of things, met connected voorwerpen, biedt veel mogelijkheden om processen te automatiseren, maar daar waar innovaties leiden tot nieuwe vragen of problemen, stokt dat proces.

Ja, automatisering van eenvoudige interacties zal inderdaad leiden tot krimp in de contactcentersector. Yuri van Geest gaat een stuk verder: hij voorziet een toekomst “waarin goederen niet meer kapot gaan. En als er al een defect is, zullen producten vaker in staat zijn zichzelf te repareren. Zonder dat een klant er hinder van ondervindt.”
In dat voorwaardelijke – steeds vaker – zit ‘m de kneep. Daarbij wordt er vanuit gegaan dat slimme, lerende systemen geen vragen meer oproepen, fouten maken of problemen veroorzaken. En dat systemen goed weten om te gaan met de emotie van klagende, boze klanten die zelfstandig beslissen om jouw bedrijf de rug toe te keren. Of dat systemen zelf hun fouten herstellen, of zelfs voorkomen. Een systeem dat hiermee dagelijks worstelt, hebben we gelukkig al en het heet ‘medewerker’.

Dit blog verscheen eerder op Klantcontact.nl

Volg je connected baby op je smartphone

Alles wordt connected: auto’s, huizen, apparaten, speelgoed. Ook al zijn we zelf als mens ook vrijwel de gehele dag online, niemand zit te wachten op connected humans – bijvoorbeeld via sensoren in ons lichaam. Maar dieren en baby’s gaan dat pad effenen. Eerst met wearables, sensoren en slimme apps. 

starling2starling

De Consumer Electronics Show in Las Vegas (6-9 januari) is het jaarlijkse hoogtepunt voor de gadget freaks en fans. Vorig jaar ging CES vooral over wearables, connected cars, het slimme huis en virtual reality. Gadgets zijn over het algemeen alleen duurzaam succesvol als ze gemakkelijk zijn in het gebruik en een duidelijke toevoegde waarde hebben. Niemand is afhankelijk van een smartwatch, maar inmiddels kan bijna niemand meer zonder navigatie-app. Innovaties hebben ook een hoge adoptiekans als ze appelleren aan onze angsten. Dat is precies waar de Baby Tech Summit – onderdeel van de CES – op aanhaakt. Er worden zelfs awards uitgereikt voor de beste baby tech innovaties.

evenfloAngst en baby’s, dat gaat goed samen, want baby’s zijn kwetsbaar. Uitvinders en fabrikanten doen hun uiterste best om ouders er van te doordringen: zonder technologie stelt u uw kind onnodig bloot aan allerlei gevaren. Niemand wil later het verwijt krijgen dat problemen voorkomen hadden kunnen worden als er maar tijdig was ingegrepen. Bijvoorbeeld door de taalontwikkeling van het kind te monitoren, door de voeding te testen of door een sensor aan het kind te bevestigen die aangeeft dat je kind nog in de auto zit – terwijl jij door een shopping mall zwerft. Amerikaanse ouders worden er fijntjes op gewezen dat er iedere negen dagen een kind door oververhitting overlijdt omdat het per ongeluk is achtergelaten in een auto. De Evenflo SensorSafe geeft een opvallende melding als je op je plaats van bestemming bent gekomen, om je er aan te helpen herinneren dat je kind nog in zijn of haar zitje zit. Een variant op deze sensor is de Buddy Tag, die er voor zorgt dat je zoekgeraakte kind kan worden teruggevonden (‘ideal during outings with kids to amusement parks or shopping malls’). De tag geeft ook een signaal af als je kind in het water is gevallen. Daarnaast heeft de Buddy Tag een ‘Panic Button’ voor het kind zelf.

Starling3Om de groei en ontwikkeling van je kind te bewaken kan je aan de slag met Starling, een sensor die je vastmaakt aan de kleding van je kind. Starling belooft van de opvoeder een betere ouder te maken – en tevens het kind slimmer. De sensor telt het aantal woorden dat het kind dagelijks hoort. Hoe, daarover is Starling niet heel erg duidelijk. De bijbehorende smartphone app komt op basis van de meetcijfers met suggesties om meer interactie met je kind aan te gaan. Zo wordt voorkomen dat ouders meer met zichzelf of hun smartphone bezig zijn dan met hun kleintje. Inderdaad, in Starling zit een tegenstrijdigheid. Dat geldt trouwens voor veel smart tech gericht op het opvoeden van kinderen: voor de ouders is er een app. De app Cognoa gaat een stuk verder en neemt de gehele ontwikkeling van het kind als uitgangspunt. Met Cognoa kunnen ouders voorkomen dat ze te laat om hulp vragen, waardoor stoornissen te laat worden gediagnosticeerd. De app is een virtuele test: ouders beantwoorden een aantal vragen en moeten twee korte video’s uploaden. Op basis van machine learning checkt de app of er ontwikkelingsachterstanden zijn of aanwijzingen voor autisme. De app presenteert een rapport dat ouders kunnen overleggen aan een arts. De sociale component zorgt er voor dat ouders met vergelijkbare vragen contact met elkaar kunnen houden. ‘Peace of mind for great parents’, aldus de app: een echte angst-remmer.

wonderwoofVorig jaar werd op CES het internet of pets (IoP) geïntroduceerd. FitBark, PetPace, Nuzzle en PitPat zijn gps-trackers voor dieren, meestal in de verkoop als ‘smart collars’ voor honden en vorig jaar een succes op CES. WonderWoof stelt je in staat op je smartphone te zien hoe gezond je viervoeter is, maar ook waar de andere hondenvriendjes zich bevinden. Veel van wat je voor dieren kunt maken, kan je ook toepassen op kids. En over het algemeen geldt: monitoren is gemakkelijker dan opvoeden; daarom zijn er veel sensoren en apps die de fysieke activiteit en ontwikkeling van je kind kunnen monitoren.

Sommige apps nemen zelfs het verwisselen van een luier als uitgangspunt om allerlei gegevens te verzamelen. The Smart Changing Pad is een verschoningskussen met ingebouwde draadloze weegschaal en touch screen. Gewicht, het aantal voedingen en het aantal schone luiers zijn genoeg voor de bijbehorende smartphone app om ouders het inzicht te geven of hun kind wel op een goede en gezonde wijze eet en groeit. Ideaal voor ouders die op het werk toezicht willen houden op de fysieke verzorging van hun kind: wordt onze kleine niet vetgemest door de nanny? En voor alle connected baby-tech geldt natuurlijk: wie kijkt er mee met de verzamelde data?

fisher priceFisher Price, ook bekend van gehackt kinderspeelgoed, heeft een connected kinderstoeltje in het assortiment. Stop je kind in het stoeltje en zorg met je smartphone voor verschillende wiegstanden, zestien verschillende muziekjes en geluiden uit de natuur en een mobile die rondjes draait. Vermoedelijk ook een succes bij vaders. En met Nima weten voedselpuristen binnen twee minuten of het eten dat je aan je kind wilt geven, wel of geen gluten bevat. Ook hier is de hardware gekoppeld aan een smartphone app. Tests voor melkeiwit en pinda’s zijn in de maak.

connected cattleDe agrarische sector is al een paar stappen verder en maakt naast smart tags ook gebruik van smart pills. Quantified Ag richt zich met sensoren op het monitoren van de groei van slachtvee; Vital Herd heeft een smart pill ontwikkeld (een zogenaamde insidable) die het hele leven in de maag van een melkkoe blijft en daar informatie afgeeft over temperatuur, maagzuur, hormonen en zuurstofinname. Het zal nog even duren, maar hij komt er aan: de insidable voor je opgroeiende kind. Zodat je zeker weet dat je alles uit je kind haalt wat er in zit.

insidable for kids

Praten met software

Als mensen iets goed kunnen, dan is het praten. Spraak is de meest natuurlijke interface en de mobiel is daarbij een handig hulpmiddel. De smartphone werkt ook goed voor andere communicatievormen; zo beginnen we de dag met het checken van WhatsApp, aldus het Nationaal E-mail Onderzoek 2015. Als we iets willen weten, kunnen we het ook aan onze smartphone vragen, via tekst of spraak. Praten we straks tegen medemensen of tegen technologie?

spraakgestuurdeIn mei van dit jaar maakte Google bekend dat het bedrijf voor het eerst meer zoekopdrachten had verwerkt van mensen die gebruik maken van een mobiel apparaat dan via een ‘vaste’ computer (laptop of desktop). De smartphone dringt steeds dieper door in ons leven. De meeste apps moeten we echter nog besturen met onze vingertoppen. De volgende stap is dat we van touch naar speech gaan – behalve in die situaties waarbij het ongewenst is dat je omgeving mee kan luisteren. Steeds meer apps zullen geïntegreerd worden in, of aangestuurd worden door een spraakgestuurde oplossing.

Gartner, altijd goed voor het aanwijzen van trends, had in 2013 nog redelijk hoge verwachtingen, maar in 2015 belandde ‘natural language question answering’ in de hype cycle in de fase van disillusionment. Toch staat in de top 10 strategische technologietrends voor 2016 Advanced Machine Learning voorop. Dat zou kunnen betekenen dat bestaande virtuele assistenten zoals Siri en Google Voice Search zich in de nabije toekomst verder ontwikkelen dan wat ze nu zijn: open vraag-spraakgestuurde zoekmachines. Siri en Google putten tot nu toe nog uit het internet als statische kennisbank. Beide assistenten maken geen combinaties van informatiebronnen (een belofte van zoekmachine Wolfram Alpha) of geven interpretaties; ze stellen weinig tot geen aanvullende vragen (zodat duidelijk wordt machine learning landscape spraakgestuurdeof je met 4×4 een terreinwagen of een rekensom bedoelt) en ze hebben evenmin oog voor je persoonlijke context (heb ik nog een zonnebril? – omdat je je zonnebril vergeten bent en niet weet of je nog ergens een tweede exemplaar hebt liggen, of omdat je überhaupt niet weet of je nog steeds de gelukkige bezitter bent van een zonnebril). Daarnaast moet spraaksoftware kunnen omgaan met storende factoren bij het verwerken van de spraakinput: omgevingslawaai, een gebrekkige uitspraak, emoties, accenten en dialecten. De speech-to-text-software van marktleider Nuance wordt pas goed bruikbaar als deze getraind is in het herkennen van de stem van de gebruiker. ‘Machine learning’ zit zelf voorlopig nog in de schoolbanken.

Voor optimale interactie met een kennissysteem via spraakherkenning is vooral enorme rekenkracht nodig. Die rekenkracht en de software voor spraakherkenning zelf zitten niet in onze smartphone. De spraakgestuurde assistenten van Google en Apple sturen de spraakopdracht rechtstreeks door naar hun eigen datacenter. Daar wordt de vraag omgezet in een zoekopdracht, die beantwoord wordt met relevante online bronnen: het weerbericht (moet ik een paraplu meenemen) of webpagina’s waar 4×4 in voorkomt (wat is een 4×4?). Siri geeft daarbij commentaar (het weer ziet er goed uit; dit is wat ik heb kunnen vinden over 4×4). Beide machines fungeren als bibliotheekmedewerker: ze hebben geen domeinkennis, maar weten je wel door te verwijzen naar de juiste bron. Als je vraag goed begrepen is tenminste.

Maar wanneer onze spraakopdrachten worden doorgestuurd naar een systeem dat gebouwd is om te leren, komen we een stuk verder. De toekomst ligt in het samenvoegen van taal en menselijke analyse enerzijds en neurosynaptische computerchips anderzijds. Of in normaal Nederlands: als we chips ontwerpen die net zo functioneren als het menselijk brein, dan kunnen systemen op een andere manier omgaan met data – namelijk niet langer beperkt door kracht en snelheid. Dat brengt het tijdperk van ‘intelligence amplification’ dichterbij. Lerende systemen zouden twee zwakheden moeten wegnemen: de kans op het verkeerd begrijpen van een vraag reduceren door controlevragen te stellen; en het loslaten van vooraf geprogrammeerde regels bij het samenstellen van een antwoord. Tot nu toe kunnen systemen alleen zonder vooraf opgestelde regels werken, als ze teruggrijpen op een andere houvast, namelijk kansberekening: ‘op basis van de input is dit naar alle waarschijnlijkheid het juiste antwoord’. Daarbij hebben systemen als voordeel dat ze zich niet laten leiden door ‘snelle eerste indrukken’ – waar professionals nog wel eens last van kunnen hebben. Dat is de kracht van kunstmatige systemen: ze gaan af op feiten, vooraf gedefinieerd door mensen, ze hebben echter geen smaak of opvatting.

Voorlopig moeten we het nog doen met ‘point solutions’. Nicky Hekster, IBM Watson ambassadeur, gaf tijdens Outsourcing Performance Day 2015 een update over Watson. Voorganger Deep Blue bevatte alle mogelijke schaakzetten en -strategieën en kon op basis van rekenkracht winnen van Kasparov, maar opvolger Watson heeft sinds het winnen van een ander spelletje (Jeopardy) enorme stappen gezet. Ook Watson is ooit begonnen als ultrasnelle zoekmachine – met een vaartje van 200 miljoen A4’tjes in een seconde. Dat is een nuttige vaardigheid, omdat mensen slecht zijn in het hergebruiken van beschikbare informatie. Dat speelt bijvoorbeeld in de gezondheidszorg, waar medische vragen beter kunnen worden beantwoord als historische gegevens over medicatie en alle artikelen uit medische leerboeken en tijdschriften worden meegenomen. Artsen die Watson gebruiken, krijgen zo kennis over zaken die ze nog niet wisten. Als Watson-principes gebruikt zouden worden door bedrijven, zouden bijvoorbeeld ook contactcenters er gebruik van kunnen maken om klanten van informatie te voorzien.

De techneuten van IBM hebben Watson in 2014 uitgerust met mogelijkheden op het vlak van creativiteit: onder meer via ChefWatson, waarbij Watson gevoed is met informatie over recepten, voedingswaarden, smaken en smaaksensaties. Met die gegevens is Watson in staat nieuwe, verrassende combinaties te maken die nieuwe smaakpatronen opleveren: denk aan een burrito met chocola, spruitjes met amandelen en zoete aardappels of Tiramisu met blauwe kaas. Dit wordt ook wel aangeduid als computational creativity, maar je zou het ook kunnen beschouwen als het presenteren van een lijstje (berekende) mogelijkheden die we nog niet kenden: het gaat niet om een beoordeling van smaak. Ook bij ChefWatson worden de (nieuwe) mogelijkheden nog steeds begrensd door een database en een set algoritmen. Desondanks heeft Chef-kok Onno Kokmeijer van Ciel Bleu, het sterrenrestaurant van het Amsterdamse Okura hotel, met Watson gewerkt en hij is enthousiast.

spraakgestuurde cognitoysEr is ook een Watson-variant voor kinderen in de maak, onder de nu nog tamelijk technische aanduiding Cognitoys. Kinderen in de basisschoolleeftijd kunnen vanaf november dit jaar een groene dinosaurus aanspreken en vragen stellen: denk aan ‘waarom is de lucht blauw’ of ‘wat is de afstand tot de maan’. De kennis van de dino – uiteraard speciaal afgestemd op kinderen – komt uit de cloud van Watson. Vanaf november in de winkels verkrijgbaar als de Kickstartercampagne goed afloopt. Wanneer Watson goed kan omgaan met het beantwoorden via spraak, komen we in de buurt van intelligence amplification. Technologie is dan geen hulpmiddel, maar een verlengstuk van ons brein geworden. Het probleem dat we niet weten hoe het antwoord tot stand komt (ook van toepassing bij zoekmachine Google) blijft echter onverminderd bestaan: wie heeft bepaald hoe de databases en de algoritmen zijn samengesteld?

 

Big, old brother

contactcenterAls CallcenterWorld, het jaarlijkse contactcenter event in Berlijn, symbool staat voor waar klantcontact over gaat, dan is technologie nog steeds het leidende thema in customer service. Bij vrijwel alle 250 stands op de beursvloer staan een of meer beeldschermen – die hebben de pre-sales mensen nodig om hun producten uit te leggen aan het beursvolk – en ook de cloud is vrijwel overal dominant aanwezig. Naast natuurlijk de obligate hooggehakte dames, die folders uitdelen aan congres- en beursbezoekers.

Klaus Müller contactcenterKlaus Müller, als lid van de Duitse vakbond Verdi (bekend van de stakingen bij Amazon) onderdeel van de Verdi-stand, maakt zich vooral druk over het minimumloon in de Duitse contactcenter-sector. Dat is momenteel wettelijk vastgelegd op 8,50 euro per uur, aldus Müller en dat is wat hem betreft de ondergrens. Dat de cloud nieuwe kansen biedt – zoals ‘Heim Arbeit’ – ziet hij dan ook als iets treurigs: dat vergroot in zijn ogen alleen maar de kans dat mensen thuis weggestopt worden achter hun (eigen) beeldscherm. Begrijpelijk, want eenmaal thuis aan het werk wordt het voor een vakbond lastig om werknemers georganiseerd ofwel lid van de vakbond te houden. Een home based agent zal in de toekomst eerder een zelfstandig ondernemer zijn dan een loonslaaf. Tot zo ver de vooruitgang in Duitsland.

Gevraagd naar de toekomst van het beroep contactcenter medewerker wees vakbondsman Müller op een softwareoplossing genaamd Elsbeth VocalCoach. VocalCoach, ook uit de cloud afkomstig, is het speeltje bij uitstek van de klassieke contactcentermanager, maar de schrik van de contactcenter agent: een volledig geautomatiseerde monitoring oplossing. Dit systeem van IT Sonix analyseert met behulp van spraakherkenning real time gesprekken van agents. Dat gebeurt aan de hand van vooraf ingestelde variabelen: zinsdelen, sleutelwoorden en dialoog-onderdelen. Het systeem kan volgens de leverancier een compleet gesprek beoordelen, maar ook nagaan of bepaalde verplichte zinsdelen zijn gebruikt, of de juiste (en niet de verkeerde) woorden zijn gebruikt en of alle noodzakelijke woorden zijn gebruikt. Het systeem monitort ook het emotie-niveau in het gesprek. Bovendien kan het systeem on the fly aan de agent laten zien dat bepaalde woorden zijn gebruikt, waarop in datzelfde gesprek verdere actie vereist is (zoals een excuus of juist extra uitleg).

Het idee achter de tool is dat de verzamelde informatie de basis vormt voor verdere coaching, aldus Konrad Kunze, de manager speech analytics van IT Sonix. Het bedrijf claimt de eerste te zijn met deze real time monitoring en Kunze komt niet veel verder dan te melden dat het tool onder andere door een grote service provider wordt ingezet. “We proberen het bewust niet als real time monitoring aan te bieden, het product heet niet voor niets vocal coaching”, aldus Kunze. De agents zien het als iets positiefs, een soort checklist: iedere keer als ze een bepaalde term gebruikt hebben, licht er een groen lampje op: “Dat werkt beter dan dat de trainer komt vertellen dat de agent de afgelopen tijd iets honderd maal verkeerd heeft gedaan.”
De leverancier claimt een ROI van 6 maanden en beweert dat de efficiency met 50 procent verhoogd kan worden. De oplossing kan ook worden ingezet om gesprekken te classificeren of om het akkoord op transacties gecontroleerd vast te leggen.

Deze twee extremen – de behoudende vakbondsman en de geautomatiseerde monitoring software – laten zien waar het om gaat in contactcenters. Controle is nog steeds het belangrijkste mechanisme om efficiency te realiseren. Die controle verschuift steeds meer van managers en coaches naar systemen (vandaar ook al die beeldschermen tijdens Callcenter World 2015). De leveranciers claimen allemaal dat met deze IT-kermis de relatie of interactie met de klant beter wordt en dat er meer uit die relatie gehaald kan worden. Om de een of andere reden heb ik echter het gevoel dat met deze technologierace het omgekeerde wordt bereikt: de afstand tussen klant en bedrijf alleen maar groter. Wat mij betreft is de toekomst aan bedrijven die er in slagen om de klant weer aan het stuur te krijgen. Echte service, waarbij technologie direct in dienst staat van de klant. Power to the people!