Praten met slimme spullen

Wanneer we zaken doen met bedrijven, nemen systemen een steeds groter deel van de interactie voor hun rekening. Met het Internet of Things worden daar ‘de dingen’ aan toegevoegd. Gaan slimme spullen naar ons luisteren?

Mijn koelkast geeft een piepje als de deur te lang open staat. Maar hij heeft geen idee of ik te lang sta te turen (wat moet er in huis komen?) of dat ik de deur niet goed sluit. Het cliché van de connected koelkast is dat hij zelf proviand bestelt tegen de tijd dat voorraden dreigen op te raken. Maar wie zet de spullen in de koelkast? En houdt de koelkast ook rekening met mijn agenda, namelijk of ik met vakantie ga, of dat ik komende week bezoek krijg dat blijft eten? De afgelopen decennia heeft de koelkast zich niet echt ontwikkeld. Hij luistert niet naar mensen en hij begrijpt ze evenmin.

Slimme spullen zijn er in drie smaken.

Systemen gericht op transacties, zonder intelligentie. Denk aan de geldautomaat, de parkeerautomaat, de OV-chiplezer. Ze maken geen verbinding met het web met het doel daar informatie te selecteren en deze vervolgens aan te bieden. Ze doen dus ook niets met actuele informatie. De OV-chipkaartlezer verwerkt je check-in ook als er door een staking geen treinen rijden. Ze gaan geen interactie aan.

Software die vragen kan afwikkelen met behulp van het internet. De vraag is te zien als een transactie (bel Piet, bestel een pizza, wat is het weer in Amsterdam): de beantwoording komt neer op het combineren van gegevens. Het meest armoedige voorbeeld is de assistent op je smartphone (Siri, Cortana, Google Now, Hound) die je als antwoord op je vraag verwijst naar een website van Google, of naar een contact uit je contactenlijst. De meest bekende virtuele assistenten zijn Siri en GoogleNow. Siri (Apple) luistert sinds een jaar ook naar de Nederlandse taal, maar reageert alleen op de uitspraak “Hey Siri” als het Apple-apparaat aan het opladen is of als je de ‘home’-knop indrukt. Google Now reageert altijd op het commando “OK Google”. Beide assistenten kunnen nog weinig regelen, ze zijn vooral goed in opzoeken. Bij wat ingewikkelder zoekopdrachten gaat spreken een stuk sneller dan intikken; dat lijkt veelbelovend voor online shopping.

Spraak is de meest natuurlijke vorm van communiceren; praten is echter zowel voor mensen als systemen een stuk gemakkelijker dan luisteren. De personal assistent Amazon Echo is een ‘slimme’ luidspreker die onderdak biedt aan Alexa, een assistent die met je meeluistert. Alexa, die verder geen gezicht heeft, gaat een stuk verder dan de Dash button van Amazon, waarbij je via een druk op een knop op je wasmachine wasmiddel kan aankopen – een fysieke shortcut naar de juiste plek in een webshop. Alexa gaat de interactie aan met informatie en indien nodig met de omgeving: ze somt de headlines voor je op, dimt het licht als je daarom vraagt, zet een timer als je een pizza in de oven zet. Maar ze leert niet van je gewoonten: eigen patronen (elke dag de headlines bij je ontbijt) zal je moeten herhalen of programmeren. Ook andere slimme systemen proberen aan te haken op (onderdelen van) het internet of things. iOS zet in op Home Kit, waarbij verschillende soorten hardware en software samenwerken. Zo zijn er verschillende ecosystemen en daarbovenop bouwen ontwikkelaars apps die platformen koppelen (zoals IFTTT).

 

siri askspohie googlenow ameliacortana

Van links naar rechts: Siri, Sophie, Ask Google, Amelia en Cortana.

Software die proactief tegen jou praat en daarbij alles uit jouw leven in de communicatie betrekt. De smartphone is hiervoor uiteraard de beste basis, want die weet meer van je dan je partner. De smartphone heeft informatie over waar je op welk moment bent – en in veel gevallen ook wat je doet, zoals met wie je communiceert en waarover – en heeft inzicht in je data- en softwaregebruik. Wanneer je smartphone actief naar jou en je omgeving zou luisteren en proactief zou kunnen interacteren, dan ontstaan mogelijkheden die richting uncanny valley gaan. Je smartphone zou je kunnen waarschuwen bij te grote uitgaven, zou je wijzen op interessante en relevante aanbiedingen van winkels waar je fysiek langs loopt, zou al je gesprekken kunnen volgen en kunnen refereren aan iets wat je een week geleden tegen je partner hebt gezegd: je had je voorgenomen je moeder te bellen, hoe zit dat? Deze software zou uit je aankoopgedrag kunnen afleiden wanneer nieuwe hardware het huis in komt en al vast met instructies of een tutor kunnen komen. Luisterend naar sensoren en RFID-chips zou zo’n systeem kunnen vragen of bepaalde levensmiddelen moeten worden besteld, en het onthouden als je altijd ‘ja’ zegt; maar wel rekening houden met je agenda: staan er nog vakanties gepland? Deze software beperkt zich niet tot communiceren, maar acteert ook en neemt dus zelfstandig beslissingen met financiële en fysieke gevolgen: voor bestellingen (op tijd een bosje bloemen laten bezorgen) of voor het gedrag van voorwerpen (op tijd de verwarming opstoken, omdat duidelijk is dat je onderweg naar huis bent). Net als bij de zelfsturende auto zullen we in complexe situaties rekening moeten houden met fouten of vertragingen in de besluitvorming.

Techneuten hopen de interactie met onze omgeving slimmer te maken door lerend vermogen aan de software toe te voegen. X.ai blijft IMG_0283daarbij op de achtergrond, maar kan wel het beheer van je agenda regelen; met Viv willen de uitvinders van Siri een stap verder gaan en MindMeld wil het mogelijk maken om het internet met spraak te besturen. De ontwikkelaars van ID Avatars hopen samen met IBM’s Watson empathische chatbots te kunnen realiseren; in de appstore kan je AskSophie downloaden en installeren, maar de registratieprocedure belooft niet veel goeds. EasilyDo zoekt naar relevante zaken in je agenda, je e-mail en je social media maar biedt naast enig gemak geen zekerheden.

Er is nog een lange weg te gaan om intelligente conversaties aan te gaan met of namens voorwerpen. Virtuele assistenten zouden hiervoor ‘the man in the middle’ kunnen zijn. Het enthousiasme voor spraakbesturing groeit echter wel. Watson (IBM) en Amelia (IPsoft) zijn nog steeds primair rekenwonders. Ze maken wel nieuwe combinaties van bestaande informatie, maar zullen nooit een fluitconcert voor vogels componeren zonder dat iemand daar de opdracht toe geeft – een kenmerk van creativiteit. Ze zullen bij hun beslissingen ook geen rekening houden met hoe jij of jouw partner zich voelt – een kenmerk van empathie.
Zelfs het omgaan met opdrachten is al een hele uitdaging bij het ontwerpen van lerende systemen. Tay.ai, een geautomatiseerde chatbot van Microsoft, werd na een paar dagen offline gezet omdat gebruikers het digitale wezen hadden getraind op het doen van racistische uitspraken. Lerend vermogen is te ontwikkelen, ook voor kunstmatige systemen. Empathie – gevoel voor de context – is een stuk lastiger.

Nee, het einde van contactcenters is niet in zicht

Als het aan de futuristen ligt, kan je elk jaar een artikel schrijven met als titel ‘het einde van contactcenters’. Zelfs de Economist stelt dat robots op termijn het callcenter overbodig zullen maken. “At best, jobs will be created more slowly in the Philippines and India; at worst they will vanish. And it is likely that nowhere else will be able to talk its way out of poverty as they have done”, aldus het artikel. De Economist verwacht dat door de inzet van technologie de grootschalige werkgelegenheid zal verdwijnen. Klinkt aannemelijk, maar de technofans zien één ding over het hoofd. Het is juist de voortschrijdende technologie zelf die ‘menselijke’ contactcenters onmisbaar maakt.

Veel bedrijven beschouwen klantcontact als kostenpost; meer doen met minder staat vaak hoog op de agenda. Outsourcing van klantcontact levert een kostenvoordeel op: facilitaire dienstverleners kunnen het vaak beter en goedkoper. Nog goedkoper is het om klantcontact te automatiseren. Dat betekent wel dat klanten met al hun vragen en problemen uit de voeten moeten kunnen met geautomatiseerde systemen. Dus dat geautomatiseerde customer service permanent meebeweegt met alle bedrijfsprocessen en producten waar klanten mee te maken hebben.

Die automatisering van customer service staat nog in de kinderschoenen. Tot nu toe zijn we redelijk in staat standaardprocessen te automatiseren. Het elimineren van eenvoudige vragen door middel FAQ’s, chatbots en spraakherkenning is twintig jaar geleden al ingezet. Maar het tempo waarmee nieuwe diensten en producten worden gelanceerd ligt een stuk hoger. Het gros van die nieuwe producten en diensten bevat zelf tot nu toe weinig tot geen enkele intelligentie. Onze modems en routers zijn – als ze vastlopen – nog niet zelf-herstellend. De Tesla checkt niet zelf iStock_000014909942XSmallof de app met laadpalen correcte informatie geeft. Het grootste deel van de organisaties waarmee we zaken doen, heeft geen idee wie we zijn als we bellen – ze volgen ons niet. Als we als klant vastlopen in ‘intelligente’ selfservice, zijn we alsnog afhankelijk van een customer service agent. Die agent heeft vervolgens ons, de klant, nodig om het probleem opgelost te krijgen. Bijvoorbeeld om informatie te geven over variabelen die alleen wij kunnen waarnemen: de context. Denk aan het gedrag van andere onderdelen uit een keten of aan invloeden van buitenaf. Een goed voorbeeld is de zorgketen. Omdat verzekeraar A een administratieve achterstand heeft, kan verzekeraar B de nieuwe overstappende klant nog niet verwerken. In dat geval is de klant de intermediair tussen ‘dom’ product en leverancier. Wil je een geautomatiseerd systeem leren omgaan met de doorlopend veranderende context, dan ben je eigenlijk op zoek naar een systeem dat real time en intelligent met de buitenwereld kan omgaan.

Er is een tweede reden waarom technologie het automatiseren van customer service processen in de weg zit. Bedrijven kunnen voordeel boeken als ze de time-to-market van nieuwe diensten en producten weten te bekorten. Nieuwe diensten worden daarom vaak ‘bovenop’ het bestaande IT-landschap geplakt, zodat ze aanhaken op alleen de noodzakelijke processen. Dat gaat sneller en goedkoper dan steeds het IT-landschap opnieuw uitvinden. Betalen via je smartphone is een flinke stap voorwaarts, maar het achterliggende serviceproces blijft meestal ongewijzigd. Ook al is de smartphone via een app connected met de bank (en dus intelligenter dan bijvoorbeeld een bankpas), als er iets mis gaat, moet je nog steeds contact zoeken met een bankmedewerker. IT-adepten die roepen dat ze dat nu juist willen automatiseren, begrijpen niet dat service-automatisering altijd achterloopt op productontwikkeling. Het is gemakkelijker iets toe te voegen aan de voorkant van een bedrijfsproces dan al het achterliggende te veranderen. Dat stapelen zie je terug in IT: slechts een paar grote bedrijven zijn bezig met het terugdringen van het aantal systemen – het reduceren van legacy. De kosten van het wegwerken van achterstallig onderhoud in IT, aangeduid als IT Debt, werden in 2010 door Gartner geschat op 500 miljard dollar; de verwachting voor 2015 was dat het zou zijn opgelopen tot 1.000 miljard dollar.

supercharger_2Een derde reden is dat innovatie van diensten en producten in veel gevallen precies beperkt blijft tot die diensten en producten. De Tesla is een geweldige auto, maar hij is nog niet in staat het opladen zo te organiseren dat de gebruiker er geen last van heeft. Bij banken is het allemaal nog lastiger: we kunnen bijvoorbeeld niet geautomatiseerd van bank veranderen of een hypotheek- of pensioenproduct overhevelen naar een andere aanbieder. “Dat gebeurt toch weinig?’ hoor ik u zeggen. Ja, hoe zou dat komen? Bij zorgverzekeringen en mobiele abonnementen is veranderen een stuk eenvoudiger. En voor wat betreft dat modem: als het defect is of dreigt te gaan, waarom belt het dan niet zelf een monteur die een vervangend apparaat komt afleveren? Of is dat onwenselijk als het modem in een brandend huis staat? Er liggen dus enorme kansen om hardware en software intelligenter te maken. In de IT is dat proces – de automatisering van de automatisering – al volop aan de gang. Ook het internet of things, met connected voorwerpen, biedt veel mogelijkheden om processen te automatiseren, maar daar waar innovaties leiden tot nieuwe vragen of problemen, stokt dat proces.

Ja, automatisering van eenvoudige interacties zal inderdaad leiden tot krimp in de contactcentersector. Yuri van Geest gaat een stuk verder: hij voorziet een toekomst “waarin goederen niet meer kapot gaan. En als er al een defect is, zullen producten vaker in staat zijn zichzelf te repareren. Zonder dat een klant er hinder van ondervindt.”
In dat voorwaardelijke – steeds vaker – zit ‘m de kneep. Daarbij wordt er vanuit gegaan dat slimme, lerende systemen geen vragen meer oproepen, fouten maken of problemen veroorzaken. En dat systemen goed weten om te gaan met de emotie van klagende, boze klanten die zelfstandig beslissen om jouw bedrijf de rug toe te keren. Of dat systemen zelf hun fouten herstellen, of zelfs voorkomen. Een systeem dat hiermee dagelijks worstelt, hebben we gelukkig al en het heet ‘medewerker’.

Dit blog verscheen eerder op Klantcontact.nl

Volg je connected baby op je smartphone

Alles wordt connected: auto’s, huizen, apparaten, speelgoed. Ook al zijn we zelf als mens ook vrijwel de gehele dag online, niemand zit te wachten op connected humans – bijvoorbeeld via sensoren in ons lichaam. Maar dieren en baby’s gaan dat pad effenen. Eerst met wearables, sensoren en slimme apps. 

starling2starling

De Consumer Electronics Show in Las Vegas (6-9 januari) is het jaarlijkse hoogtepunt voor de gadget freaks en fans. Vorig jaar ging CES vooral over wearables, connected cars, het slimme huis en virtual reality. Gadgets zijn over het algemeen alleen duurzaam succesvol als ze gemakkelijk zijn in het gebruik en een duidelijke toevoegde waarde hebben. Niemand is afhankelijk van een smartwatch, maar inmiddels kan bijna niemand meer zonder navigatie-app. Innovaties hebben ook een hoge adoptiekans als ze appelleren aan onze angsten. Dat is precies waar de Baby Tech Summit – onderdeel van de CES – op aanhaakt. Er worden zelfs awards uitgereikt voor de beste baby tech innovaties.

evenfloAngst en baby’s, dat gaat goed samen, want baby’s zijn kwetsbaar. Uitvinders en fabrikanten doen hun uiterste best om ouders er van te doordringen: zonder technologie stelt u uw kind onnodig bloot aan allerlei gevaren. Niemand wil later het verwijt krijgen dat problemen voorkomen hadden kunnen worden als er maar tijdig was ingegrepen. Bijvoorbeeld door de taalontwikkeling van het kind te monitoren, door de voeding te testen of door een sensor aan het kind te bevestigen die aangeeft dat je kind nog in de auto zit – terwijl jij door een shopping mall zwerft. Amerikaanse ouders worden er fijntjes op gewezen dat er iedere negen dagen een kind door oververhitting overlijdt omdat het per ongeluk is achtergelaten in een auto. De Evenflo SensorSafe geeft een opvallende melding als je op je plaats van bestemming bent gekomen, om je er aan te helpen herinneren dat je kind nog in zijn of haar zitje zit. Een variant op deze sensor is de Buddy Tag, die er voor zorgt dat je zoekgeraakte kind kan worden teruggevonden (‘ideal during outings with kids to amusement parks or shopping malls’). De tag geeft ook een signaal af als je kind in het water is gevallen. Daarnaast heeft de Buddy Tag een ‘Panic Button’ voor het kind zelf.

Starling3Om de groei en ontwikkeling van je kind te bewaken kan je aan de slag met Starling, een sensor die je vastmaakt aan de kleding van je kind. Starling belooft van de opvoeder een betere ouder te maken – en tevens het kind slimmer. De sensor telt het aantal woorden dat het kind dagelijks hoort. Hoe, daarover is Starling niet heel erg duidelijk. De bijbehorende smartphone app komt op basis van de meetcijfers met suggesties om meer interactie met je kind aan te gaan. Zo wordt voorkomen dat ouders meer met zichzelf of hun smartphone bezig zijn dan met hun kleintje. Inderdaad, in Starling zit een tegenstrijdigheid. Dat geldt trouwens voor veel smart tech gericht op het opvoeden van kinderen: voor de ouders is er een app. De app Cognoa gaat een stuk verder en neemt de gehele ontwikkeling van het kind als uitgangspunt. Met Cognoa kunnen ouders voorkomen dat ze te laat om hulp vragen, waardoor stoornissen te laat worden gediagnosticeerd. De app is een virtuele test: ouders beantwoorden een aantal vragen en moeten twee korte video’s uploaden. Op basis van machine learning checkt de app of er ontwikkelingsachterstanden zijn of aanwijzingen voor autisme. De app presenteert een rapport dat ouders kunnen overleggen aan een arts. De sociale component zorgt er voor dat ouders met vergelijkbare vragen contact met elkaar kunnen houden. ‘Peace of mind for great parents’, aldus de app: een echte angst-remmer.

wonderwoofVorig jaar werd op CES het internet of pets (IoP) geïntroduceerd. FitBark, PetPace, Nuzzle en PitPat zijn gps-trackers voor dieren, meestal in de verkoop als ‘smart collars’ voor honden en vorig jaar een succes op CES. WonderWoof stelt je in staat op je smartphone te zien hoe gezond je viervoeter is, maar ook waar de andere hondenvriendjes zich bevinden. Veel van wat je voor dieren kunt maken, kan je ook toepassen op kids. En over het algemeen geldt: monitoren is gemakkelijker dan opvoeden; daarom zijn er veel sensoren en apps die de fysieke activiteit en ontwikkeling van je kind kunnen monitoren.

Sommige apps nemen zelfs het verwisselen van een luier als uitgangspunt om allerlei gegevens te verzamelen. The Smart Changing Pad is een verschoningskussen met ingebouwde draadloze weegschaal en touch screen. Gewicht, het aantal voedingen en het aantal schone luiers zijn genoeg voor de bijbehorende smartphone app om ouders het inzicht te geven of hun kind wel op een goede en gezonde wijze eet en groeit. Ideaal voor ouders die op het werk toezicht willen houden op de fysieke verzorging van hun kind: wordt onze kleine niet vetgemest door de nanny? En voor alle connected baby-tech geldt natuurlijk: wie kijkt er mee met de verzamelde data?

fisher priceFisher Price, ook bekend van gehackt kinderspeelgoed, heeft een connected kinderstoeltje in het assortiment. Stop je kind in het stoeltje en zorg met je smartphone voor verschillende wiegstanden, zestien verschillende muziekjes en geluiden uit de natuur en een mobile die rondjes draait. Vermoedelijk ook een succes bij vaders. En met Nima weten voedselpuristen binnen twee minuten of het eten dat je aan je kind wilt geven, wel of geen gluten bevat. Ook hier is de hardware gekoppeld aan een smartphone app. Tests voor melkeiwit en pinda’s zijn in de maak.

connected cattleDe agrarische sector is al een paar stappen verder en maakt naast smart tags ook gebruik van smart pills. Quantified Ag richt zich met sensoren op het monitoren van de groei van slachtvee; Vital Herd heeft een smart pill ontwikkeld (een zogenaamde insidable) die het hele leven in de maag van een melkkoe blijft en daar informatie afgeeft over temperatuur, maagzuur, hormonen en zuurstofinname. Het zal nog even duren, maar hij komt er aan: de insidable voor je opgroeiende kind. Zodat je zeker weet dat je alles uit je kind haalt wat er in zit.

insidable for kids

Praten met software

Als mensen iets goed kunnen, dan is het praten. Spraak is de meest natuurlijke interface en de mobiel is daarbij een handig hulpmiddel. De smartphone werkt ook goed voor andere communicatievormen; zo beginnen we de dag met het checken van WhatsApp, aldus het Nationaal E-mail Onderzoek 2015. Als we iets willen weten, kunnen we het ook aan onze smartphone vragen, via tekst of spraak. Praten we straks tegen medemensen of tegen technologie?

spraakgestuurdeIn mei van dit jaar maakte Google bekend dat het bedrijf voor het eerst meer zoekopdrachten had verwerkt van mensen die gebruik maken van een mobiel apparaat dan via een ‘vaste’ computer (laptop of desktop). De smartphone dringt steeds dieper door in ons leven. De meeste apps moeten we echter nog besturen met onze vingertoppen. De volgende stap is dat we van touch naar speech gaan – behalve in die situaties waarbij het ongewenst is dat je omgeving mee kan luisteren. Steeds meer apps zullen geïntegreerd worden in, of aangestuurd worden door een spraakgestuurde oplossing.

Gartner, altijd goed voor het aanwijzen van trends, had in 2013 nog redelijk hoge verwachtingen, maar in 2015 belandde ‘natural language question answering’ in de hype cycle in de fase van disillusionment. Toch staat in de top 10 strategische technologietrends voor 2016 Advanced Machine Learning voorop. Dat zou kunnen betekenen dat bestaande virtuele assistenten zoals Siri en Google Voice Search zich in de nabije toekomst verder ontwikkelen dan wat ze nu zijn: open vraag-spraakgestuurde zoekmachines. Siri en Google putten tot nu toe nog uit het internet als statische kennisbank. Beide assistenten maken geen combinaties van informatiebronnen (een belofte van zoekmachine Wolfram Alpha) of geven interpretaties; ze stellen weinig tot geen aanvullende vragen (zodat duidelijk wordt machine learning landscape spraakgestuurdeof je met 4×4 een terreinwagen of een rekensom bedoelt) en ze hebben evenmin oog voor je persoonlijke context (heb ik nog een zonnebril? – omdat je je zonnebril vergeten bent en niet weet of je nog ergens een tweede exemplaar hebt liggen, of omdat je überhaupt niet weet of je nog steeds de gelukkige bezitter bent van een zonnebril). Daarnaast moet spraaksoftware kunnen omgaan met storende factoren bij het verwerken van de spraakinput: omgevingslawaai, een gebrekkige uitspraak, emoties, accenten en dialecten. De speech-to-text-software van marktleider Nuance wordt pas goed bruikbaar als deze getraind is in het herkennen van de stem van de gebruiker. ‘Machine learning’ zit zelf voorlopig nog in de schoolbanken.

Voor optimale interactie met een kennissysteem via spraakherkenning is vooral enorme rekenkracht nodig. Die rekenkracht en de software voor spraakherkenning zelf zitten niet in onze smartphone. De spraakgestuurde assistenten van Google en Apple sturen de spraakopdracht rechtstreeks door naar hun eigen datacenter. Daar wordt de vraag omgezet in een zoekopdracht, die beantwoord wordt met relevante online bronnen: het weerbericht (moet ik een paraplu meenemen) of webpagina’s waar 4×4 in voorkomt (wat is een 4×4?). Siri geeft daarbij commentaar (het weer ziet er goed uit; dit is wat ik heb kunnen vinden over 4×4). Beide machines fungeren als bibliotheekmedewerker: ze hebben geen domeinkennis, maar weten je wel door te verwijzen naar de juiste bron. Als je vraag goed begrepen is tenminste.

Maar wanneer onze spraakopdrachten worden doorgestuurd naar een systeem dat gebouwd is om te leren, komen we een stuk verder. De toekomst ligt in het samenvoegen van taal en menselijke analyse enerzijds en neurosynaptische computerchips anderzijds. Of in normaal Nederlands: als we chips ontwerpen die net zo functioneren als het menselijk brein, dan kunnen systemen op een andere manier omgaan met data – namelijk niet langer beperkt door kracht en snelheid. Dat brengt het tijdperk van ‘intelligence amplification’ dichterbij. Lerende systemen zouden twee zwakheden moeten wegnemen: de kans op het verkeerd begrijpen van een vraag reduceren door controlevragen te stellen; en het loslaten van vooraf geprogrammeerde regels bij het samenstellen van een antwoord. Tot nu toe kunnen systemen alleen zonder vooraf opgestelde regels werken, als ze teruggrijpen op een andere houvast, namelijk kansberekening: ‘op basis van de input is dit naar alle waarschijnlijkheid het juiste antwoord’. Daarbij hebben systemen als voordeel dat ze zich niet laten leiden door ‘snelle eerste indrukken’ – waar professionals nog wel eens last van kunnen hebben. Dat is de kracht van kunstmatige systemen: ze gaan af op feiten, vooraf gedefinieerd door mensen, ze hebben echter geen smaak of opvatting.

Voorlopig moeten we het nog doen met ‘point solutions’. Nicky Hekster, IBM Watson ambassadeur, gaf tijdens Outsourcing Performance Day 2015 een update over Watson. Voorganger Deep Blue bevatte alle mogelijke schaakzetten en -strategieën en kon op basis van rekenkracht winnen van Kasparov, maar opvolger Watson heeft sinds het winnen van een ander spelletje (Jeopardy) enorme stappen gezet. Ook Watson is ooit begonnen als ultrasnelle zoekmachine – met een vaartje van 200 miljoen A4’tjes in een seconde. Dat is een nuttige vaardigheid, omdat mensen slecht zijn in het hergebruiken van beschikbare informatie. Dat speelt bijvoorbeeld in de gezondheidszorg, waar medische vragen beter kunnen worden beantwoord als historische gegevens over medicatie en alle artikelen uit medische leerboeken en tijdschriften worden meegenomen. Artsen die Watson gebruiken, krijgen zo kennis over zaken die ze nog niet wisten. Als Watson-principes gebruikt zouden worden door bedrijven, zouden bijvoorbeeld ook contactcenters er gebruik van kunnen maken om klanten van informatie te voorzien.

De techneuten van IBM hebben Watson in 2014 uitgerust met mogelijkheden op het vlak van creativiteit: onder meer via ChefWatson, waarbij Watson gevoed is met informatie over recepten, voedingswaarden, smaken en smaaksensaties. Met die gegevens is Watson in staat nieuwe, verrassende combinaties te maken die nieuwe smaakpatronen opleveren: denk aan een burrito met chocola, spruitjes met amandelen en zoete aardappels of Tiramisu met blauwe kaas. Dit wordt ook wel aangeduid als computational creativity, maar je zou het ook kunnen beschouwen als het presenteren van een lijstje (berekende) mogelijkheden die we nog niet kenden: het gaat niet om een beoordeling van smaak. Ook bij ChefWatson worden de (nieuwe) mogelijkheden nog steeds begrensd door een database en een set algoritmen. Desondanks heeft Chef-kok Onno Kokmeijer van Ciel Bleu, het sterrenrestaurant van het Amsterdamse Okura hotel, met Watson gewerkt en hij is enthousiast.

spraakgestuurde cognitoysEr is ook een Watson-variant voor kinderen in de maak, onder de nu nog tamelijk technische aanduiding Cognitoys. Kinderen in de basisschoolleeftijd kunnen vanaf november dit jaar een groene dinosaurus aanspreken en vragen stellen: denk aan ‘waarom is de lucht blauw’ of ‘wat is de afstand tot de maan’. De kennis van de dino – uiteraard speciaal afgestemd op kinderen – komt uit de cloud van Watson. Vanaf november in de winkels verkrijgbaar als de Kickstartercampagne goed afloopt. Wanneer Watson goed kan omgaan met het beantwoorden via spraak, komen we in de buurt van intelligence amplification. Technologie is dan geen hulpmiddel, maar een verlengstuk van ons brein geworden. Het probleem dat we niet weten hoe het antwoord tot stand komt (ook van toepassing bij zoekmachine Google) blijft echter onverminderd bestaan: wie heeft bepaald hoe de databases en de algoritmen zijn samengesteld?

 

Big, old brother

contactcenterAls CallcenterWorld, het jaarlijkse contactcenter event in Berlijn, symbool staat voor waar klantcontact over gaat, dan is technologie nog steeds het leidende thema in customer service. Bij vrijwel alle 250 stands op de beursvloer staan een of meer beeldschermen – die hebben de pre-sales mensen nodig om hun producten uit te leggen aan het beursvolk – en ook de cloud is vrijwel overal dominant aanwezig. Naast natuurlijk de obligate hooggehakte dames, die folders uitdelen aan congres- en beursbezoekers.

Klaus Müller contactcenterKlaus Müller, als lid van de Duitse vakbond Verdi (bekend van de stakingen bij Amazon) onderdeel van de Verdi-stand, maakt zich vooral druk over het minimumloon in de Duitse contactcenter-sector. Dat is momenteel wettelijk vastgelegd op 8,50 euro per uur, aldus Müller en dat is wat hem betreft de ondergrens. Dat de cloud nieuwe kansen biedt – zoals ‘Heim Arbeit’ – ziet hij dan ook als iets treurigs: dat vergroot in zijn ogen alleen maar de kans dat mensen thuis weggestopt worden achter hun (eigen) beeldscherm. Begrijpelijk, want eenmaal thuis aan het werk wordt het voor een vakbond lastig om werknemers georganiseerd ofwel lid van de vakbond te houden. Een home based agent zal in de toekomst eerder een zelfstandig ondernemer zijn dan een loonslaaf. Tot zo ver de vooruitgang in Duitsland.

Gevraagd naar de toekomst van het beroep contactcenter medewerker wees vakbondsman Müller op een softwareoplossing genaamd Elsbeth VocalCoach. VocalCoach, ook uit de cloud afkomstig, is het speeltje bij uitstek van de klassieke contactcentermanager, maar de schrik van de contactcenter agent: een volledig geautomatiseerde monitoring oplossing. Dit systeem van IT Sonix analyseert met behulp van spraakherkenning real time gesprekken van agents. Dat gebeurt aan de hand van vooraf ingestelde variabelen: zinsdelen, sleutelwoorden en dialoog-onderdelen. Het systeem kan volgens de leverancier een compleet gesprek beoordelen, maar ook nagaan of bepaalde verplichte zinsdelen zijn gebruikt, of de juiste (en niet de verkeerde) woorden zijn gebruikt en of alle noodzakelijke woorden zijn gebruikt. Het systeem monitort ook het emotie-niveau in het gesprek. Bovendien kan het systeem on the fly aan de agent laten zien dat bepaalde woorden zijn gebruikt, waarop in datzelfde gesprek verdere actie vereist is (zoals een excuus of juist extra uitleg).

Het idee achter de tool is dat de verzamelde informatie de basis vormt voor verdere coaching, aldus Konrad Kunze, de manager speech analytics van IT Sonix. Het bedrijf claimt de eerste te zijn met deze real time monitoring en Kunze komt niet veel verder dan te melden dat het tool onder andere door een grote service provider wordt ingezet. “We proberen het bewust niet als real time monitoring aan te bieden, het product heet niet voor niets vocal coaching”, aldus Kunze. De agents zien het als iets positiefs, een soort checklist: iedere keer als ze een bepaalde term gebruikt hebben, licht er een groen lampje op: “Dat werkt beter dan dat de trainer komt vertellen dat de agent de afgelopen tijd iets honderd maal verkeerd heeft gedaan.”
De leverancier claimt een ROI van 6 maanden en beweert dat de efficiency met 50 procent verhoogd kan worden. De oplossing kan ook worden ingezet om gesprekken te classificeren of om het akkoord op transacties gecontroleerd vast te leggen.

Deze twee extremen – de behoudende vakbondsman en de geautomatiseerde monitoring software – laten zien waar het om gaat in contactcenters. Controle is nog steeds het belangrijkste mechanisme om efficiency te realiseren. Die controle verschuift steeds meer van managers en coaches naar systemen (vandaar ook al die beeldschermen tijdens Callcenter World 2015). De leveranciers claimen allemaal dat met deze IT-kermis de relatie of interactie met de klant beter wordt en dat er meer uit die relatie gehaald kan worden. Om de een of andere reden heb ik echter het gevoel dat met deze technologierace het omgekeerde wordt bereikt: de afstand tussen klant en bedrijf alleen maar groter. Wat mij betreft is de toekomst aan bedrijven die er in slagen om de klant weer aan het stuur te krijgen. Echte service, waarbij technologie direct in dienst staat van de klant. Power to the people!

Het zusje van Watson

Watson, de supercomputer van IBM en onovertroffen winnaar van Jeopardy, heeft een waardige opvolger naar het schijnt. Amelia – een virtuele agent – is een voortbrengsel van het New Yorkse bedrijf IPSoft en is gebouwd zoals ook de eerste succesvolle vliegtuigen zijn ontwikkeld: niet de bewegingen van een vogel nabootsen, maar de fysica van vleugels onderzoeken en toepassen. Amelia, zo bericht Wall Street Journal van 30 september, is al in 1998 ontwikkeld op basis van eigenschappen die de werking van het menselijk brein imiteren (cognitief computing). Amelia is genoemd naar de Amelia Earhartvrouwelijke luchtvaartpionier Amelia Earhart. Ze wijkt in ieder geval sterk af van de persona’s die tot nu toe al worden ingezet en functioneren aan de hand van statische kennisbanken zonder leervermogen. Ook verschilt Amelia van ouder broertje Watson: Amelia wordt gevoed door nieuwe informatie die ze zelf toevoegt – dus niet door vooraf geprogrammeerde informatie. Watson is, net als de speciale Google zoekfunctie om katten te herkennen in YouTube video’s, een machine die aangedreven wordt door een zoekmachine gecombineerd met data-analyse. In Watson zijn geen cognitieve functies aangebracht.

Amelia is dus geen pratende, statische kennisbank. Vragen die ze niet herkent of begrijpt, zoekt ze zelf op: op het web of via een intranet van een bedrijf. Wanneer ze ook dan niet succesvol is, zet ze de vraag door naar een menselijke collega. Amelia moet wel getraind worden, maar dat geldt ook voor mensen. Een deel van het doorlopende leerproces bestaat uit het volgen van interacties tussen haar menselijke collega’s. Tijdens de eerste uitrol in een pilot slaagde Amelia er in om in een maand tijd zich zelfstandig te ontwikkelen van vrijwel onwetend tot een machine die onafhankelijk 42 procent van de meest gestelde vragen kon beantwoorden. In de tweede maand was dat opgelopen tot 64 procent.

Amelia is vooral goed in het oplossen van kennis-gebaseerde technische en feitelijke vraagstukken: zaken die goed in logica-gedreven stroomdiagrammen te vangen zijn en waarbij weinig subjectiviteit aan de orde is. Alles in kunstmatige intelligentie staat en valt met het kunnen voorspellen (op basis van grote hoeveelheden data) en het daarbij kunnen betrekken van de context; het kunnen werken met natuurlijke taal geeft Amelia hierin een voorsprong. Volgens IPSoft is Amelia in staat vragen met verschillende structuren, maar een identieke betekenis, als identiek te interpreteren. Met andere woorden, ze heeft verstand van syntaxis (zinsopbouw en woordvolgorde) en semantiek (betekenis).

Amelia wordt op dit moment getest op consistentie: leiden vragen die op verschillende manieren gesteld worden, maar die wel het zelfde probleem adresseren, ook op een correcte en consistente manier beantwoord? De bedoeling is dat Amelia op termijn het embedded brein wordt van Honda’s Asimo.

Is Amelia een bedreiging voor contactcenter agents? In het contactcenter wordt al volop ingezet op het zo veel mogelijk geautomatiseerd afhandelen van klantinteracties. We hadden al spraaktechnologie die dient voor herkenning en routering van klanten en hun vragen; ook met dynamische FAQ’s proberen contactcenters veel voorkomende vragen geautomatiseerd te beantwoorden. Amelia wordt, zo is het plan, binnenkort ingezet bij de customer service van Amerikaanse financiële instellingen, waarmee de automatisering in klantcontact weer een stukje opschuift. Volgens IPSoft zou Amelia in twintig talen kunnen functioneren en kan het contactcenter (in de Amerikaanse markt gaat 400 miljard dollar per jaar om) tot 75 procent op de kosten besparen, omdat 80 procent van de contacten repetitief van aard is – en dus is te automatiseren.

Is Amelia de eerste volwaardige virtuele assistent? In de wetenschap rondom robotisering en mens-machine interacties is de laatste tijd weer veel aandacht voor het fenomeen ‘uncanny valley’. Het begrip is geïntroduceerd door de Japanse robotexpert Masahiro Mori in de jaren zeventig van de vorige eeuw. Volgens Mori accepteren mensen bewegende en stilstaande robots tot op zekere hoogte maar slaat acceptatie om in afkeer als het onderscheid tussen robot en mens te klein wordt. Of de uncanny valley echt bestaat, is de vraag: er zijn onderzoeken die het fenomeen bevestigen en onderzoeken die het fenomeen onderuit halen. Uiteraard zullen robots (en kunstmatige figuren zoals in de film Avatar) zich blijven ontwikkelen, net als onze perceptie ten opzichte van dit soort figuren.

Het inbrengen van echte cognitieve en emotionele intelligentie in het dagelijkse werk is al moeilijk genoeg voor mensen, laat staan dat het goed in software te vangen is. Menselijke interactie in contactcenters zal noodzakelijk blijven voor klantcontacten waar emoties, gewetensvolle en strategische afwegingen, prioriteiten en complexe context moet worden meegenomen. Vergelijkbare dilemma’s doen zich voor bij de zelfrijdende auto. Overigens geeft haar fabrikant aan dat Amelia, die uiteraard in de cloud woont, ook emoties kan detecteren – iets dat ook al mogelijk is met geavanceerde taalherkenningssoftware, ingezet bij social media monitoring. Gecombineerd met het leervermogen heeft Amelia met emotiedetectie in ieder geval opnieuw een gedeelte van de exclusiviteit van menselijke competenties afgesnoept.

Navdoos 2.0

beeld navdy
Navdy

De connected car met apps, adaptive cruise control, park-assist: er is zo op het eerste gezicht best veel intelligentie toegevoegd aan de auto. Uiteraard kiest de industrie er voor om innovaties eerst aan te bieden bij alleen de duurste modellen en worden ze daarna heel langzaam uitgerold als opties in de middenklassers – tegenwoordig hebben bijna alle auto’s standaard ABS, stuurbekrachtiging en airco. Sommige innovaties bestaan echter al jaren voordat de automotive sector ze omarmt en zo lang bestaande knelpunten oplost. Waar we ons tot voor kort nog moesten behelpen met carkits of headsets, luisteren steeds meer auto’s nu naar de smartphone via bluetooth. De smartphone op zijn beurt luistert al wel naar spraakcommando’s via Siri, maar technologie zoals LEAP (gebarenherkenning) is nog niet geïntegreerd. Nieuwe combinaties, hoe zeer ze ook voor de hand liggen, komen dus maar langzaam tot stand.

beeld navdy2
Navdy
head up display
Head Up Display (HUD)

De startup Navdy – uiteraard gestationeerd in San Francisco – heeft zo’n slimme, nieuwe combinatie gerealiseerd. Met Navdy kan een hoop gevaar op de weg worden voorkomen. Navdy is een klein systeem dat je op het dashboard plaatst; het projecteert informatie afkomstig van de bijbehorende smartphone app op een glazen display. Deze zogenaamde head-up display (HUD) technologie bestaat al sinds 1950 en werd toen toegepast bij straaljagers Belangrijke informatie werd daarbij op het cockpit-venster of op het vizier van de vliegerhelm geprojecteerd. Ook autofabrikanten beschikken al langere tijd over deze technologie.

De Navdy wordt via een kabel gevoed via de OBD II poort van de auto (waar onder meer informatie over snelheid en verbruik uit komt) en maakt daarnaast gebruik van informatie uit andere apps zoals Spotify of Google Maps. De ‘nieuwe combinatie’ zit ‘m in de infraroodcamera van de Navdy, die op gebaren reageert waardoor je niet met je vingers hoeft te zoeken naar de juiste toetsen op je smartphone. Het aannemen van een inkomend telefoontje doe je met een swipe beweging en voor wat meer complexe commando’s gebruikt Navdy de spraakherkenning van Siri of Google. Inkomende (social media) berichten worden afgebeeld of uitgesproken en ook muziek kan met gebaren worden bestuurd.

Navdy werd uitgebreid geïntroduceerd in Wired. Daarbij werd uitgelegd dat vergelijkbare technologie wordt aangeboden door Pioneer (voor 1000 dollar) en wordt toegepast in enkele nieuwe automodellen. Mercedes Benz schijnt zich voorlopig nog te richten op het integreren van Google Glass. Nadeel van Navdy is niet alleen, zoals Wired stelt, dat het gadget nog steeds de aandacht afleidt van waar het in de auto om gaat (namelijk veilig deelnemen aan het verkeer). Omdat het om een los systeem gaat, is het ook gemakkelijk mee te nemen. Voor criminelen dan, want als automobilisten ergens een hekel aan hebben, is het wel steeds het bevestigen, verwijderen en opruimen van accessoires zoals navigatiedoosjes. Voordeel is dat dit apparaat niet op je voorruit wordt bevestigd. Daarmee voorkom je het zuignapafdruk effect waarbij iedere autokraker aan een ronde vlek op je voorruit kon zien dat je TomTom vermoedelijk in het dashboardkastje lag.

[wp_twitter]

Cloud: wegbereider voor spraakherkenning?

IBM heeft besloten om superslimme computer Watson naar de cloud te verhuizen en zijn rekenkracht te verdubbelen, zo berichtte AG half januari. Hiermee wil IBM nieuwe mogelijkheden scheppen voor AI-as-a-service: kunstmatige intelligentie op afroep, bijvoorbeeld voor big data analyses en linguïstiek. Hoewel beide zaken weinig te maken hebben met AI – van klein denken is nog nooit iemand groot geworden, en van snel rekenen word je niet echt intelligenter – biedt de cloud wel een mooi platform om technologieën die rekenkracht en -snelheid nodig hebben een kans van slagen te bieden.

Vice president Stephen Gold, betrokken bij de Watson-activiteiten van IBM, voorspelt dat toekomstige generaties op 2013 zullen terugblikken als het jaar van ‘een monumentale verandering’. Hij doelt daarmee wellicht op de mogelijkheden van Watson op het gebied van verwerking van natuurlijke taal.

Het inzetten van natuurlijke taal in de automatisering wordt al enkele decennia gezien als een veelbelovende technologie. Zo ongeveer iedere vijf jaar werd door leveranciers, ontwikkelaars en goeroes geroepen dat de komende vijf jaar toegepaste technologieën zoals spraakherkenning zouden doorbreken. Maar spraaktechnologie is net zo breed inzetbaar als het jongere broertjes touch technologie. Soms is het handig om tegen apparaten te spreken, soms is het handiger te aan te raken. Spraaktechnologie is wel verbeterd door goedkopere en snellere rekenkracht en verder ontwikkelde software en er zijn meer succesvolle toepassingen ontstaan, waarvan Siri (geïntroduceerd in  oktober 2011 op de iPhone 4S) en Glass mooie voorbeelden zijn. Maar om nu te zeggen dat spraakherkenning mainstream is sinds Siri? Ik mis daarvoor zowel de cijfers als de hype rondom het gebruik van Siri. Ook Google Glass, aangestuurd met basale commando’s, moet nog een hele weg afleggen. In het algemeen werkt spraakherkenning beter naarmate het systeem meer getraind is in het herkennen van een bepaalde stem (of bepaalde klanken). Systemen luisteren dus na verloop van tijd vooral goed naar hun baasje, maar zelfs marktleider Nuance heeft voor dat trainingsvraagstuk nog geen oplossing.

Een spraakherkenningssysteem werkt onder andere op basis van waarschijnlijkheid en die wordt steeds groter naarmate er meer data beschikbaar zijn om waarnemingen te vergelijken met opgeslagen kennis. In dit opzicht zou de cloud een belangrijke rol kunnen gaan spelen. Daarnaast is voor het kunnen werken met natuurlijke taal data over de context nodig. Ook hier kan de cloud meerwaarde bieden, want als er ergens ‘context’ beschikbaar is, dan is dat wel in de cloud, waar we doorlopend informatie in opslaan en van waaruit veel apps werken. Met behulp van een 4G verbinding zou Siri real time informatie kunnen ophalen uit de cloud, onder meer via anticiperende systemen als Google Now.

Wanneer gesteld wordt dat 2014 het jaar van de spraakherkenning wordt, heb ik zo mijn twijfels. Het zou ook zo maar 2015 of 2016 kunnen worden. Maar voor een geleidelijke doch stevige ontwikkeling van technologie en in praktische toepassingen is zo langzamerhand wel aan alle voorwaarden voldaan. Spraakherkenning heeft inmiddels een goed imago. Er ontstaan steeds meer devices die in specifieke omstandigheden goed met spraak zouden kunnen worden bediend. Steeds meer apparaten (wearables, maar ook ingebouwde systemen) zijn gemakkelijk te bedienen met spraak – en ook in professionele omgevingen leidt spraaktechnologie tot slimme oplossingen. Daarnaast groeit de behoefte aan nieuwe security-oplossingen op het gebied van identificatie en authenticatie, onder meer bij banken. Tot slot worden devices zoals tablets en smartphones zelf ook steeds krachtiger. De cloud als data hub tenslotte gaat wat mij betreft de doorslag geven.

 

Deze post is tot stand gekomen in samenwerking met de Zero Distance community en T-Systems

[wp_twitter]

Aanraakmens

De evolutie van de pc naar de smartphone en tablet is duidelijk zichtbaar: sneller, krachtiger, meer functionaliteit door internet en social media. Maar het meest opvallende is toch het krimpende formaat.

Als we die evolutie van ‘kleiner + sterker’ extrapoleren, is het apparaat – de interface tussen onszelf en de digitale buitenwereld – eigenlijk niet veel meer dan een tussenfase. De beste interface zijn wijzelf.

Is wearable computing daarmee niet meer dan een tussenfase? Wearables lijken iets nieuws, maar ver voordat de eerste geavanceerde GSM-toestellen waarop je al e-mail versturen en ontvangen werden gelanceerd, waren er al polshorloges met ingebouwde rekenmachines. En we zijn al sinds 2010 blij dat de iPad bestaat, maar de eerste commerciële tablet-pc’s werden al eind jaren 90 geïntroduceerd. Niets nieuws dus. Het zijn vooral formaat en connectiviteit die veranderen. Daarnaast zijn de meeste innovatiepogingen er vooral op gericht om IT nog dichter bij onszelf als gebruiker te brengen. Verkleining heeft nu dus ook betrekking op de afstand tot ons als mens. Naast Google Glass die nog steeds hot is, stuitte ik ook via een blogpost van David Evans, Chief Futurist van Cisco, op de SIGMO, een vertaalcomputer die (mits connected) real time spraak vertalingen kan geven vanuit de cloud en in 25 talen. Het ding is klein en reageert op je stem. De kosten zijn bescheiden: rond de 50 dollar.

Het kost blijkbaar relatief weinig geld om iets nieuws te verzinnen dat nog slimmer, sneller en kleiner is dan het voorgaande. De kans dat een innovatie op het vlak van wearable computing de status van iPod krijgt (veel geïmiteerd, nooit geëvenaard) lijkt nogal klein. Elektronische stickers of tatoeages zouden nog een tussenfase kunnen vormen en ook de Proteus smart pill (die, eenmaal ingenomen, een bericht naar een arts kan sturen) biedt nog wel wat medische mogelijkheden. De meeste troep die onder de noemer wearables op ons afkomt heeft dus een uiterst beperkte houdbaarheidsdatum. Ja, net zo als bij het LCD-horloge met rekenmachine.

Zijn wijzelf dan de volgende interface? Het leek er even op met het elektronische drumpak van Cesar Zuyderwijk, drummer van Golden Earring (nee, op YouTube niets te vinden). De Google bril laat zien dat brildragers straks een extra optie hebben: wilt u een gewone of een slimme bril? Of toch liever een  slimme contactlens? Twee onderzoeksgroepen in Duitsland zijn bezig met verschillende programma’s, aldus een Cisco-blog, om te bezien in hoeverre ons lichaam een geschikte interface kan zijn. Aan het Hasso Plattner Institute wordt gewerkt aan een imaginaire telefoon die zich in je handpalm bevindt, maar hiervoor is een camera nodig die de bewegingen van je vingers op je handpalm registreert.

Onderzoekers van de Technical University of Darmstadt ontwikkelden een toepassing waarbij het oor dient als aanraakbare interface voor besturing van een computer. In beide voorbeelden fungeert het lichaam als touch interface en dat biedt zowel een voor- en een nadeel. We hebben ons lichaam altijd bij ons en binnen handbereik. Nadeel: zonder een beeldscherm missen we de visuele feedback van ons commando. Met ons lichaam als touch interface hebben we bovendien altijd minstens één hand (of vinger) nodig en nog een ander stuk van ons lichaam. In de leerfase zullen we eerst naar het touch-gedeelte van ons lichaam kijken en daarna op zoek gaan naar de feedback of wel het resultaat van ons commando.

De ooggestuurde autofocus van de Canon EOS3 is een mooi voorbeeld van hoe lichaamsbewegingen (namelijk het focuspunt waar de fotograaf in de zoeker naar kijkt) ook direct leiden tot een zichtbaar resultaat (een camera die op het bekeken focuspunt scherp stelt). Die toepassing wordt overigens niet meer bij nieuwe camera’s toegepast.

Met die afhankelijkheid van visuele controle acht ik de kans dat we ons lichaam als touch interface gaan gebruiken niet zo groot. Waar dat scherm niet nodig is omdat feedback op een andere manier komt (het licht aan of uit schakelen, een telefoonnummer kiezen) is de toepassing van gebaren of spraakcommando’s is net zo gemakkelijk. En als er wel een scherm is, zijn de mogelijkheden eindeloos: toetsenborden, gebaren en spraak. En dat is weer goed nieuws voor de gadgets.
[wp_twitter]

Wat is de beste interface voor het smart home?

Volgens IMS Research zullen er in 2020 meer dan 22 miljard connected devices zijn. Het internet of things wint aan toepassingsmogelijkheden als het energieverbruik van sensors verminderd kan worden en de chips kleiner worden. Ook het smart home krijgt dan een kans. Maar wat is de meest handige interface? Gaan we nog meer doen met onze mobiel of wordt het tijd voor een tweede interface? Dat laatste levert alle kansen op voor de smart watch fabrikanten.

2567381831G Switch
Wandschakelaar met Zigbee chip

Zigbee-chips van GreenPeak kunnen meten en zenden (‘sentrollers’). De Zigbee-chips wisselen data uit met controller-units op basis van radiosignalen. Ze kunnen overal worden ingebouwd, want ze zijn klein, energiezuinig en werken over een afstand die vergelijkbaar is met Wi-Fi. De signalen kunnen worden opgepikt door een centrale unit (bijvoorbeeld de settopbox, die steeds vaker de internet gateway vormt). Vanaf daar kunnen andere apparaten aanhaken via Wi-Fi, zoals laptops, tablets en smartphones. GreenPeak zet zwaar in op het smart home. Waar we nu nog een stuk of tien connected apparaten hebben, zit ons huis straks vol met sentrollers. Hoe gaan we dat allemaal bedienen?

Het besturen van functies in een smart home via de smartphone, een tablet of een pc roept vragen op. Om het smart home geaccepteerd te krijgen is het een voorwaarde dat we niet overspoeld worden door chips, apparaten en apps om alles in de gaten te houden en aan te sturen. De data die verzameld worden, lenen zich prima om geautomatiseerd (en met enige intelligentie) verwerkt te worden. Als er niemand in huis is (te bepalen door een bewegingssensor in combinatie met slotgegevens of geo-locatie van alle bewoners) kan de verwarming worden uitgeschakeld, maar als een van de bewoners vanaf kantoor met zijn vervoermiddel vertrekt met bestemming ‘thuis’, zou de kachel al vast in bepaalde ruimtes kunnen worden ingeschakeld – mits de temperatuur daar om vraagt. Wanneer je door het huis beweegt, kan de verlichting daarop reageren – maar met de nodige intelligentie moet een systeem een geheel andere actie kunnen ondernemen indien het alarmsysteem aan staat.

Gaan we het smart home bedienen vanaf de smartphone of de tablet? Het touch screen biedt mogelijkheden voor het werken met plattegronden en 3D weergaven. Maar waarschijnlijk is het aansturen van functies in een smart home gemakkelijker via spraak. Dat biedt kansen voor Siri, maar ook voor de smartwatch. Voor het geven van gesproken commando’s is een horloge namelijk een stuk handiger dan een smartphone: klein en altijd direct binnen handbereik zonder dat je hoeft te zoeken. En een smartwatch kan je commando’s opvangen terwijl je op hetzelfde moment iets anders doet met je smartphone. Dat biedt kansen voor de wederopstanding van het horloge, dat de laatste jaren van overbodig gebruiksvoorwerp is veranderd in een al even overbodig sieraad.

7896bd21ae8ea94ce076bcf7e58a6747_largeJe zou verwachten dat fabrikanten van smartwatches hierop aanhaken, zoals de Galaxy Gear, de Sony Smart Watch, de CUBIT (niet voor de pols bedoeld) en de Pebble. Maar de smartwatches die nu ontwikkeld worden, zijn vooral bedoeld als verlengstuk van een smartphone en sturen hoofdzakelijk notificaties door van (en naar) apps die op de smartphone staan. Alleen Apple zou met de iWatch (die nog op de markt moet komen) nadrukkelijk inzetten op besturing van elektronica in woonkamer ofwel domotica. Zo zouden bijvoorbeeld de verwarming, airconditioning, lichten, audio en video kunnen worden bediend.

De smart home app zal vermoedelijk op de smartphone belanden, maar ik voorspel dat de besturing van de app via een smartwatch verloopt. Daarmee verdienen de bedenkers van Knight Rider (“Follow that car, Kit”) alsnog de titel ‘visionair’.