Een chatbot die de bocht uitvliegt – de grenzen van kunstmatige intelligentie

kunstmatige intelligentieRelevantie is het sleutelwoord voor sales, service en marketing. Waar het bij sales en marketing gaat om het doen van het juiste aanbod, moet customer service gericht zijn op het doen van de juiste dingen op het juiste moment: personalisatie is de hoogst mogelijke vorm van klantgerichtheid. En om service gepersonaliseerd te maken heb je data nodig. Kunstmatige intelligentie (AI) helpt om die data om te zetten in de best passende acties, maar de inzet van AI is niet zonder risico’s. Rob Walker, Vice President Decisioning & Analytics bij Pegasystems: “Als een systeem kan doen alsof het iets begrijpt, begrijpt het systeem dat dan ook?” Ofwel: wat gebeurt er als je AI inzet, maar het niet meer begrijpt?

Walker vroeg zich in een interview in online vakblad Customer Relations & Technology in 2012 al af wanneer er een tipping point komt in de bereidheid van consumenten om hun data (meestal ongemerkt) af te staan aan organisaties. Nu bedrijven steeds meer aan de slag gaan met kunstmatige intelligentie, neemt het vermogen van bedrijven om beslissingen op die data te baseren toe. Walker, zowel informaticus als gepromoveerd filosoof, pleit voor een onderscheid tussen AI die transparant is en AI die ondoorzichtig is. In het eerste geval is volstrekt duidelijk op basis van welke regels het systeem tot beslissingen komt. In het tweede geval is er sprake van een black box. In veel situaties komt de analysekracht van bedrijven al akelig dicht in de buurt van die black box. Facebook maakt op basis van 10 likes betere inschattingen over jou dan je collega’s, zo legde hij uit. Bij 300 likes kent Facebook jouw voorkeuren beter dan je partner. Facebook is inmiddels in staat om geslacht en leeftijd vrijwel foutloos te voorspellen.

Facebook is ‘small data’

De Facebook-voorbeelden gaan in feite over ‘small data’, aldus Walker – het is niets vergeleken met big data. Hoe kan je AI dan nog controleren of beslissingen herleiden? Walker komt met een voorbeeld van een antenne die NASA inzet bij ruimtevaartuigen. De ideale antenne met de eigenschappen werd ontwikkeld door AI. NASA is blij met het resultaat, maar weet nog steeds niet waarom het ontwerp van het AI-systeem de beste functionerende antenne is.

kunstmatige intelligentieMicrosoft kwam in maart 2016 met de chatbot Tay naar buiten. Tay kreeg ook een twitteraccount en bleek zich op dat medium na verloop van tijd te ontpoppen – het resultaat van machine learning – als een racist die geen moeite had met genocide. Stel je voor, aldus Walker, dat deze chatbot was ingezet voor customer service. Zowel de antenne van NASA als Tay roepen de vraag op in hoeverre AI zichzelf kan uitleggen – of in hoeverre de organisatie die er gebruik van maakt de werking kan uitleggen. Voor Walker is het duidelijk: AI kan niet zonder menselijke supervisie. En daarnaast pleit hij voor het grondig testen van AI, ook op bias. Daarmee kan je voorkomen dat AI – dus ook die vriendelijke chatbot – dingen gaat doen die jouw bedrijf grote schade toebrengen. Dat geldt niet alleen voor chatbots, maar vooral ook voor de inzet van algoritmen.

GDPR dwingt bedrijven tot openheid

De komende jaren wordt het vraagstuk rondom AI alleen maar complexer. De nieuwe privacywetgeving GDPR dwingt bedrijven open te zijn over hoe ze data verwerken, maar AI heeft daarin nog geen plekje. Dat is met name een probleem voor ondoorzichtige AI. Op het moment dat een organisatie systemen inzet waarvan de werkingsmechanismen niet geheel bekend is (of nog sterker, ook de uitkomsten niet volledig voorspelbaar zijn, zoals bij chatbot Tay) ontstaat er een risico. Technologie, ook AI-aangedreven tools, wordt meestal ingekocht van leveranciers die niet tot nauwelijks een rol spelen bij de praktische inrichting van systemen. Dat laatste is aan de klant in samenwerking met een system integrator. Klantorganisaties proberen marketing en service menselijk te houden, maar het is de vraag of we dat station niet al lang gepasseerd zijn.

Data is het nieuwe goud, maar dat was het al lang. We krijgen via AI wel steeds meer en krachtiger mogelijkheden om er iets mee te doen. Het is de vraag of bedrijven aan hun eigen klanten kunnen uitleggen waarom hun AI-toepassingen niet creepy (of juist wel creepy) zijn. Daarom is de meest praktische oplossing wellicht dat bedrijven aan klanten gaan vragen hoeveel voordeel ze willen, in ruil voor het inleveren van data en privacy. Een tweede oplossing kan zijn dat bedrijven hun klanten gaan voorlichten over de wijze waarop ze AI inzetten. Of wordt het tijd voor een nieuw soort disclaimer: “Dit aanbod/advies is mede tot stand gekomen op basis van kunstmatige intelligentie”?

[dit artikel verscheen eerder op Klantcontact.nl]

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd met *