Robot says no (2). Zelflerende robots of robotschool?

robotschool
NASA Space center, Houston

Robots worden slimmer. Hoe blijven we ze de baas? Robots moeten luisteren, zich aan regels houden en zich al helemaal niet tegen de mens keren. Maar dan moeten we ze wel zodanig programmeren. Kunnen we hiervoor regels opstellen, of zijn de meest belangrijke robotwetten al geschreven?

Als we robots in bedwang willen houden, op wie dienen wetten en regels dan betrekking te hebben? (link blog 1)? Waar we bij softwarematige handelingen nog kunnen kiezen voor ‘undo’ of ‘herstel’, zijn fysieke handelingen van een robot meestal niet ongedaan te maken. Het straffen van een robot heeft geen zin, een robot heeft geen ethisch besef.

Het zullen niet de robots zijn die we in bedwang moeten houden, maar hun scheppers en gebruikers of opdrachtgevers. Robots zijn – net als technologische vooruitgang – het resultaat van menselijk handelen. En hoewel we goed zijn in het opstellen van regels voor mensen, blijkt ook dat we als mensen niet altijd even veel invloed hebben op technologische ontwikkelingen. Dezelfde software die ons moet helpen om ons werk sneller of beter te kunnen doen, kan er in een verbeterde versie voor zorgen dat we onze baan kwijtraken. Voorlopig is het vergroten van de intelligentie van systemen nog een menselijke taak. Er wordt echter hard aan gewerkt om robots zelflerend te maken. Dat maakt het opleggen van regels aan robots een stuk lastiger.

Tot nu toe is het echter al een hele uitdaging om een robot real time mensen te laten nadoen, maar leren heeft meer om het lijf dan alleen imiteren. Leren is het verwerven van nieuwe of het aanpassen van bestaande kennis, gedrag, vaardigheden of waarden en kan synthetiseren van verschillende soorten informatie inhouden. Robots kunnen leren door ze bijvoorbeeld gebruik te laten maken van kennisbanken (zoals Watson, Eve en Amelia nu al doen), waarbij ze zelf op zoek gaan naar informatie om een probleem op te lossen of een vraag te beantwoorden. Daarbij hoort ook het in kaart brengen van de context van het probleem en daarvoor is het kunnen werken met semantiek een pluspunt.

Naast feitelijke informatie kan ook fysiek gedrag dat de robot in zijn omgeving waarneemt, over te nemen; in dat laatste geval bijvoorbeeld door zelf te beslissen om bepaalde handelingen die in een video zichtbaar zijn, na te doen of zelf te beslissen dat het nadoen van mensen bijdraagt tot de beste oplossing.

Wetenschappers aan de Universiteit van Oslo experimenteren driftig om de kloof tussen het leervermogen van een robot (door middel van simulatieprogramma’s) en de echte wereld als leerplek te verkleinen. Zij denken daarbij aan robots die zelf oplossingen kunnen verzinnen voor het reageren op onvoorziene obstakels, denk aan het zelf bedenken en vervolgens 3D-printen van extra onderdelen waarmee ze het probleem kunnen oplossen.

De keerzijde van robots met een echt leervermogen is dat alle informatie die vindbaar is, kan dienen als leermateriaal voor imitatie; dus ook gedrag dat mensen negatief vinden (het neerschieten van mensen die er afwijkend uitzien) of gedrag dat ineffectief is (het verplaatsen van meubels omdat de huisrobot een voorkeur heeft voor het bewegen in rechte lijnen). Dat maakt de mate van controle over het leervermogen een stuk kleiner; een zelflerende robot zou – net als bij mensen – wel selectief moeten leren. Een mens dat in de geschiedenisles leert over gewapende conflicten, gaat niet meteen over tot schieten bij het eerstvolgende conflict. Leren dus met in achtneming van waarden en normen. Een school voor robots?