06-05-2017
Door de jaren heen werden machines steeds slimmer en gesofisticeerder. Zo zijn ze tegenwoordig al in staat om mensen succesvol uit te dagen. De grote vraag is echter hoe robots omgaan met de macht die wij hen geven, kennen ze ook gevoelens of zouden ze ons zomaar bij de eerste gelegenheid van het aardoppervlak wegvegen?
Het idee van een robot opstand is zeker en vast niets nieuw, denk maar aan de Hollywood kaskrakers 'Terminator' en '2001: A Space Odyssey' waarin de machines zich tegen de mensheid keerden. De vraag is of we ons ook echt zorgen moeten gaan maken. Hoewel de meeste robots vandaag de dag ontwikkeld worden om mensen te helpen, dient er toch ook sterk rekening gehouden te worden met ethiek. Een voorbeeld hiervan vinden we bij de ontwikkeling van de zelfrijdende wagen. Indien deze in een situatie terecht komt, waarbij de auto niet meer op tijd kan stoppen en de baan versperd wordt door een jonge vrouw, terwijl het andere rijvak versperd wordt door een betonblok wegens werken, wat zal de wagen dan beslissen? Zal de auto gewoon doorrijden ten koste van het leven van de vrouw of zal deze net haar leven sparen met als gevolg de dood van de inzittenden van de wagen? Het is dus duidelijk dat technologie steeds meer een morele lading kan bevatten. Dit hoeft niet te betekenen dat we hier bang van moeten zijn. Het is echter wel van groot belang dat we ons hiervan bewust zijn en de ethiek van deze techniek en de consequenties ervan gaan opnemen in het ontwikkelingsproces, zeker nu technologie steeds autonomer wordt, mede dankzij artificiële intelligentie en machines met zelflerende technieken. Hoe meer autonomie technologie krijgt, hoe meer menselijke omkadering er nodig is voor deze technologie.
Autonome robots zullen zo goed als zeker een steeds groter deel gaan uitmaken van ons leven. Hoewel de meeste van deze robots nooit een keuze op leven of dood zullen moeten maken, moeten ze toch aan een aantal regels voldoen om aanvaard te worden door hun gebruikers. Zo wordt een robot geacht eerlijke correcte keuzes te maken en ontstaat dus ook de vraag naar artificiële moraliteit. We moeten er dus voor zorgen dat deze autonome robots moreel verantwoord handelen. Hierover werd reeds in 1942 nagedacht door Isaac Asimov, zij het slechts in een sciencefiction verhalenbundel. Hij kwam op de proppen met de drie wetten van de robotica:
Een robot mag een mens geen letsel toebrengen en evenmin door niet te handelen toestaan dat een mens letsel oploopt.
Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.
Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.
Deze wetten werden echter opgesteld in tijden waarin er nog geen sprake van intelligente technologie was. Het duurde dus ook niet lang voordat er inconsistenties vastgesteld werden. In 1976 stelde Asimov zelf al vast dat er zich problemen konden voordoen. Hij gaf in zijn verhaal The Bicentennial Man zelf het voorbeeld waarin pestkoppen een robot bevolen zichzelf te ontmantelen. Hier moet de robot gehoorzamen omwille van de Tweede Wet en kan hij zichzelf niet beschermen zonder de pestkoppen te schaden, wat een overtreding op de Eerste Wet zou zijn. De wetten zijn dus duidelijk niet waterdicht, maar wat is dan het alternatief? Sommigen zweren erbij dat er geen alternatief is en beweren dat het onmogelijk is om ethiek te programmeren omdat technologie een gebrek heeft aan emoties.
Indien wordt aangenomen dat robots toch ethiek zouden kunnen hanteren, wiens ethische regels moeten hiervoor dan gebruikt worden? In 2005 kwamen Rafal Rzepka en Kenji Araki met het voorstel om het web te doorzoeken naar informatie over wat mensen in het verleden beslist hebben in bepaalde situaties en na te gaan of deze beslissingen al dan niet ethisch aanvaard werden. Uiteraard vormt dit een probleem wanneer een robot een situatie tegenkomt die zich nog nooit voorgedaan heeft. Om dit probleem op te lossen kan gebruik gemaakt worden van machine learning. Hierbij wordt een zogenaamde "leerfase" toegevoegd aan het ontwikkelingsproces. Tijdens deze fase wordt dan aan de hand van duizenden voorbeelden een concept gecreëerd van wat ethisch verantwoord is en wat niet. Later, wanneer de robot een nieuwe situatie tegenkomt, kan hij dan aan de hand van verschillende criteria nagaan of de nieuwe situatie nauw genoeg aansluit bij het aangeleerde concept of niet.
We beschouwen een voorbeeld waarin de robot een patiënt dient te herinneren aan het innemen van bepaalde medicatie. In deze situatie beschouwt de robot drie criteria: ervoor zorgen dat de patiënt een voordeel geniet van de medicatie, voorkomen dat de patiënt schade oploopt door het niet innemen van de medicatie en het respecteren van de autonomie van de patiënt. Vooral de autonomie van de patiënt zal in deze situatie een belangrijke rol spelen, dit omdat de robot de patiënt te vaak zou kunnen herinneren of te snel een verpleger zou kunnen oproepen wat in strijd zou zijn met de autonomie van de patiënt. Aan de hand van machine learning (na het aanleren van meerdere voorbeelden) komt men tot het principe dat een gezondheidszorg robot de autonomie van de patiënt mag negeren telkens als het niet negeren de gezondheid van de patiënt in gevaar zou brengen.
Het is dus duidelijk dat hoe meer data we onze systemen kunnen bezorgen, hoe intelligenter de technologie wordt. Dankzij deze overvloed aan data zullen de robots in staat zijn om een context te kunnen schetsen. Voor de mens is het schetsen van context een vanzelfsprekend iets, een besneeuwde weg zien mensen nog steeds als een weg terwijl dit voor robots absoluut niet evident is. Dit kan de mens aan de hand van zijn impliciete kennis. Deze stelt ons in staat onvolledige gegevens te herkennen en ook aan te vullen. Voor computers is dit een zeer moeilijke opdracht, zelf het herkennen van alledaagse voorwerpen die ze voor zich zien, is voor hen al een heel ingewikkelde opdracht. Een oplossing hiervoor kwam nog maar recentelijk aan het licht in 2012, toen een ploeg van de universiteit van Toronto deelnam aan de ImageNet Challenge.
Het doel van deze wedstrijd is het herkennen en rangschikken van miljoenen afbeeldingen. Voor mensen is dit een vrij triviale oefening die door 95 procent foutloos opgelost kan worden. Computersystemen hebben het hier echter veel moeilijker mee en het beste systeem behaalde in 2010 nog maar een accuraatheid van 72 procent, ver onder de accuraatheid van de mens. Het team van Toronto kon deze foutenmarge echter spectaculair doen dalen tot slechts 15 procent, dankzij deep learning. Enkele jaren later, in 2015, haalde de computer de mens reeds in aan de hand van dezelfde techniek.
Deep learning is een subklasse van machine learning en kan onder andere teruggevonden worden in DeepFace, het gezichtsherkenningsprogramma van Facebook. Deze technologie wordt echter ook nog gebruikt in tal van andere toepassingen zoals Siri van Apple, Google Now, en de technologie die je automatisch andere producten aanraadt in tal van webwinkels.
Het is duidelijk dat de studie rond het implementeren van ethiek in technologie nog maar in zijn kinderschoenen staat. Hoewel de eerste dode door een robot reeds viel in 1979, is er toch nog hoop. Computers zijn steeds meer en meer in staat om taken van de mens vlot en ethisch verantwoord over te nemen. Dit ethische criterium is ook duidelijk zeer belangrijk voor de toekomst van de artificiële intelligentie zelf. Indien de mens zou gaan vermoeden dat deze intelligente robots onethische beslissingen maken, zouden ze zich wel eens snel kunnen gaan keren tegen het totaalplaatje van de autonome robots wat een ramp zou betekenen voor Artificiële Intelligentie. Indien het aanleren van ethiek aan technologie echter aan dit tempo zou blijven voortgaan, zou het ook wel eens goed mogelijk zijn dat binnen enkele jaren wij, de mens, nog wat ethiek zullen kunnen bijleren van deze intelligente robots.
Jochanan Eynikel, Robot aan het stuur: over de ethiek van techniek, Lannoo Campus, Leuven, eerste editie, 2017.
Michael Anderson en Susan Leigh Anderson. Robot Be Good, Scientific American Oktober 2010.
J. F. Bonnefon, A. Shariff en I. Rahwan. The Social Dilemma of Autonomous Vehicles, Science. 352(6293) 2016.