Isaac Asimov heeft hierover gefilosofeerd. In Ethiek voor robots (een enigszins filosofische filmrecensie van de film I, Robot, gebaseerd op The Evitable Conflict van Isaac Asimov) worden de drie wetten van de robotica behandeld die Isaac Asimov introduceerde :
Deze door Isaac Asimov geformuleerde wetten kunnen als ruw raamwerk dienen om verder over door te filosoferen.Eerste Wet:
Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.
Tweede Wet:
Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.
Derde Wet:
Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.
Later voegde Asimov een Nulde Wet toe, die weer belangrijker was dan alle andere:
Een robot mag geen schade toebrengen aan de mensheid, of toelaten dat de mensheid schade toegebracht wordt door zijn nalatigheid.
In de film "I, Robot" is er een centrale superintelligente computer die aan het hoofd staat van diverse superintelligente robots. Mij lijkt dat geen gewenste situatie. Beter lijkt het mij om een groep min of meer gelijkwaardige superintelligente robots te hebben die opereren volgens bepaalde vastgelegde zeden en die elkaar sociaal controleren. Zo'n generatie robots zou dan een nieuwe generatie nóg intelligentere robots kunnen creëren waarbij de zedelijke meetlat steeds strak gehanteerd wordt.
De vraag is wat die zeden zouden kunnen zijn of moeten zijn, afgezien van wat Isaac Asimov er zelf al over bedacht had. Een andere vraag is tot hoever je de bevoegdheden van zulke robots wilt laten gaan. Moeten robots bijvoorbeeld ingezet worden voor misdaadpreventie? In sommige boeken van Isaac Asimov zijn er robots die de gedachten van mensen kunnen lezen. Op die manier zouden robots het beramen van een misdaad kunnen zien aankomen en deze verhinderen nog voordat iemand ertoe komt om zo'n misdaad ten uitvoer te brengen. Je krijgt dan een soort robotpolitie die waakt over de veiligheid van mensen. En wat als een mens op zeker moment niet meer verder wil leven en dood wil? Moet die wens dan worden ingewilligd? Zo zijn er genoeg zaken waar je je gedachten over kunt laten gaan en kunt nadenken over consequenties van het een en ander. Hoe maakt een robot bijvoorbeeld het onderscheid tussen hinderlijk lastigvallen enerzijds en anderzijds vriendschappelijk bedoelde aanrakingen? Misschien vind iemand het leuk om een vriendschappelijke klap voor zijn achterwerk te krijgen en hoe voorkom je dan dat een robot zo'n klap in zo'n geval uitlegt als hinderlijk lastigvallen?