ユニヴァーシティ・カレッジ・ロンドン(UCL)のKathleen Richardson博士も、ロボットが戦場で使用されるようになった場合であっても、他の種類のマシンからわれわれを保護するために定められている規則以外のものは必要にならないと主張している。
同博士は「当然ながら、遠隔操作によって機能する殺人機械は人間と暴力の関係という点で一連の新たな問題を生み出す。このようなケースでは、その機械は『適切な』標的を殺害するものだと明記する必要があるかもしれない(中略)しかし、その場合であってもいわゆる『ロボット倫理』とは何の関係もなく、人間の倫理が関係してくるのだ」と述べている。
同博士は、現在製造されているロボットがフィクションに出てくる思考機械のようなものではないがゆえに、より重要なのは一般的な安全衛生面についての問題であると主張している。つまり、善悪を区別できるようにするのではなく、誤って人の上に倒れかかってこないような機械を作るということだ。
「科学者が開発するロボットはオートマトンのようなものである」と同博士は述べたうえで、「われわれにとって重要なのは、自分たちが作り出すものについて考えることと、それらとのやり取りを安全に行えるようにしておくことなのだ。しかしロボットのために作成する必要のある『特別の』ガイドラインなど存在しない。こうした議論において倫理を必要とするような機械的なロボットが存在するとは考えられず、今後も作り出されはしないだろう」と述べた。
このため、二足歩行ロボットが家の中で安全に機能できるようにするうえでの規則は必要かもしれないものの、それらは家庭用電化製品が必要とする実用的な要件でしかないはずだ。
「一方、倫理面ではこういった考え方だけでは済まない。これはロボット工学に基づいた機械を特殊な実体であると考え、今までとは違う絶対的な考え方で実装するということを意味している」(Richardson博士)