Sharkey氏にとって、ロボット兵士とは戦争の基本原則に準拠できないものなのだ。こういったものは兵士と民間人を区別したり、負傷兵と本当の標的を区別したりできないのである。同氏は「AIロボット工学システムでこうした処理をうまく行えるものは存在していない」と主張するとともに、歩行者と自動車を区別できる、英国で開発されたあるシステムを引き合いに出したうえで、「しかし、それでも踊っている熊と後ろ足で立っている犬の違いは識別できない」と指摘した。
ロボット兵器システムはある種のバランスというものも判断できないだろうと同氏は述べた。つまり、何らかの攻撃による戦闘上の軍事的優位性を確保するために、民間人の犠牲が容認できるかどうかという比例原則に関する判断である。同氏は「ロボットはどのようにしてそういったことを判断できるのだろうか?軍事的優位性に関する博士論文は存在するが、それは極めて状況に依存したものとなっている。つまりこの種の判断を下す経験豊富な司令官が戦場で必要となるわけだ」と述べた。
しかし、最も大きな問題の1つとして責任というものも挙げられると同氏は続けた。軍事作戦が失敗した場合、ロボットを責めることはできない。同氏と話をした軍司令官たちが本当に心配しているのはこの点である。彼らは攻撃作戦を遂行するうえでの責任を課される人たちなのである。
「しかしこういったものには、クラッシュしたり、裏をかかれたり、ハッキングされたり、工業製品としての流通過程のなかで問題が起こったり、コンピュータに被弾したり、コードにバグが入り込んだり、センサに問題が発生する可能性が常につきまとうため、適切なものとはならないだろう。誰がその責任を負うというのだろうか?製造業者だろうか、それともソフトウェアエンジニアだろうか、製造時のエンジニアだろうか、あるいは司令官なのだろうか?戦争において何らかの過ちが起こった場合、誰が責任を持つのかについてはしっかりと押さえておく必要がある」(Sharkey氏)
Sharkey氏の懸念は、テクノロジに制約があるにもかかわらず、兵器の展開が徐々に進んでいくというところにある。同氏は「テクノロジ自体が目的に合っていないし、これらが展開されるまでに目的に合致したものに変わることもないのだ」と述べた。
戦場でハイテク兵器の使用が増えてきているなか、自律型ロボット採用の現実味も増していくだろう。敵が通信妨害によってドローンを無力化できる場合(ドローンの使用頻度が増えれば、十分に考えられるシナリオのはずだ)、司令室と通信せずとも任務を継続できる自律型のドローンというのは有効な対策となるだろう。同様に、遠隔地のパイロットがジョイスティックを動かしてからドローンが反応するまで(およそ)1.5秒の遅延が存在するため、攻撃を受けた際の回避行動が自律型航空機に比べて遅れるという点は、自律型を採用するもう1つの優れた理由となるだろう。