ターゲットを追跡して殺す力を持つ自律型兵器 ターミネーター-効率のようなものは、もはや単なるハリウッドのファンタジーではありません。
スティーブウォズニアック、イーロンマスク、スティーブンホーキング、そして何百人ものAIとロボット工学の研究者が、構築するテクノロジーについて語っています。 人間の介入なしに標的を選択して関与させる自律型兵器は、数年以内に実現可能であり、 数十年。 そして、私たちは今それを禁止する必要があります。
に投稿された公開書簡 人生の未来、大物思想家は、AI兵器を追求することを警告しました—会う人々を探して排除することができる武装したクワッドコプターのような 特定の事前定義された基準—戦争の第3革命とまったく新しい軍拡競争につながりますが、これはまったく悪いことです。 アイディア。
AI兵器は、核兵器とは異なり、高価で入手困難な材料を必要としないため、軍事力が大量生産するのに安価で簡単になります。 すぐに、テロリストと独裁者は闇市場でそれらを入手し、あらゆる種類の大混乱を引き起こすことができるでしょう、とグループに警告します:
「自律型兵器は、暗殺、国家の不安定化、人口の抑制、特定の民族グループの選択的殺害などのタスクに理想的です。 したがって、軍事AI軍拡競争は人類にとって有益ではないと私たちは信じています。 AIが、人を殺すための新しいツールを作成することなく、人間、特に民間人にとって戦場をより安全にする方法はたくさんあります。」
一部の専門家は、AI兵器は良いことかもしれないと主張しています。 人間の兵士を機械に置き換えることで、軍事力は死傷者の数を減らすことができますが、それは暴力のしきい値を下げることになり、それは悪いことです。 最終的に、AIは人類に利益をもたらす可能性があり、それは軍事AI軍拡競争を生み出すのではなく、現場の人々の目標であるべきです。
ソース: 人生の未来