2011年10月29日
ドローンの将来3
あっという間に無錫の研修は終了した。今日は4日目でこれから揚州に向かう。さすがに5日間の研修はきつい。昨晩は無錫の段取りをしてくれた盧九評さんと新しく始める来年の3月の研修について打ち合わせを行った。いよいよ今日は最終イベントの経営者の会合がある。昔からこの揚州は美人の地として有名だそうだ。中国は国が大きいので,行く地域によって、人の性格、文化、生活、容貌が違う。今日はどういう成り行きになるのだろう
か。楽しみだ。さて、今日もドローンの続きだ。早速始めよう。
Even when directly linked to human operators, these machines are producing so much data that processors are sifting the material to suggest targets, or at least objects of interest. That trend toward greater autonomy will only increase as the U.S. military shifts from one pilot remotely flying a drone to one pilot remotely managing several drones at once. But humans still make the decision to fire, and in the case of CIA strikes in Pakistan, that call rests with the director of the agency. In future operations, if drones are deployed against a sophisticated enemy, there may be much less time for deliberation and a greater need for machines that can function on their own.
直接、人間 のオペレーターとリンクしているときでさえ,こうした機械は大量のデータを造り出し,処理プログラムは目標、もしくは少なくとも興味のある対象を示唆する ために、その構成データを変化させている。アメリカの軍隊が一人のパイロットが遠隔でドロ−ンを飛ばすことから、一人のパイロットが遠隔で同時に何機ものドローンを管理することにシフトするように、より大きな自律性に向けてのこの傾向は増大することになるだろう。しかし、まだ人間が発射する意思決定を行 い、そしてパキスタ ンに於けるCIAの攻撃の場合には、その要請はこの機関の局長次第である。将来のオペレーションに於いて、もしドローンが洗練された敵に配置されたら、考 慮する時間が遥かに少なく、それ自身で機能することが出来る機械の必要性がより大きく出てくるかもしれない。
The U.S. military has begun to grapple with the implications of emerging technologies. “Authorizing a machine to make lethal combat decisions is contingent upon political and military leaders resolving legal and ethical questions,” according to an Air Force treatise called Unmanned Aircraft Systems Flight Plan 2009-2047. “These include the appropriateness of machines having this ability, under what circumstances it should be employed, where responsibility for mistakes lies and what limitations should be placed upon the autonomy of such systems.”
アメリカ軍は新たに出現する技術の影響をしっかり掴み始めている。「殺人の実戦の意思決定をすることを機械に認めることは法的な、倫理的な問題を解決する上で、政治と軍事の指導者次第だ。」と無人航空機システム飛行計画2009-2047と呼ばれる空軍の論文によれば。 「この論文はこうしたシステムの自律性に対して、どのような環境の下でそれが展開されるべきか、間違いに対する責任がどこに所在するのか、そしてどのよう な制限が於かれるべきかといった、こうした能力を持った機械の妥当性を包含している。
In the future, micro-drones will reconnoiter tunnels and buildings, robotic mules will haul equipment and mobile systems will retrieve the wounded while under fire. Technology will save lives. But the trajectory of military research has led to calls for an arms-control regime to forestall any possibility that autonomous systems could target humans. In Berlin last year, a group of robotic engineers, philosophers and human rights activists formed the International Committee for Robot Arms Control (ICRAC) and said such technologies might tempt policymakers to think war can be less bloody.
将来において、極小のドローンがトンネルやビルを調査するだろう。ロボットの運び屋が設備を輸送し,機動システムが戦火の中で負傷者を回収するだろう。技術が生命を救うだろう。しかし、軍事研究に道筋に於いては自律システムが人間を標的にしうる如何なる可能性を未然に防ぐような軍備を管理する政府に要求するに至ってきた。昨年、ベルリンではロボットのエンジニア,哲学者、人権活動家の一団がロボット軍事管理の国際委員会 (ICRAC)を形成し、そのような技術は国会議員達に戦争が血を流さないことができると考えさせようとしているのかもしれないと語った。
Some experts also worry that hostile states or terrorist organizations could hack robotic systems and redirect them. Malfunctions also are a problem: In South Africa in 2007, a semiautonomous cannon fatally shot nine friendly soldiers. The ICRAC would like to see an international treaty, such as the one banning antipersonnel mines, that would outlaw some autonomous lethal machines. Such an agreement could still allow automated antimissile systems. “The question is whether systems are capable of discrimination,” said Peter Asaro, a founder of the ICRAC and a professor at the New School in New York who teaches a course on digital war.
幾人かの専門家達はまた、敵国もしくはテロの組織がロボットシステムを盗み、そしてそれの方向を変えさせる事ができることを心配している。機能不全もまた問題だ。:2007年の南アフリカで,半自律のキャノン砲が9人の味方の兵士に致命傷を与えた。 ICRACは特に対人地雷の禁止のような国際条約を考えたがるだろう。それは幾つかの自律性の殺人の機械を禁止するだろう。そのような協定は依然として,自動的な迎撃ミサイルシステムを許している。「問題はシステムが識別出来るかどうかだ。」とPeter Asaroは言っているが,彼はニューヨークのNew Schoolの教授で,そこで,電子戦争のコースで教えている。
逆に兵士を送り出さない戦争は敵に対してだんだん積極的に攻撃をすることになるのかもしれない。昨日の記事にも書いてあったように,宣戦布告もしないで、安易に攻撃出来,見方の兵士を殺傷する事なく,敵を攻撃出来る。同様の事が敵もしてくると言う事だ。いわば、9.11のような事がこれから数多く起こる可能性があると言う事を意味している。今日はこれまで。これからこの無錫から朝一時間研修した後で,揚州に向かう。ではまた明日。
Even when directly linked to human operators, these machines are producing so much data that processors are sifting the material to suggest targets, or at least objects of interest. That trend toward greater autonomy will only increase as the U.S. military shifts from one pilot remotely flying a drone to one pilot remotely managing several drones at once. But humans still make the decision to fire, and in the case of CIA strikes in Pakistan, that call rests with the director of the agency. In future operations, if drones are deployed against a sophisticated enemy, there may be much less time for deliberation and a greater need for machines that can function on their own.
直接、人間 のオペレーターとリンクしているときでさえ,こうした機械は大量のデータを造り出し,処理プログラムは目標、もしくは少なくとも興味のある対象を示唆する ために、その構成データを変化させている。アメリカの軍隊が一人のパイロットが遠隔でドロ−ンを飛ばすことから、一人のパイロットが遠隔で同時に何機ものドローンを管理することにシフトするように、より大きな自律性に向けてのこの傾向は増大することになるだろう。しかし、まだ人間が発射する意思決定を行 い、そしてパキスタ ンに於けるCIAの攻撃の場合には、その要請はこの機関の局長次第である。将来のオペレーションに於いて、もしドローンが洗練された敵に配置されたら、考 慮する時間が遥かに少なく、それ自身で機能することが出来る機械の必要性がより大きく出てくるかもしれない。
The U.S. military has begun to grapple with the implications of emerging technologies. “Authorizing a machine to make lethal combat decisions is contingent upon political and military leaders resolving legal and ethical questions,” according to an Air Force treatise called Unmanned Aircraft Systems Flight Plan 2009-2047. “These include the appropriateness of machines having this ability, under what circumstances it should be employed, where responsibility for mistakes lies and what limitations should be placed upon the autonomy of such systems.”
アメリカ軍は新たに出現する技術の影響をしっかり掴み始めている。「殺人の実戦の意思決定をすることを機械に認めることは法的な、倫理的な問題を解決する上で、政治と軍事の指導者次第だ。」と無人航空機システム飛行計画2009-2047と呼ばれる空軍の論文によれば。 「この論文はこうしたシステムの自律性に対して、どのような環境の下でそれが展開されるべきか、間違いに対する責任がどこに所在するのか、そしてどのよう な制限が於かれるべきかといった、こうした能力を持った機械の妥当性を包含している。
In the future, micro-drones will reconnoiter tunnels and buildings, robotic mules will haul equipment and mobile systems will retrieve the wounded while under fire. Technology will save lives. But the trajectory of military research has led to calls for an arms-control regime to forestall any possibility that autonomous systems could target humans. In Berlin last year, a group of robotic engineers, philosophers and human rights activists formed the International Committee for Robot Arms Control (ICRAC) and said such technologies might tempt policymakers to think war can be less bloody.
将来において、極小のドローンがトンネルやビルを調査するだろう。ロボットの運び屋が設備を輸送し,機動システムが戦火の中で負傷者を回収するだろう。技術が生命を救うだろう。しかし、軍事研究に道筋に於いては自律システムが人間を標的にしうる如何なる可能性を未然に防ぐような軍備を管理する政府に要求するに至ってきた。昨年、ベルリンではロボットのエンジニア,哲学者、人権活動家の一団がロボット軍事管理の国際委員会 (ICRAC)を形成し、そのような技術は国会議員達に戦争が血を流さないことができると考えさせようとしているのかもしれないと語った。
Some experts also worry that hostile states or terrorist organizations could hack robotic systems and redirect them. Malfunctions also are a problem: In South Africa in 2007, a semiautonomous cannon fatally shot nine friendly soldiers. The ICRAC would like to see an international treaty, such as the one banning antipersonnel mines, that would outlaw some autonomous lethal machines. Such an agreement could still allow automated antimissile systems. “The question is whether systems are capable of discrimination,” said Peter Asaro, a founder of the ICRAC and a professor at the New School in New York who teaches a course on digital war.
幾人かの専門家達はまた、敵国もしくはテロの組織がロボットシステムを盗み、そしてそれの方向を変えさせる事ができることを心配している。機能不全もまた問題だ。:2007年の南アフリカで,半自律のキャノン砲が9人の味方の兵士に致命傷を与えた。 ICRACは特に対人地雷の禁止のような国際条約を考えたがるだろう。それは幾つかの自律性の殺人の機械を禁止するだろう。そのような協定は依然として,自動的な迎撃ミサイルシステムを許している。「問題はシステムが識別出来るかどうかだ。」とPeter Asaroは言っているが,彼はニューヨークのNew Schoolの教授で,そこで,電子戦争のコースで教えている。
逆に兵士を送り出さない戦争は敵に対してだんだん積極的に攻撃をすることになるのかもしれない。昨日の記事にも書いてあったように,宣戦布告もしないで、安易に攻撃出来,見方の兵士を殺傷する事なく,敵を攻撃出来る。同様の事が敵もしてくると言う事だ。いわば、9.11のような事がこれから数多く起こる可能性があると言う事を意味している。今日はこれまで。これからこの無錫から朝一時間研修した後で,揚州に向かう。ではまた明日。