2011年10月
2011年10月31日
2011年10月 投稿一覧
フォックスコンの課題2
2011年10月2日
フォックスコンの課題3
2011年10月3日
大統領候補リックペリー
2011年10月4日
2011年10月5日
2011年10月6日
2011年10月7日
2011年10月8日
2011年10月9日
2011年10月10日
2011年10月11日
2011年10月12日
2011年10月13日
2011年10月14日
2011年10月15日
2011年10月16日
2011年10月17日
2011年10月18日
2011年10月19日
2011年10月20日
2011年10月21日
2011年10月22日
2011年10月23日
2011年10月24日
2011年10月25日
2011年10月26日
2011年10月27日
2011年10月28日
2011年10月29日
2011年10月30日
2011年10月31日
アメリカの7つの経済の間違い
一月のハノイは7泊8日なので,よっぽど内容を調整しないと全員がばててしまう。今からその内容を検討しておかないといけない。研修日程が旧正月直前なので、日程そのものの検討も必要のようだ。さて、今日は月曜日だが,昨日まで研修だったので,終末をスキップしたせいか、月曜日と言う感覚がない。今週はあさってが休日なので,少しほっとしている。さて、以下の記事はCommon Dreamsより転載した。早速始めよう。
The Seven Biggest Economic Lies
The President’s Jobs Bill doesn’t have a chance in Congress — and the Occupiers on Wall Street and elsewhere can’t become a national movement for a more equitable society – unless more Americans know the truth about the economy. Here’s a short (2 minute 30 second) effort to rebut the seven biggest whoppers now being told by those who want to take America backwards. The major points:
大統領の雇用法案は議会を通過しなかった。ー そしてウォールストリートや他の場所での占拠者達はより公平な社会の為の国家的な運動になることは出来ない。ー より多くのアメリカ人が経済についてその真実を知らなければ。ここに7つの最大の大嘘を反論する短い努力(2分30秒)がある。これらは現在、アメリカを反対方向に持って行こうとする人々によって語られている。この主なポイントは:
2分30秒もあれば読めると言うことを言っているが、それはさすがに無理だ。注
- Tax cuts for the rich trickle down to everyone else. Baloney. Ronald Reagan and George W. Bush both sliced taxes on the rich and what happened? Most Americans’ wages (measured by the real median wage) began flattening under Reagan and have dropped since George W. Bush. Trickle-down economics is a cruel joke.
オバマ米大統領は2011年9月19日、今後10年間で3兆6,000億ドルの財政赤字を削減する計画を発表した。計画は富裕層への増税を柱としており、赤字削減幅の半分を増税で賄うとしている。これは共和党の反対で成立しなかった。富裕層への減税はここで書いているように、レーガンとブッシュの時に行ったようだ。ここで言う増税,減税は財政をどうするかに関係してくる。オバマが言うように、財政赤字がこの増税によって、削減できるのであれば、景気が上向く要因になる。そうすれば、一般大衆の給与の変化はでる可能性はある。逆に富裕層への減税によって,消費が刺激されるのであれば、景気に何らかの影響があるのかもしれない。 注
- Higher taxes on the rich would hurt the economy and slow job growth. False. From the end of World War II until 1981, the richest Americans faced a top marginal tax rate of 70 percent or above. Under Dwight Eisenhower it was 91 percent. Even after all deductions and credits, the top taxes on the very rich were far higher than they’ve been since. Yet the economy grew faster during those years than it has since. (Don’t believe small businesses would be hurt by a higher marginal tax; fewer than 2 percent of small business owners are in the highest tax bracket.)
富裕層への増税が雇用の伸びを抑えることについては間違いだということは前段で述べた通りだ。直接的な関係はない。注
- Shrinking government generates more jobs. Wrong again. It means fewer government workers – everyone from teachers, fire fighters, police officers, and social workers at the state and local levels to safety inspectors and military personnel at the federal. And fewer government contractors, who would employ fewer private-sector workers. According to Moody’s economist Mark Zandi (a campaign advisor to John McCain), the $61 billion in spending cuts proposed by the House GOP will cost the economy 700,000 jobs this year and next.
ここで言う小さな政府は共和党が言っている施策で,オバマの民主党の方針を批判している。オバマのエンタイトルメント(政府の給付, 社会保護, Medicare, Medicaid, フードスタンプ, 農業補助金など)を強化する為に、大きな政府を維持せざるを得ないと言うところに問題がある。そもそも景気が悪いところに、社会保障制度を強化するから、 余計財政が赤字となり、政府が肥大化する。それが今のオバマの問題で、かって、民主党の菅さんが消費税の増税を選挙に使って大敗したのと同じ論理だ。たしかに、政府を小さくする事と雇用とは相関関係はない。注
Robert Reichはバークレーのカリフォルニア大学の公共政策の教授だ。彼は3つの政権に仕えて来た。最も最近はビルクリントン大統領での労働長官として。彼は 12冊の本を書いていて,「ザ・ワーク・オブ・ネーションズ—21世紀資本主義のイメージ」、「内閣に閉じ込められて」そして彼の最新作「超資本主義」がある。彼の「市場」解説はpublicradio.comや iTunesに見つけることができる。
今日はこれまで。アメリカの政治は来年選挙を控え、オバマの景気対策が低迷している中で、共和党が有利ではあるのだが、共和党の候補もぱっとしてない。アフガニスタンからの撤兵、パレスチナ問題がどう選挙に反映されるのか。来年にかけての見所だ。ではまた明日。
続きを読む
2011年10月30日
ドローンの将来4
“The good technology is far off, but technology that doesn’t work well is already out there. The worry is that these systems are going to be pushed out too soon, and they make a lot of mistakes, and those mistakes are going to be atrocities.” Research into autonomy, some of it classified, is racing ahead at universities and research centers in the United States, and that effort is beginning to be replicated in other countries, particularly China.
「良い技術は遥か彼方にあり,しかし、良く動かない技術は既にここにある。心配はこうしたシステムがあまりに早く押し出されて来ていて、そしてそれらは多くの間違いをして来ている。そして、それらの間違いが残虐行為になっている。」自律性の研究、その幾つかは機密扱いだが,アメリカ合衆国の大学や研究センターで急成長していて,そしてその努力が他の諸国、特に中国に模写され始めている。
“Lethal autonomy is inevitable,” said Ronald C. Arkin, the author of “Governing Lethal Behavior in Autonomous Robots,” a study that was funded by the Army Research Office. Arkin believes it is possible to build ethical military drones and robots, capable of using deadly force while programmed to adhere to international humanitarian law and the rules of engagement. He said software can be created that would lead machines to return fire with proportionality, minimize collateral damage, recognize surrender, and, in the case of uncertainty, maneuver to reassess or wait for a human assessment.
「殺人の自動的な行為は避けがたい。」とRonald C. Arkinは言ったが,彼は「自律性のロボットによる殺人行為の管理」の著者である。これは軍事研究局の資金供給による研究である。Arkinは倫理的な 軍事のドローンとかロボットを作る事は可能であると信じている。国際人権法と交戦規則を守るようにプログラムして、殺傷能力のある武器を使うことはできる。彼は軍事的利益と文民への被害のバランスをとって反撃し、巻き添えによる殺傷を最少にし、降伏を認識し、そして、不明確な場合には再評価の手段をとったり、もしくは人の評価を待つような機械を誘導するソフトウェアを作り出すことが出来ると言った。
In other words, rules as understood by humans can be converted into algorithms followed by machines for all kinds of actions on the battlefield. “How a war-fighting unit may think — we are trying to make our systems behave like that,” said Lora G. Weiss, chief scientist at the Georgia Tech Research Institute. Others, however, remain skeptical that humans can be taken out of the loop. “Autonomy is really the Achilles’ heel of robotics,” said Johann Borenstein, head of the Mobile Robotics Lab at the University of Michigan.
言い方を変えれば、人間によって理解された規則は戦場に於いてどんな種類の行動に対しても機械によってまねられるアルゴリズムに変換されうる。「戦闘部隊がどのように考えているかー 我々はそのように行動する我々のシステムを作ろうとしている。」とLora G. Weissは言った。彼女はジョージア技術研究機関の技師長だ。しかしながら、他の人たちは人間が蚊帳の外に於かれうると懐疑的である。自律性は確かにロボットのアキレス腱だ。」Johann Borensteinは言った。彼はミシガン大学で、機動ロボット工学の長だ。
“There is a lot of work being done, and still we haven’t gotten to a point where the smallest amount of autonomy is being used in the military field. All robots in the military are remote-controlled. How does that sit with the fact that autonomy has been worked on at universities and companies for well over 20 years?” Borenstein said human skills will remain critical in battle far into the future. “The foremost of all skills is common sense,” he said. “Robots don’t have common sense and won’t have common sense in the next 50 years, or however long one might want to guess.”
「多くの研究がなされて来ていて、そして最小限の自律性が軍事分野に使われるようなところまではまだ到達して いない。軍隊のすべてのロボットは遠隔操作だ。自律性が20年以上にわたって、大学や企業で研究されて来たと言う事実とこうした遠隔操作がどうして併存して来たのか? Borensteinは遠い将来に於いても、人間のスキルは戦闘に於いて極めて重要であると言った。「すべてのスキルで最も重要なものは常識だ。」と彼は 言った。「ロボットは常識を持っていないし、次の50年に於いても常識を持たないだろう。もしくは、しかしながら、長い間、人はそうしたことを推測したがるのかもしれな い。」
なかなか面白い記事だった。今ドローンが戦場ではやっているが、自律性を伴うようになったら,一体どうなるのだろうか。こうした技術は日本が世界で一番進んでいるのかもしれない。興味深い記事だったが,これで終了する。明日は元旭硝子(株)取締役中央研究所長の山辺正顕さんの紹介の記事で,Common Dreamsより転載した。彼は現在でも国連で委員会の議長をしている。このブログの愛読者だ。ではまた明日。さあ、これから日本だ。
続きを読む
2011年10月29日
ドローンの将来3
Even when directly linked to human operators, these machines are producing so much data that processors are sifting the material to suggest targets, or at least objects of interest. That trend toward greater autonomy will only increase as the U.S. military shifts from one pilot remotely flying a drone to one pilot remotely managing several drones at once. But humans still make the decision to fire, and in the case of CIA strikes in Pakistan, that call rests with the director of the agency. In future operations, if drones are deployed against a sophisticated enemy, there may be much less time for deliberation and a greater need for machines that can function on their own.
直接、人間 のオペレーターとリンクしているときでさえ,こうした機械は大量のデータを造り出し,処理プログラムは目標、もしくは少なくとも興味のある対象を示唆する ために、その構成データを変化させている。アメリカの軍隊が一人のパイロットが遠隔でドロ−ンを飛ばすことから、一人のパイロットが遠隔で同時に何機ものドローンを管理することにシフトするように、より大きな自律性に向けてのこの傾向は増大することになるだろう。しかし、まだ人間が発射する意思決定を行 い、そしてパキスタ ンに於けるCIAの攻撃の場合には、その要請はこの機関の局長次第である。将来のオペレーションに於いて、もしドローンが洗練された敵に配置されたら、考 慮する時間が遥かに少なく、それ自身で機能することが出来る機械の必要性がより大きく出てくるかもしれない。
The U.S. military has begun to grapple with the implications of emerging technologies. “Authorizing a machine to make lethal combat decisions is contingent upon political and military leaders resolving legal and ethical questions,” according to an Air Force treatise called Unmanned Aircraft Systems Flight Plan 2009-2047. “These include the appropriateness of machines having this ability, under what circumstances it should be employed, where responsibility for mistakes lies and what limitations should be placed upon the autonomy of such systems.”
アメリカ軍は新たに出現する技術の影響をしっかり掴み始めている。「殺人の実戦の意思決定をすることを機械に認めることは法的な、倫理的な問題を解決する上で、政治と軍事の指導者次第だ。」と無人航空機システム飛行計画2009-2047と呼ばれる空軍の論文によれば。 「この論文はこうしたシステムの自律性に対して、どのような環境の下でそれが展開されるべきか、間違いに対する責任がどこに所在するのか、そしてどのよう な制限が於かれるべきかといった、こうした能力を持った機械の妥当性を包含している。
In the future, micro-drones will reconnoiter tunnels and buildings, robotic mules will haul equipment and mobile systems will retrieve the wounded while under fire. Technology will save lives. But the trajectory of military research has led to calls for an arms-control regime to forestall any possibility that autonomous systems could target humans. In Berlin last year, a group of robotic engineers, philosophers and human rights activists formed the International Committee for Robot Arms Control (ICRAC) and said such technologies might tempt policymakers to think war can be less bloody.
将来において、極小のドローンがトンネルやビルを調査するだろう。ロボットの運び屋が設備を輸送し,機動システムが戦火の中で負傷者を回収するだろう。技術が生命を救うだろう。しかし、軍事研究に道筋に於いては自律システムが人間を標的にしうる如何なる可能性を未然に防ぐような軍備を管理する政府に要求するに至ってきた。昨年、ベルリンではロボットのエンジニア,哲学者、人権活動家の一団がロボット軍事管理の国際委員会 (ICRAC)を形成し、そのような技術は国会議員達に戦争が血を流さないことができると考えさせようとしているのかもしれないと語った。
Some experts also worry that hostile states or terrorist organizations could hack robotic systems and redirect them. Malfunctions also are a problem: In South Africa in 2007, a semiautonomous cannon fatally shot nine friendly soldiers. The ICRAC would like to see an international treaty, such as the one banning antipersonnel mines, that would outlaw some autonomous lethal machines. Such an agreement could still allow automated antimissile systems. “The question is whether systems are capable of discrimination,” said Peter Asaro, a founder of the ICRAC and a professor at the New School in New York who teaches a course on digital war.
幾人かの専門家達はまた、敵国もしくはテロの組織がロボットシステムを盗み、そしてそれの方向を変えさせる事ができることを心配している。機能不全もまた問題だ。:2007年の南アフリカで,半自律のキャノン砲が9人の味方の兵士に致命傷を与えた。 ICRACは特に対人地雷の禁止のような国際条約を考えたがるだろう。それは幾つかの自律性の殺人の機械を禁止するだろう。そのような協定は依然として,自動的な迎撃ミサイルシステムを許している。「問題はシステムが識別出来るかどうかだ。」とPeter Asaroは言っているが,彼はニューヨークのNew Schoolの教授で,そこで,電子戦争のコースで教えている。
逆に兵士を送り出さない戦争は敵に対してだんだん積極的に攻撃をすることになるのかもしれない。昨日の記事にも書いてあったように,宣戦布告もしないで、安易に攻撃出来,見方の兵士を殺傷する事なく,敵を攻撃出来る。同様の事が敵もしてくると言う事だ。いわば、9.11のような事がこれから数多く起こる可能性があると言う事を意味している。今日はこれまで。これからこの無錫から朝一時間研修した後で,揚州に向かう。ではまた明日。
続きを読む
2011年10月28日
ドローンの将来2
さて昨日は2日目の研修を無事終了し、長い一日だった。今日は8時から勉強会で、9時のホテルを出発し、無錫に向かう。全員元気だ。では今日も昨日の続きのドローンの話を続けよう。
Target confirmed. This successful exercise in autonomous robotics could presage the future of the American way of war: a day when drones hunt, identify and kill the enemy based on calculations made by software, not decisions made by humans. Imagine aerial “Terminators,” minus beefcake and time travel. The Fort Benning tarp “is a rather simple target, but think of it as a surrogate,” said Charles E. Pippin, a scientist at the Georgia Tech Research Institute, which developed the software to run the demonstration.
目標は確認された。この自動的な行為をするロボット工学の成功した訓練はアメリカの戦争の将来のやり方を予言してい る。:ドローンが人間によって意思決定されずに、ソフトウェアの計算を基に、敵を追跡し,識別し、殺す日だ。筋肉隆々の男性の写真とタイムトラベルを除いた、航空機の「ターミネーター(シュワルツネッガー主演の映画)」を創造すれば良い。Fort Benningの防水シートは単に目標と言うよりもそれは敵を代理したものだと考えればよい。」とCharles E. Pippinは言ってが,彼はジョージア技術調査機関の科学者だ。そこではこのデモを行うソフトウェアを開発している。
“You can imagine real-time scenarios where you have 10 of these things up in the air and something is happening on the ground and you don’t have time for a human to say, ‘I need you to do these tasks.’ It needs to happen faster than that.” The demonstration laid the groundwork for scientific advances that would allow drones to search for a human target and then make an identification based on facial-recognition or other software. Once a match was made, a drone could launch a missile to kill the target.
「あなたはリアルタイムのシナリオを想像することができる。そこではあなたは空中にあるこうした10個のものを持っていて,地上で何かが起こっていて,そしてあなたは人間が『私はあなたにこうした仕事をする事を必要としている。』と言う時間を持っていない。それはそうしたこと以上に早く起こる必要がある。」このデモは人間の目標を探し、それから顔認識もしくはその他のソフトウェアに基づいた識別をドローンにさせるような科学進歩の下準備をした。ひとたび合致すればドローンは目標を殺すためにミサイルを発射することができる。
Military systems with some degree of autonomy — such as robotic, weaponized sentries — have been deployed in the demilitarized zone between South and North Korea and other potential battle areas. Researchers are uncertain how soon machines capable of collaborating and adapting intelligently in battlefield conditions will come online. It could take one or two decades, or longer.
ある程度の自律性を持った軍事システムはー ロボットの武装した歩哨のようにー 南北の朝鮮やその他の潜在的な戦争地域の間の非軍事境界線に展開して来た。研究者達はどれほど早く戦場の条件の中で,知的に共同し、適応することができる機械がオンラインになるかどうかははっきりとはわからない。それには10年もしくは20年、いやそれ以上かかるだろう。
The U.S. military is funding numerous research projects on autonomy to develop machines that will perform some dull or dangerous tasks and to maintain its advantage over potential adversaries who are also working on such systems. The killing of terrorism suspects and insurgents by armed drones, controlled by pilots sitting in bases thousands of miles away in the western United States, has prompted criticism that the technology makes war too antiseptic.
アメリカの軍隊は自律性に対して非常に多くの研究プロジェクトに資金を供給して いて、幾つかの単調なもしくは危険な課業を実行する機械を開発し、潜在的な敵国にその優位性を維持しようとしているが、また、敵国もそのようなシステムを 研究している。武装したドローンによるテロの容疑者とか反乱者を殺害する事はアメリカ合衆国の西部の数千マイル離れた基地に座っているパイロットによって 管理されていて,この技術が戦争をあまりに人間が関わらないものにしてしまうと言う批判を引き起こして来た。
Questions also have been raised about the legality of drone strikes when employed in places such as Pakistan, Yemen and Somalia, which are not at war with the United States. This debate will only intensify as technological advances enable what experts call lethal autonomy. The prospect of machines able to perceive, reason and act in unscripted environments presents a challenge to the current understanding of international humanitarian law. The Geneva Conventions require belligerents to use discrimination and proportionality, standards that would demand that machines distinguish among enemy combatants, surrendering troops and civilians.
パキスタン, イエメン、ソマリアはアメリカと戦争をしていないが,そのようなところに使われた時にドローン攻撃の合法性について疑問がまた起こって来ている。この議論 は技術的な進歩は専門家が殺人の自動的な行為と呼んでいる事を可能とするようにますます増大するだけだろう。台本にない環境の中で,感知し、推論し,行動する 事の出来る機械の予測は国際人権法の現在の理解への挑戦である。ジュネーブ協定(1864年に締結された捕虜などの人権に関する国際協定)が交戦国に識別、均整、基準を利用する事を要求し,機械が敵の戦闘員の中の降伏している軍隊と市民を識別する事を要求するだろう。
“The deployment of such systems would reflect a paradigm shift and a major qualitative change in the conduct of hostilities,” Jakob Kellenberger, president of the International Committee of the Red Cross, said at a conference in Italy this month. “It would also raise a range of fundamental legal, ethical and societal issues, which need to be considered before such systems are developed or deployed.” Drones flying over Afghanistan, Pakistan and Yemen can already move automatically from point to point, and it is unclear what surveillance or other tasks, if any, they perform while in autonomous mode.
「そのようなシステムの配置は敵 対行動に於いてパラダイムシフトと大きな質的変化をもたらすだろう。」今月のイタリーのコンファレンスで赤十字国際委員会の議長のJakob Kellenbergerが言った。「それはまた一連の法的な,倫理的な,そして社会に関した根本的な課題を提起しているだろう。その事がこうしたシステ ムが開発され,配置される前に考慮される必要がある。」アフガニスタン,パキスタン、イエメンの上空を飛ぶドローンは既に,次から次へと自動的に移動する ことができる。そして、自動モードにあった時に、もしそれがあったとしても、どんな監視とかその他の職務を彼等が行っているのかはっきりしない。
こうしたことが行われて来ているようだが,戦争もこうした自動化がどんどん進んでくると何か恐ろしいことが起こってしまいそうだ。今日はこれまで。ではまた明日。
続きを読む
2011年10月27日
ホワイトハウスの問題4/ドローンの将来
Senior Obama campaign strategist David Axelrod, who was a top White House aide during the administration’s first two years and was interviewed by Suskind, said Friday that the book’s account was not accurate. He said Obama was in command of his White House and ran an inclusive West Wing.
オバマの選挙運動の上級戦略家であるDavid Axelrodはこの政府の最初の2年間のホワイトハウスの首席補佐官であり、サスカインドにインタビューを受けたが、金曜日に、本の記述は正しくないと言った。オバマは彼のホワイトハウスを指揮していて、西棟すべてを管理していると彼は語った。
Still, apart from the book, Axelrod said he is not surprised that many Democrats at the moment are finding fault with the White House’s strategies – criticisms that he said would likely be different if Obama’s political standing improved. “Whenever you hit turbulence, these kinds of questions always arise,” he said. “It’s like sports. If a team has a losing streak, then the heralded manager all of a sudden doesn’t know baseball.”
この本から離れて、 依然として、Axelrodは多くの民主党員が今のところ、ホワイトハウスの戦略のあら探しをしていることに驚かないと言った。ー オバマの政治な立場が改善するのであれば彼が言った批判は異なるようだ。「あなたが乱気流にぶつかった時はいつでも、こうした類いの質問が起こってく る。」と彼は言った。「それはスポーツと同じだ。チームが負け続けると歓迎されていたマネージャーは突然、野球を知らないことになる。」
以上。オバマにはいろいろ批判があり、この記事では暗示的にいろいろ大統領の悪口を言っているが、擁護もしている。ただ彼はエンタイトルメント(政府の給付, 社会保護, Medicare, Medicaid, フードスタンプ, 農業補助金など)支出の伸びを抑えなければ、また大きな政府を小さくしなければ、また、減税をしなければ、選挙には勝てない。イスラエルを支持しても、アメリカのユダヤ人からの票ももはやそれほど期待は出来ない。彼には失業率は改善出来ない。だから来年の選挙には勝てない。かといって,共和党からはたいした候補が出て来てない。アメリカも日本の政治とそう大差はない。オバマの内情も大変そうだが,彼自身の性sかウのあり方にも相当問題があるのは事実のようだ。さて次をもう少しやろう。全くテーマは違うが、ドローンの話だ。戦争兵器がどんどん無人化されて行くが、宣戦布告をしなくても攻撃出来てしまうし,コンピューターが管理するので,そのうちに訳の分からない大量殺戮が起こらないとも限らない。現在は人間が遠隔操作をしているが,こうした武器が自律的に動き出す時代が来るのかもしれない。今日はそうした記事だ。これはワシントンンポストの記事だ。
A future for drones: Automated killing
By Peter Finn, September 20
ドロ−ンの将来:自動化された殺人
One afternoon last fall at Fort Benning, Ga., two model-size planes took off, climbed to 800 and 1,000 feet, and began criss-crossing the military base in search of an orange, green and blue tarp.
昨秋のある日の午後、ジョージアのFort Benningで、2機の模型飛行機が離陸して、800そして1000フィート上昇して、オレンジと緑と青の防水シートを探して、軍事基地を交差し始めた。
発射と着陸
ドローンの離陸はコマンドセンターで管理されている。ひとたびドローンが空中にいるとそれらは自動的に巡航が始まる。
監視
異なったセンサーと武器を持った幾つかのドローンは標的の可能性のある場所を探す為に一緒に行動することが出来る。
行動
ドローンは直ちに自ら目標と交戦することが出来、もしくは攻撃する前に、その識別を確認する為に、自律的に行動する地上部隊に通報することが出来る。
左:コマンドセンター 中:標的 右:自律的の行動する地上車両
Future war: drones that talk to each other and coordinate an attack
将来の戦争:お互いに会話をし、攻撃を協調するドローン
Researchers are working on software that ultimately could allow drones to work autonomously to hunt, target and kill enemy forces. Advances in technology are raising questions about whether or how systems capable of lethal autonomy should be deployed.
研究者達がソフトウェアに取り組んでいて、究極は自律的に敵の軍隊に損害を与え、標的を見つけ、殺戮する為にドローンに作業させることができるだろう。技術の進歩は殺人を自律的に行動する事の出来るシステムを配置するべきかどうか、もしくはどのようにするのかの争点が起こって来ている。
The automated, unpiloted planes worked on their own, with no human guidance, no hand on any control. After 20 minutes, one of the aircraft, carrying a computer that processed images from an onboard camera, zeroed in on the tarp and contacted the second plane, which flew nearby and used its own sensors to examine the colorful object. Then one of the aircraft signaled to an unmanned car on the ground so it could take a final, close-up look.
自動化した、パイロットのいない飛行機が自ら作動し、人間の誘導もなしで、如何なる手動によるコントロールもない。20分の後、飛行機の一機は機載のカメラから画像を処理するコンピューターを搭載していて、防水シートに照準を合わせ、2番目の飛行機に連絡した。それがすぐそばまで飛び、自分自身のセンサーを使い、色のついた目標物を検査した。それから飛行機の一機は地上の無人車に信号を送り、最終的なクローズアップの光景を送ることが出来る。
今日は以上だが,ホワイトハウスからドローンへと全く違うテーマに変わったが,このドローンはアメリカのアフガニスタン戦争をまったく変えてしまった。ラスベガスの近くからドローンを操縦し、アルカイダを攻撃して来た。これからの戦争はそうした攻撃の仕方がどんどん普及してくのだろうか。そうなると,宣戦布告なしで, ソマリアとかダルフールとかにアメリカ軍がこのラスベガスから攻撃することになるのだろう。まるで子供のゲームと一緒だ。先日、ルルツセキュリティーズとかアノニマスのハッカーの記事を翻訳したが,こうした若い連中がこの戦争の場面に入ってくるのだろうか。そうなると想像もできない複雑怪奇なシステムによる攻撃のパターンが出てきそうだ。人が関与しているうちはまだ制御出来そうだが,自律性を持ってしまったシステムは制御出来ないことになりはしないだろうか。その続きはまた明日。
続きを読む