Posted at 2015.12.06 Category : Washington Post
以前このブログで「ロボットはトローリー問題をどう解くか?」でトローリー問題というのをご紹介しました。この問題をGoogleはどう考えているか、ワシントンポストが記事にしていました。
Google’s chief of self-driving cars downplays ‘the trolley problem’
By Matt McFarland December 1
トローリー問題についてこの記事でも簡単に説明してくれています。
As automakers and tech companies talk up self-driving vehicles and the chance to bring their benefits to the world, plenty of questions are being raised about the technology. One that’s attracted much attention is what’s called “the trolley problem.”
The issue is this — do you flip a switch and divert a trolley from killing two people, so that it instead kills only one person? In the case of cars, should your vehicle drive off a bridge to avoid hitting a Boy Scout troop, sacrificing your life to save a dozen? Should a self-driving car veer away from the pedestrians in a crosswalk with a baby stroller and instead hit a lone pedestrian on a sidewalk?
Googleの答えはあっけないもので、そのような判断はできない、とのことでした。。。実状としては歩行者、他の自動車、動かない物体の順に避けるようにプログラムしているそうです。
“It’s not possible to make a moral judgement of the worth of one individual person verse another — convict versus nun,” he said. “When we think about the problem, we try to cast it in a frame that we can actually do something with.”
Urmson added that the system is engineered to work hardest to avoid vulnerable road users (think pedestrians and cyclists), then other vehicles on the road, and lastly avoid things that don’t move.
この記事でGoogleが毎月レポートを出していることを知りました。
Google Self-Driving Car Project Monthly Reports
自律自動車から歩行者がどんな人か見分けることは難しいため人間が悩む問題をコンピュータは悩まないようです。これはコンピュータは意味を理解することは難しいということにつながるものでしょう。メディアでも取り上げられた東大入試ロボットの現状は意外なものでした。
統計的に“正解”を当てる人工知能は東大には合格できない
「BigData Conference 2015 Autumn」報告
2015.09.16岩元 直久=ライター
「ロボットは東大に入れるか」プロジェクトを、リーダーとして推進している国立情報学研究所教授の新井紀子氏。現状の人工知能について、「統計的に処理をして答を当てているだけで、意味を分かっているわけではない」と指摘する。「人工知能にはできることとできないことがあり、東ロボくんの偏差値は60程度まではいくが、東大には入れない」と話す。
国語の問題でも問題文の意味を理解して解いているのではなく、確率的に回答しているにすぎないそうです。
現状の人工知能について新井氏は、「統計的に処理をして答を当てているだけで、意味を分かっているわけではない」と指摘する。国語の入試問題を「解く」ときも、設問の傍線部に含まれる文字と、選択肢の文字を分析して答を「当てている」のだと解説する。それでも「センター入試の問題ならば50%ぐらいの精度で正解できる」(新井氏)と言う。要するに、意味は分からないが、“結構正しい答”を出せる装置が、今の機械学習による人工知能なのだ。
新井さんは機械が得意なところと得意ではないところを指摘しています。一般人はすぐに人工知能→ビッグブラザーのように飛躍してしまいますが、当の研究者は限界を把握していて冷静に見ていますね。
ビッグデータや機械学習により、機械が正解をたたき出す精度は高まっている。ビッグデータと機械学習の組み合わせが特に有効なのが、過去の大量のデータから平均的、確率的に起こる事象を当てるケースだ。「広告や保険、銀行などの業務は、ビッグデータと機械学習に向いている。知的で高収入を得られる仕事でも、判例や特許から類似しているものを調べる仕事は機械に置き換わる可能性はある」(新井氏)と言う。
一方で新井氏は、「個別、具体的なものは、ビッグデータと機械学習では答を当てられない」と説明する。また、ビッグデータが集まらないものも、当然のことながらビッグデータと機械学習が苦手とする分野だ。クイズや将棋が強くなった人工知能の姿を見ると、何でもできると理想化してしまいがちだが、「そこでビジネスを考えたら大きな失敗をする」と新井氏は手厳しい。
新新TOEICのパート3にあった”I can’t believe it!”というフレーズの意味を推測する問題を機械ならどう回答するのか、気になってしまいました。
Google’s chief of self-driving cars downplays ‘the trolley problem’
By Matt McFarland December 1
トローリー問題についてこの記事でも簡単に説明してくれています。
As automakers and tech companies talk up self-driving vehicles and the chance to bring their benefits to the world, plenty of questions are being raised about the technology. One that’s attracted much attention is what’s called “the trolley problem.”
The issue is this — do you flip a switch and divert a trolley from killing two people, so that it instead kills only one person? In the case of cars, should your vehicle drive off a bridge to avoid hitting a Boy Scout troop, sacrificing your life to save a dozen? Should a self-driving car veer away from the pedestrians in a crosswalk with a baby stroller and instead hit a lone pedestrian on a sidewalk?
Googleの答えはあっけないもので、そのような判断はできない、とのことでした。。。実状としては歩行者、他の自動車、動かない物体の順に避けるようにプログラムしているそうです。
“It’s not possible to make a moral judgement of the worth of one individual person verse another — convict versus nun,” he said. “When we think about the problem, we try to cast it in a frame that we can actually do something with.”
Urmson added that the system is engineered to work hardest to avoid vulnerable road users (think pedestrians and cyclists), then other vehicles on the road, and lastly avoid things that don’t move.
この記事でGoogleが毎月レポートを出していることを知りました。
Google Self-Driving Car Project Monthly Reports
自律自動車から歩行者がどんな人か見分けることは難しいため人間が悩む問題をコンピュータは悩まないようです。これはコンピュータは意味を理解することは難しいということにつながるものでしょう。メディアでも取り上げられた東大入試ロボットの現状は意外なものでした。
統計的に“正解”を当てる人工知能は東大には合格できない
「BigData Conference 2015 Autumn」報告
2015.09.16岩元 直久=ライター
「ロボットは東大に入れるか」プロジェクトを、リーダーとして推進している国立情報学研究所教授の新井紀子氏。現状の人工知能について、「統計的に処理をして答を当てているだけで、意味を分かっているわけではない」と指摘する。「人工知能にはできることとできないことがあり、東ロボくんの偏差値は60程度まではいくが、東大には入れない」と話す。
国語の問題でも問題文の意味を理解して解いているのではなく、確率的に回答しているにすぎないそうです。
現状の人工知能について新井氏は、「統計的に処理をして答を当てているだけで、意味を分かっているわけではない」と指摘する。国語の入試問題を「解く」ときも、設問の傍線部に含まれる文字と、選択肢の文字を分析して答を「当てている」のだと解説する。それでも「センター入試の問題ならば50%ぐらいの精度で正解できる」(新井氏)と言う。要するに、意味は分からないが、“結構正しい答”を出せる装置が、今の機械学習による人工知能なのだ。
新井さんは機械が得意なところと得意ではないところを指摘しています。一般人はすぐに人工知能→ビッグブラザーのように飛躍してしまいますが、当の研究者は限界を把握していて冷静に見ていますね。
ビッグデータや機械学習により、機械が正解をたたき出す精度は高まっている。ビッグデータと機械学習の組み合わせが特に有効なのが、過去の大量のデータから平均的、確率的に起こる事象を当てるケースだ。「広告や保険、銀行などの業務は、ビッグデータと機械学習に向いている。知的で高収入を得られる仕事でも、判例や特許から類似しているものを調べる仕事は機械に置き換わる可能性はある」(新井氏)と言う。
一方で新井氏は、「個別、具体的なものは、ビッグデータと機械学習では答を当てられない」と説明する。また、ビッグデータが集まらないものも、当然のことながらビッグデータと機械学習が苦手とする分野だ。クイズや将棋が強くなった人工知能の姿を見ると、何でもできると理想化してしまいがちだが、「そこでビジネスを考えたら大きな失敗をする」と新井氏は手厳しい。
新新TOEICのパート3にあった”I can’t believe it!”というフレーズの意味を推測する問題を機械ならどう回答するのか、気になってしまいました。
スポンサーサイト
Tracback
この記事にトラックバックする(FC2ブログユーザー)