Posted at 2017.01.08 Category : Economist
今週のEconomistは一番楽しみにしている3ヶ月毎のTechnological Quarterlyでした。しかも自然言語処理というYutaにとってど真ん中のトピックで7つの記事を一気に読んでしまいました。やっぱり興味のあるトピックを読むのが一番ですね。
特に興味がない人も社説だけでも目を通せばEconomistがどのように問題を捉えているか、概要を知ることができます。音声認識はWindows95が出てPCが一気に広まったような大きな社会的インパクトをもたらすと見ているようです。
Now we’re talking
How voice technology is transforming computing
Like casting a magic spell, it lets people control the world through words alone
From the print edition | Leaders
Jan 7th 2017, 00:00
別に世の中の動きなんて興味ないしという英語学習者の方(残念ながらTOEIC学習者にもいますね)は社説のタイトルのNow we’re talkingというフレーズだけでも知ってください(苦笑)Now you’re talkingと同じで「待ってました」という意味で、これまで期待倒れに終わっていた音声認識技術がようやく実用に耐えるようになり、まさに人間とコンピュータがtalkingできる状況になったと言いたいようです。
2011年11月2日水曜日
No. 995 “Now you’re talking.”
“Now you’re talking.”
というのは、直訳的には、
「今、あなたは、話している」
なんですが、これで実は、
「そうこなくっちゃ」とか
「待ってました」
という意味で使うんです。
ま、使い方としては、日本語の
「待ってました」
と大体同じで、これまでなんとなく
気乗りのしなかった人、いつまでも
煮え切らなかった人が、やっと期待
通りに動いてくれた、というような
場合に、
“Now you’re talking.”
となるわけです。
ブログのUIというのはuser interfaceですがEconomistはbeing able to talk to computers abolishes the need for the abstraction of a “user interface” at all.と話せるようになればUIなんか不要になると言っています。
This is a huge shift. Simple though it may seem, voice has the power to transform computing, by providing a natural means of interaction. Windows, icons and menus, and then touchscreens, were welcomed as more intuitive ways to deal with computers than entering complex keyboard commands. But being able to talk to computers abolishes the need for the abstraction of a “user interface” at all. Just as mobile phones were more than existing phones without wires, and cars were more than carriages without horses, so computers without screens and keyboards have the potential to be more useful, powerful and ubiquitous than people can imagine today.
もちろんバラ色の未来を描いているわけではありません。音声認識が進んでも音声理解にはほど遠いことにも触れています。コンピュータは意味を理解できないというのです。この辺りはロボットの東大入試プロジェクトの新井教授も語っていました。
Although deep learning means that machines can recognise speech more reliably and talk in a less stilted manner, they still don’t understand the meaning of language. That is the most difficult aspect of the problem and, if voice-driven computing is truly to flourish, one that must be overcome. Computers must be able to understand context in order to maintain a coherent conversation about something, rather than just responding to simple, one-off voice commands, as they mostly do today (“Hey, Siri, set a timer for ten minutes”). Researchers in universities and at companies large and small are working on this very problem, building “bots” that can hold more elaborate conversations about more complex tasks, from retrieving information to advising on mortgages to making travel arrangements. (Amazon is offering a $1m prize for a bot that can converse “coherently and engagingly” for 20 minutes.)
Technological Quarterlyの一つ一つの記事も大変興味深いです。音声を正確に聞き取るには「予測」と「トピックの理解」が重要という指摘は英語学習者にとっても十分うなづけるものです。長くなりそうなのでまずはこのあたりで終わりにしたいと思います。
特に興味がない人も社説だけでも目を通せばEconomistがどのように問題を捉えているか、概要を知ることができます。音声認識はWindows95が出てPCが一気に広まったような大きな社会的インパクトをもたらすと見ているようです。
Now we’re talking
How voice technology is transforming computing
Like casting a magic spell, it lets people control the world through words alone
From the print edition | Leaders
Jan 7th 2017, 00:00
別に世の中の動きなんて興味ないしという英語学習者の方(残念ながらTOEIC学習者にもいますね)は社説のタイトルのNow we’re talkingというフレーズだけでも知ってください(苦笑)Now you’re talkingと同じで「待ってました」という意味で、これまで期待倒れに終わっていた音声認識技術がようやく実用に耐えるようになり、まさに人間とコンピュータがtalkingできる状況になったと言いたいようです。
2011年11月2日水曜日
No. 995 “Now you’re talking.”
“Now you’re talking.”
というのは、直訳的には、
「今、あなたは、話している」
なんですが、これで実は、
「そうこなくっちゃ」とか
「待ってました」
という意味で使うんです。
ま、使い方としては、日本語の
「待ってました」
と大体同じで、これまでなんとなく
気乗りのしなかった人、いつまでも
煮え切らなかった人が、やっと期待
通りに動いてくれた、というような
場合に、
“Now you’re talking.”
となるわけです。
ブログのUIというのはuser interfaceですがEconomistはbeing able to talk to computers abolishes the need for the abstraction of a “user interface” at all.と話せるようになればUIなんか不要になると言っています。
This is a huge shift. Simple though it may seem, voice has the power to transform computing, by providing a natural means of interaction. Windows, icons and menus, and then touchscreens, were welcomed as more intuitive ways to deal with computers than entering complex keyboard commands. But being able to talk to computers abolishes the need for the abstraction of a “user interface” at all. Just as mobile phones were more than existing phones without wires, and cars were more than carriages without horses, so computers without screens and keyboards have the potential to be more useful, powerful and ubiquitous than people can imagine today.
もちろんバラ色の未来を描いているわけではありません。音声認識が進んでも音声理解にはほど遠いことにも触れています。コンピュータは意味を理解できないというのです。この辺りはロボットの東大入試プロジェクトの新井教授も語っていました。
Although deep learning means that machines can recognise speech more reliably and talk in a less stilted manner, they still don’t understand the meaning of language. That is the most difficult aspect of the problem and, if voice-driven computing is truly to flourish, one that must be overcome. Computers must be able to understand context in order to maintain a coherent conversation about something, rather than just responding to simple, one-off voice commands, as they mostly do today (“Hey, Siri, set a timer for ten minutes”). Researchers in universities and at companies large and small are working on this very problem, building “bots” that can hold more elaborate conversations about more complex tasks, from retrieving information to advising on mortgages to making travel arrangements. (Amazon is offering a $1m prize for a bot that can converse “coherently and engagingly” for 20 minutes.)
Technological Quarterlyの一つ一つの記事も大変興味深いです。音声を正確に聞き取るには「予測」と「トピックの理解」が重要という指摘は英語学習者にとっても十分うなづけるものです。長くなりそうなのでまずはこのあたりで終わりにしたいと思います。
スポンサーサイト
Tracback
この記事にトラックバックする(FC2ブログユーザー)