FC2ブログ

Uncharted Territory

自分が読んで興味深く感じた英文記事を中心に取り上げる予定です

RSS     Archives
 

人間は分かりやすいけど

 
ワイドショーのコメントがヘイトを煽っていると批判されていますが、人間の発言はある意味分かりやすいです。今回も「またか」という反応がありましたから。でも、これがAIによる判断だとしたら分かりにくいかもしれません。AIの決定過程がわからないブラックボックスの問題もありますが、ここでは偏見の問題を取り上げます。

Brain-computer interfaceは年初のEconomistのTechnology Quarterlyでも取り上げられましたが、昨年のNatureの記事でBrain-computer interfaceについてPrivacy and consent, Agency and identity, Augmentation, Biasという4つの懸念事項をあげています。この懸念はAIにも当てはまるそうです。

Rafael Yuste, Sara Goering, Blaise Agüera y Arcas, Guoqiang Bi, Jose M. Carmena, Adrian Carter, Joseph J. Fins, Phoebe Friesen, Jack Gallant, Jane E. Huggins, Judy Illes, Philipp Kellmeyer, Eran Klein, Adam Marblestone, Christine Mitchell, Erik Parens, Michelle Pham, Alan Rubel, Norihiro Sadato, Laura Specker Sullivan, Mina Teicher, David Wasserman, Anna Wexler, Meredith Whittaker& Jonathan Wolpaw
08 November 2017
Artificial intelligence and brain–computer interfaces must respect and preserve people's privacy, identity, agency and equality, say Rafael Yuste, Sara Goering and colleagues.

Biasの部分をYutaのざっくり訳と一緒に紹介します。

Bias. When scientific or technological decisions are based on a narrow set of systemic, structural or social concepts and norms, the resulting technology can privilege certain groups and harm others. A 2015 study12 found that postings for jobs displayed to female users by Google's advertising algorithm pay less well than those displayed to men. Similarly, a ProPublica investigation revealed last year that algorithms used by US law-enforcement agencies wrongly predict that black defendants are more likely to reoffend than white defendants with a similar criminal record (go.nature.com/29aznyw). Such biases could become embedded in neural devices. Indeed, researchers who have examined these kinds of cases have shown that defining fairness in a mathematically rigorous manner is very difficult (go.nature.com/2ztfjt9).
(偏見。科学や技術に関する決定が狭い範囲のシステムや構造、社会の考えや規範に基づいてなされた場合、その結果として生まれる技術はある集団を優遇して、別の集団を差別する可能性がある。ある2015年の研究が明らかにしたのはGoogleの広告アルゴリズムが女性に表示する求人広告は男性に表示されるものよりもずっと給料が低かったことだ。同様にProPublicaの調査で昨年わかったことは、米国の捜査機関で使用されているアルゴリズムは黒人の被告を同様の犯罪記録のある白人の被告よりも再犯の可能性が一層高いと誤って予測した。このような偏見はニューラル機器の組み込まれる可能性がある。さらに、このような事例を調査した研究者によれば数学的に厳密な方法で公正に定義することは非常に難しいそうだ)

Practical steps to counter bias within technologies are already being discussed in industry and academia. Such ongoing public discussions and debate are necessary to shape definitions of problematic biases and, more generally, of normality.
(テクノロジーに組み込まれた偏見への現実的な対応策はすでに業界や学界にて議論されている。このように一般的に議論・討論していくことは問題のある偏見、または、より広く規範について明らかにするのに必要である)

We advocate that countermeasures to combat bias become the norm for machine learning. We also recommend that probable user groups (especially those who are already marginalized) have input into the design of algorithms and devices as another way to ensure that biases are addressed from the first stages of technology development.
(我々の主張は、偏見への対抗策が機械学習において当然のことになることだ。また、被害を受けやすいユーザーグループ(特にすでに排斥されている集団)がアルゴリズムや機器の設計に提案をすることも推奨する。こうすれば技術開発の第一段階から偏見に対処できるだろう)

ここで紹介されていたProPublicaの黒人差別が反映されてしまっているソフトウエアの読み応えのあるレポートです。

by Julia Angwin, Jeff Larson, Surya Mattu and Lauren Kirchner, ProPublica
May 23, 2016

煽りコメントした人は高学歴なので読解力はあるのでしょうが、それだけでは不十分なのは彼女が明らかにしてくれています。
スポンサーサイト

Comment


    
プロフィール

Yuta

Author:Yuta
FC2ブログへようこそ!




最新トラックバック



FC2カウンター

検索フォーム



ブロとも申請フォーム

QRコード
QR