理系にゅーす

理系に関する情報を発信! 理系とあるものの文系理系関係なく気になったものを紹介します!

スポンサーリンク

人工知能

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2019/04/07(日) 09:01:11.10 ID:CAP_USER
グーグルは3月下旬、人工知能(AI)プロジェクトを倫理面で指導する第三者委員会を設置することを発表した。しかし、委員会が存続したのは発表から1週間余りに過ぎなかった。4月4日、同社は委員会の解散を発表した。何千人ものグーグル社員らが、ある委員会メンバーの解任を求める請願書に署名したことが原因だ。

「先端テクノロジー外部諮問委員会(ATEAC:Advanced Technology External Advisory Council )」と呼ばれる第三者委員会は、当初計画ではグーグル内の「AIプロジェクトの責任ある発展を指導する」ために設立された。委員会のメンバーは8人で、テクノロジスト、哲学者、経済学者が含まれており、4月以降、年4回の会議を開き、グーグルのAIプロジェクトに関する意見をまとめた報告書を提供することになっていた。委員会メンバーの1人であるカーネギーメロン大学のアレサンドロ・アクイスティ教授は、メンバーを辞任することを発表済みだ。ボックス(Vox)の報道によると、グーグルは委員会全体を解散し、計画を最初からやり直すつもりだという。

続きはソースで

https://cdn.technologyreview.jp/wp-content/uploads/sites/2/2019/04/05184404/google-ap.jpg

https://www.technologyreview.jp/nl/google-has-now-cancelled-its-ai-ethics-board-after-a-backlash-from-staff/
ダウンロード (6)


引用元: 【話題】グーグルの「AI倫理委員会」、設置発表から1週間余りで解散[04/06]

グーグルの「AI倫理委員会」、設置発表から1週間余りで解散の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2019/03/11(月) 15:44:20.95 ID:CAP_USER
驚くほどの数の企業が、実際には人工知能(AI)に投資することのないまま、AI時代の時流に乗ろうとしている。

本当なのだろうか? 残念ながらそれは事実のようだ。 ロンドンにある投資会社のMMCベンチャーズは、AIを利用していると主張するヨーロッパの企業2830社を調査した。すると、なんとそのうちの40%にもおよぶ企業が、機械学習をまったく使っていないことが判明した。機械学習はここ数年で学問的にも商業的にも急伸したAIの一分野だ。

そのうちの1社、フィナンシャル・タイムズ(FT)の有料記事で取り上げられたある企業は、「AIの実装を可能にするデータや知識」を収集していると主張していた。

続きはソースで

https://cdn.technologyreview.jp/wp-content/uploads/sites/2/2019/03/06040106/photo-1485827404703-89b55fcc595e.jpg

https://www.technologyreview.jp/nl/about-40-of-europes-ai-companies-dont-use-any-ai-at-all/
ダウンロード (2)


引用元: 【話題】欧州の「AI企業」の4割、機械学習を使用せず[03/06]

欧州の「AI企業」の4割、機械学習を使用せずの続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2019/03/16(土) 15:12:28.31 ID:CAP_USER
【3月14日 AFP】
米アレン人工知能研究所(Allen Institute for Artificial Intelligence)は13日、AI(人工知能)に関して中国の学術論文が急増しており、米国は間もなくAI分野で中国に追い抜かれるとの分析結果を公表した。

 同研究所の分析によると、AI関連論文の発表数で、既に中国は米国を上回っているが、多くは質の面で中レベルか低レベルのもの。それでも、最も引用された回数の論文ランキングで、中国は2019年中に上位50%、来年は上位10%で、2025年までに上位1%に入る見通しで、米国を上回るという。

 分析結果は、自動運転車、仮想現実(VR)、第5世代(5G)移動通信網などの主要技術分野で中国に先を行かれているとの米政府やIT業界の懸念を浮き彫りにした。

 中国は2030年を目標にAI分野で世界のトップを目指すと2017年に公表しているが、アレン研究所の研究員、フィールド・キャディー(Field Cady)氏とオレン・エツィオーニ(Oren Etzioni)氏によると、中国はその10年以上前から既にAI分野への投資を急増させていた。

続きはソースで

(c)AFP

https://afpbb.ismcdn.jp/mwimgs/8/c/320x280/img_8c93552f3426395b94832e4d90791cd8155391.jpg

https://www.afpbb.com/articles/-/3215770
ダウンロード (6)


引用元: 【AI】中国がAI分野で間もなく米国を超える、米シンクタンク[03/14]

中国がAI分野で間もなく米国を超える、米シンクタンクの続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2019/03/26(火) 15:44:41.18 ID:CAP_USER
英国の国家統計局(ONS)が2017年、2000万人の仕事を分析した結果、そのうちの7.4% はテクノロジーに取って代わられる危険性が高いことが分かった。

ONSの発表によれば、もっとも「危険にさらされている」グループは、女性、パートタイマー、若者だった。また、自動化される可能性がもっとも高い仕事は、接客係、次いで商品の棚積み、若い営業職であり、その一方で、可能性がもっとも低い職種は医師と教師だとしている。ONSは人々がこの調査結果について議論できるように、チャットボットを開発した(まったくもって皮肉な話だ)。

ロボットに仕事を奪われるかといえば、必ずしもそうではない。ONSは「定型的な反復作業ほど、人間が作成したアルゴリズム、すなわち特定の機能に特化して設計された機械の方が、より迅速かつ効率的に職務を遂行できる」としている。ONSの調査結果は同種の他の研究とも一致している。

続きはソースで

https://cdn.technologyreview.jp/wp-content/uploads/sites/2/2019/03/26053105/waiter-chuttersnap-unsplash.jpg

https://www.technologyreview.jp/nl/1-5-million-jobs-in-the-uk-are-at-high-risk-of-being-automated/
ダウンロード (6)


引用元: 【AI/4IR】160万人が影響?英政府が発表した、自動化で「なくなる」仕事[03/26]

【AI/4IR】160万人が影響?英政府が発表した、自動化で「なくなる」仕事の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2019/02/20(水) 21:44:16.33 ID:CAP_USER
「ディープラーニングは、原理的には単純な最小二乗法にすぎない」――2月18日付けで日本経済新聞電子版が公開した記事について、Twitterでは「ディープラーニング=最小二乗法」という解釈は異なるのではという指摘が相次いだ。19日には「ディープラーニング」「最小二乗法」といったワードがTwitterでトレンド入りし、波紋が広がっていた。

 日経の記事では、慶應義塾大学経済学部の小林慶一郎教授がAI技術について解説。「近年、驚異的な発展を見せているAIのディープラーニング(深層学習)は、原理的には単純な最小二乗法(誤差を最小にする近似計算の一手法)にすぎない」と言及し、「ディープラーニングは『最小二乗法』」と題する図版が掲載された。
https://image.itmedia.co.jp/news/articles/1902/20/ai_ml_01.jpg

 最小二乗法は、測定で得られたデータの組を、1次関数など特定の関数を用いて近似するときに、想定する関数が測定値に対してよい近似となるように、モデル関数の値と測定値の差の2乗和を最小とするような係数を決定する方法。ディープラーニングに詳しい東京大学の松尾豊特任准教授は、2018年8月に登壇したイベントで、「ディープラーニングは最小二乗法のお化けのようなもの」「従来のマシンラーニングは(階層的に)『浅い』関数を使っていたが、ディープラーニングは『深い』関数を使っている」と説明していた。
https://image.itmedia.co.jp/news/articles/1902/20/ai_ml2.jpg

 松尾氏は2月20日、Twitterの公式アカウントで「小林慶一郎先生はよく議論させていただくので、少し責任を感じています」とツイート。ディープラーニングを簡潔に解説するため「深い関数を使った最小二乗法」という言葉を使ってきたが、「深い関数を使った」という説明がいつも抜け落ちてしまうと嘆く。

続きはソースで

ITmedia NEWS
https://www.itmedia.co.jp/news/articles/1902/20/news141.html
https://twitter.com/5chan_nel (5ch newer account)
ダウンロード (1)


引用元: 【AI】「ディープラーニングは、原理的には単純な最小二乗法にすぎない」で物議 東大・松尾豊氏「深い関数の方が重要」

【AI】「ディープラーニングは、原理的には単純な最小二乗法にすぎない」で物議 東大・松尾豊氏「深い関数の方が重要」の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2019/01/25(金) 15:16:16.74 ID:CAP_USER
「ライバルがAI(人工知能)を使ったサービスを発表したそうだ。ウチはどうするんだ」――本連載では、上司から突然こんなむちゃぶりを受けて困っている人のために、AIプロジェクトの進め方をいちからまとめてきた。

 あなたはAI導入の目標を明確にし、必要なデータをそろえ、PoC(概念実証)を実施して、AIをどう活用すれば本当に役立つのかを把握した所だ。


 あとは本番環境に実装すれば任務完了――と言いたいところだが、残念ながらこれで終わるわけではない。

 採用した新人を現場に配属して「あとはよろしく」で終わる人事担当がいたらどう思うだろうか? AIを開発して終わりと考えるのは、それと同じようなものだ。AIが真に成果を出せるかどうかはその後のフォローで決まると言っても過言ではない。本稿で解説する3つのフォローが実施できるよう、予算とマンパワーを確保しておいてほしい。

■その1:「偏見を持つAI」を作らないために 運用後も「再学習」
 これまでの記事でも述べてきたが、本連載ではAIを「これまで人間のみが実行可能だった作業や、人間には不可能だった作業を、機械がデータに基づいて実行することを可能にする仕組み」と定義している。

 実際に最近のAIアプリケーションは、データを使ってAIを学習させ、目標とする作業をさせるものが多い。そのため連載第2回で解説したように、AI導入プロジェクトでは「適切な質と量のデータを集められるかどうか」が重要になる。
http://image.itmedia.co.jp/news/articles/1901/25/koba4_02.jpg

 AIの開発が終わったからといって、この課題が消えてなくなるわけではない。1度学習させた内容が、時間経過や環境の変化などで不適切なものになる可能性があるためだ。

連載第2回では、米Amazon.comの失敗についても解説した。採用候補者の履歴書を自動で審査するAIを開発したところ、女性よりも男性を高く評価する「偏見」を持つようになってしまったというものだ。この原因は、学習に使用した過去10年分の履歴書において、男性からの応募が大半を占めていたことにある。そして実際に大量の男性が採用されていたことで、AIが「女性」という性質を、低い点数を与えるシグナルと解釈してしまったわけだ。

 これは開発時の学習用データ準備の失敗ということになるが、環境や時代の変化によってAIの学習内容が時代遅れになってしまった事例という解釈もできるだろう。

 例えばいま、日本の企業がAmazonのように過去の履歴書を学習用データとした「履歴書審査AI」を導入したとしよう(ソフトバンクやサッポロビールなど、実際に採用プロセスにAIを活用する企業は既に登場している)。

 このAIは女性差別をしないように調整されているものの、過去の採用で応募してきたのは日本人ばかりだ。しかし今後、少子高齢化対策として日本で外国人が働きやすくなり、大勢の外国人がこの会社に応募するようになったとしたらどうだろうか。非常に優秀な外国人候補者がいても、AIは彼もしくは彼女を適切に評価できない恐れが大きい。

 このように、いくら過去のデータに基づいて優秀なAIを開発しても、その後の環境変化でAIのアウトプットが不適切なものになる可能性がある。そのためAIの判断精度を定期的に確認して、必要であれば新しいデータを使って「再学習」してやる必要があるのだ。

続きはソースで

ITmedia NEWS
http://www.itmedia.co.jp/news/articles/1901/25/news041.html
images


引用元: 【AI】“がっかりAI”はなぜ生まれる? 「作って終わり」のAIプロジェクトが失敗する理由 [01/25]

“がっかりAI”はなぜ生まれる? 「作って終わり」のAIプロジェクトが失敗する理由の続きを読む
スポンサーリンク

このページのトップヘ