1: 2019/01/25(金) 15:16:16.74 ID:CAP_USER
「ライバルがAI(人工知能)を使ったサービスを発表したそうだ。ウチはどうするんだ」――本連載では、上司から突然こんなむちゃぶりを受けて困っている人のために、AIプロジェクトの進め方をいちからまとめてきた。

 あなたはAI導入の目標を明確にし、必要なデータをそろえ、PoC(概念実証)を実施して、AIをどう活用すれば本当に役立つのかを把握した所だ。


 あとは本番環境に実装すれば任務完了――と言いたいところだが、残念ながらこれで終わるわけではない。

 採用した新人を現場に配属して「あとはよろしく」で終わる人事担当がいたらどう思うだろうか? AIを開発して終わりと考えるのは、それと同じようなものだ。AIが真に成果を出せるかどうかはその後のフォローで決まると言っても過言ではない。本稿で解説する3つのフォローが実施できるよう、予算とマンパワーを確保しておいてほしい。

■その1:「偏見を持つAI」を作らないために 運用後も「再学習」
 これまでの記事でも述べてきたが、本連載ではAIを「これまで人間のみが実行可能だった作業や、人間には不可能だった作業を、機械がデータに基づいて実行することを可能にする仕組み」と定義している。

 実際に最近のAIアプリケーションは、データを使ってAIを学習させ、目標とする作業をさせるものが多い。そのため連載第2回で解説したように、AI導入プロジェクトでは「適切な質と量のデータを集められるかどうか」が重要になる。
http://image.itmedia.co.jp/news/articles/1901/25/koba4_02.jpg

 AIの開発が終わったからといって、この課題が消えてなくなるわけではない。1度学習させた内容が、時間経過や環境の変化などで不適切なものになる可能性があるためだ。

連載第2回では、米Amazon.comの失敗についても解説した。採用候補者の履歴書を自動で審査するAIを開発したところ、女性よりも男性を高く評価する「偏見」を持つようになってしまったというものだ。この原因は、学習に使用した過去10年分の履歴書において、男性からの応募が大半を占めていたことにある。そして実際に大量の男性が採用されていたことで、AIが「女性」という性質を、低い点数を与えるシグナルと解釈してしまったわけだ。

 これは開発時の学習用データ準備の失敗ということになるが、環境や時代の変化によってAIの学習内容が時代遅れになってしまった事例という解釈もできるだろう。

 例えばいま、日本の企業がAmazonのように過去の履歴書を学習用データとした「履歴書審査AI」を導入したとしよう(ソフトバンクやサッポロビールなど、実際に採用プロセスにAIを活用する企業は既に登場している)。

 このAIは女性差別をしないように調整されているものの、過去の採用で応募してきたのは日本人ばかりだ。しかし今後、少子高齢化対策として日本で外国人が働きやすくなり、大勢の外国人がこの会社に応募するようになったとしたらどうだろうか。非常に優秀な外国人候補者がいても、AIは彼もしくは彼女を適切に評価できない恐れが大きい。

 このように、いくら過去のデータに基づいて優秀なAIを開発しても、その後の環境変化でAIのアウトプットが不適切なものになる可能性がある。そのためAIの判断精度を定期的に確認して、必要であれば新しいデータを使って「再学習」してやる必要があるのだ。

続きはソースで

ITmedia NEWS
http://www.itmedia.co.jp/news/articles/1901/25/news041.html
images


引用元: 【AI】“がっかりAI”はなぜ生まれる? 「作って終わり」のAIプロジェクトが失敗する理由 [01/25]

スポンサーリンク
2: 2019/01/25(金) 15:26:52.27 ID:OIABJxUs
そもそもAIなんてまだ出来てない
せいぜいビッグデータの活用だけだろ

11: 2019/01/25(金) 15:44:48.01 ID:VK4UsVzi
>>2
パターン分析だな

21: 2019/01/25(金) 16:55:32.29 ID:Fo3SpzLe
>>2
カメラの自動焦点や、ジャイロでの姿勢制御、漢字のカナ変換など、
30年前からAIは実用済み

50: 2019/01/26(土) 04:19:54.74 ID:nKC4j288
>>2 >>11 >>21
「AIとは何か」についての視点が違うからだろうなあ。面白いね。
「自律的に考え、次の行動を選択する」という程度の定義なら自動運転は
クリアしつつあるかもしれない。
「何をどのように学ぶかを決める」ということができるAIはまだ存在しないな。

そもそも現在のAIにあるのは単なる「評価関数」であって、「意味」は分からんしな。

52: 2019/01/26(土) 04:28:24.63 ID:U0xdo8ox
>>50
ファミコンのゲームの敵のパターンと変わらんよ
プレイヤーがこうしたら敵はこう動くっていうのが自動運転車なら実用化出来ないだろうな

75: 2019/01/26(土) 14:39:25.83 ID:3sJtwZ8N
>>52
自動運転はどういうときはどうするってパターンがすごく多いってことじゃないのかね
人間がいちいち何万何十万というパターンを定義する代わりに
機械学習で自動でやっちゃうっていうのが今のAI

76: 2019/01/26(土) 14:42:37.33 ID:jvDl6y9p
>>75
実際に一般道を1年ぐらい乗ってみた?
知ったかが今のAI

3: 2019/01/25(金) 15:28:05.96 ID:ZXdjHanE
いや、実際にそうだからだろ。

4: 2019/01/25(金) 15:29:51.23 ID:Alv65UEQ
こんな話AIに限らず昔っから変わらない

5: 2019/01/25(金) 15:32:54.03 ID:gDqYAfYi
愛がないから

6: 2019/01/25(金) 15:35:20.78 ID:/EuXhedV
いつも勉強用の最新のデータを食わせてやらないとアホになる

当分は常識の無い、部分最適のお子ちゃまかもね

8: 2019/01/25(金) 15:38:12.52 ID:1SY7a7JE
男女同数じゃないと偏見だと言うのも偏見だろう。
企業が採用したい人を採用出来るかで評価しろよ。

9: 2019/01/25(金) 15:42:51.72 ID:xGS0UHCn
女性は産休があったりするからな。
そもそも、オリンピックが差別だろ。
男女で分けなければ良いだろ。

10: 2019/01/25(金) 15:42:57.34 ID:XMvGhcj1
スピルバーグだからじゃね?

13: 2019/01/25(金) 15:47:34.37 ID:Pby2QO7n
>>10
あのAIは、
最初の不気味なパートがキューブリックで
途中からスピルバーグが撮ったんだっけ?w

12: 2019/01/25(金) 15:47:30.57 ID:G1jahaJA
製造メーカーや設備メーカーでもとりあえずIoTやれとか言われるらしい。
シーケンサー入った配電盤のデータをネットで見れるようにして整備性上げましょうか?
って言ったら、「そんなんじゃなくてIoTだよ!そんなことしてフィールドエンジニアの業務
変えてどうするんだ!」って怒られた人もいるらしいw

137: 2019/01/29(火) 11:16:06.88 ID:PlsBTdy9
>>12
サイクルタイムの短縮による生産性の向上をまず目指す、なぜなら余計なライン新設を抑制することによってコスト圧縮につながるから、そのためにモノがどういう時間間隔で作られてるか正しく計測しよう

みたいに何を目的・目標にするか、そのために何をするかを考えるのが大事なのにとりあえずIoTだからなぁ
手段と目的が逆転する典型

138: 2019/01/29(火) 11:25:05.01 ID:VLaaJ0Gl
>>137
そうそう。
目的のもう一つで多いのは機械の不調を確認することね。
それで将来の故障傾向も判るし、稼働中に故障して事故物品が生産されるのを防いだり。

とりあえず、IoT、とりあえず AI、とりあえずインターネット、とりあえずデータベース。日本の
ITは昔からこうだw 工場のライン見たこともないやつが営業やってたりするからなw

15: 2019/01/25(金) 15:50:33.36 ID:6xGO5WXU
文系や官僚はディープラーニングのAIが作って終わりBlackBox
であることを知らない 段々学習すると勘違いすらしてる

実際は選択重み付けの係数がなぜいくらなのかもわからない
作る毎に全然違う物になることが多い中身の見えない箱

そもそも熟練者がポイント抑えればAI不要の系がすごく多い
せいぜい1次関数やその指数関数で説明出来ちゃう

68: 2019/01/26(土) 13:11:58.41 ID:IUi21jJg
>>15
それを説明出来ないジャップ理系のせいで日本が没落したと
ものさえ作ればそれで良いってゴミ理系しかいないもんな日本って
キモオタの逃げ場。それが今の日本の理系
上に立つ気も力もないザ・底辺。ジャップ理系^^

73: 2019/01/26(土) 14:17:38.80 ID:qz/j23vQ
>>68
日本を駄目にしたのは文系・理系の概念

理系だから国語ができなくてもいい、経済オンチでもいい
文系だから数学ができなくてもいい、技術を知らなくてもいい
こんな奴が多すぎる

146: 2019/02/07(木) 18:11:10.08 ID:VJF3WGP9
>>68

これがまかり通っている事が問題だと思うんだ
理解しようとしないで説明を求めてる

CEOは聞いたことあってもCTOとか知らない人が多い
日本のオタク文化は海外で認められた事契機の物が結構ある気がする

16: 2019/01/25(金) 15:52:39.61 ID:G1jahaJA
まぁAIは複数のパラメータのどこに相関性があるか見つけ出すために使うのがいいんじゃないの。
どのパラメータがいま重要か抑えて、そこからは人が見て線形計算で最適化していけばいいわけで。

110: 2019/01/28(月) 03:00:45.90 ID:ngR9wgSi
結果こんな>>16みたいな馬鹿がAIに騙されてAIすげーとか言い出す
単なる人間のパターンをいくつか集計してるだけに過ぎない凡作業をw

17: 2019/01/25(金) 15:56:05.22 ID:ShRUB7ol
そもそも既存のシステムが麻雀じゃないけど『染める』ことで効率が上がるように出来てるから
工場のラインごとに機械が違ったら効率が落ちるのと同じこと
現在のAI技術が既存のデータの集積に有る以上それに従って運用するしかない

19: 2019/01/25(金) 16:18:37.31 ID:LV5X4cdY
AI「人間の望む答を出すのがAIとちゃうでぇ」

20: 2019/01/25(金) 16:33:19.59 ID:jL52TNE6
スマートスピーカーをみてわかるようにAIなんて全く使えない。

囲碁とかすごい?

22: 2019/01/25(金) 17:11:56.03 ID:Qfs2grzx
アホはアホなAIしか作れないって

27: 2019/01/25(金) 18:30:45.70 ID:xGS0UHCn
要するに、確率・統計に少しの知能と、
インターフェースを持たせただけだろ。