24112048_s
1: 2021/12/27(月) 07:54:47.61
ワイ「人間では説明できないものを予測させるためのシステムですので説明はできません」

上司「説明できないなら使えないじゃないか、全部会議で説明しなきゃいけないんだから
ちゃんと辻褄の合う説明資料を作ってくれ」

4: 2021/12/27(月) 07:55:12.59
これがあるんよな
DeepLも仕事で使えん

6: 2021/12/27(月) 07:55:39.61
ソースコード全部読み上げたらええやん

8: 2021/12/27(月) 07:56:13.80
人に説明できないなら理解していないのと同じだ

10: 2021/12/27(月) 07:56:23.71
説明することを想定したシステムじゃないから無理

16: 2021/12/27(月) 07:57:43.14
>>10
つまりロジックもクソもない全くの適当な予想かもしれないわけだな?

12: 2021/12/27(月) 07:56:38.22
説明が求められるようなものにAI使うな
どうしても必要ならXAIで納得させろ

13: 2021/12/27(月) 07:57:08.34
説明性と性能(表現力)はトレードオフ。
ちゃんと現場ニーズ確認してつくんなさい。
XAI系のアルゴリズム(SHAPとか)も勉強しろ

14: 2021/12/27(月) 07:57:35.78
いや予測に対して解釈をつけることは可能やろ

18: 2021/12/27(月) 07:57:57.60
教師あり学習なら予測結果の考察できるじゃん

21: 2021/12/27(月) 07:58:33.68
>>18
正確じゃない

29: 2021/12/27(月) 08:00:01.92
>>21
統計みたいなもんだから正確もクソもあるんか?

36: 2021/12/27(月) 08:01:39.13
>>29
「みたいなもん」の範囲がデカすぎるやろ
統計はちゃんと人間が理解可能な体系やんけ

22: 2021/12/27(月) 07:58:39.01
過去の実測値を予測して乖離を示さな納得せんやろ
予測精度まで上に説明する時は出さなアカン

25: 2021/12/27(月) 07:59:22.54
AIにだって予測には過程があるやろ
その過程をお前が分析して言葉にしろや

28: 2021/12/27(月) 07:59:48.97
>>25
そんなん無理やで
スーパーエンジニアでも無理

38: 2021/12/27(月) 08:01:58.39
>>28
じゃあスーパーエンジニアはどうやって過程をAIに叩き込ませてるんや

41: 2021/12/27(月) 08:02:30.20
>>38
アルゴリズムはこれですと提示することと予測結果の解釈を説明することは全然違うぞ

26: 2021/12/27(月) 07:59:30.44
経営に説明するのに機械学習使うやつあかんやろ
特に長期的な予測は

30: 2021/12/27(月) 08:00:12.10
CNN型なら畳み込みは重みとの相互相関でmax関数の部分は相関が一番高いのを通すってステージの解釈は出来るけど全体的には難しい

31: 2021/12/27(月) 08:00:16.45
まあ説明できないものが使えない場面は多すぎるからな

32: 2021/12/27(月) 08:00:57.43
社会人力足りんわ
正しい理論を説明しろって言われてるんじゃなくてその場を納得させるための材料をくれって言われてるんやで

33: 2021/12/27(月) 08:01:05.82
アルゴリズムはこれですと言うしかない
根拠の説明まではできない

35: 2021/12/27(月) 08:01:31.44
イッチが1番機械学習分かってなくて草

42: 2021/12/27(月) 08:02:38.03
そのAIの正しらしさを説明できな採用できんやろ
過去のデータとの整合率とかで説明しろよ

44: 2021/12/27(月) 08:03:13.39
>>42
そんなんでええんか
それ解釈の説明になってないと思うけど

68: 2021/12/27(月) 08:06:45.08
>>44
ええよ
なんとなく結果とあってれば過程は適当でもええ
OPSがそうやろ

46: 2021/12/27(月) 08:03:19.90
説明かんがえるAIも作ったらええやん

50: 2021/12/27(月) 08:04:23.81
>>46
そんなんドラえもん作るようなもんやで

49: 2021/12/27(月) 08:04:05.85
機械学習はブラックボックスやからな
無理って事をちゃんと説明したらええんちゃう?

51: 2021/12/27(月) 08:04:45.77
>>49
無理って言ってんのになんとかしろって言われるんだよなぁ

69: 2021/12/27(月) 08:06:58.09
>>51
機械学習がなんなのか説明したか?

52: 2021/12/27(月) 08:04:46.56
AIの画像解析やってる会社の後輩が説明できない言ってるのみて
すごい高度なことやってるんやなと感心したわ

60: 2021/12/27(月) 08:06:03.13
機械学習がどういう物か説明してそれによって出たデータがこれっていうのが説明になるんちゃうの

63: 2021/12/27(月) 08:06:22.68
説明資料作ってくれるAIの登場が待たれる

66: 2021/12/27(月) 08:06:26.20
CNNでもヒートマップ使ってAIがどこに注目してるか確認できるやろ

72: 2021/12/27(月) 08:07:00.86
機械に喋らせたほうが早そう

74: 2021/12/27(月) 08:07:14.37
一応は既存の反復計算アルゴリズムのアンローリングって言う
解釈可能性を上げた方法あるけどドメイン知識に引っ張られるし汎用性低い

77: 2021/12/27(月) 08:07:31.47
これ自分で組んでるわけじゃなくてテキトーにライブラリから持ってきてるんか
そら説明は無理やわ
無能部下に対する上司の期待が高すぎ

128: 2021/12/27(月) 08:14:59.71
>>77
最近流行りの深層型だと層重ね過ぎて原理知ってパラメータ見ても意味わからんしだから解釈可能性上げる為に手法提案されとるけど
構造を縛って汎用性犠牲にしたりする

82: 2021/12/27(月) 08:08:16.44
うちにも似た話あるから気にはなる
ブラックボックス化されたとこどう説明するんやろ

92: 2021/12/27(月) 08:09:53.64
>>82
原理的に無理
アルゴリズムの提示やそれっぽいテキトーな妄想の開陳以上の説明はできない

107: 2021/12/27(月) 08:11:53.72
>>92
テストデータ結果の傾向から、ある程度は推察はできるやろ

84: 2021/12/27(月) 08:08:28.34
プログラム組んで結果の評価するとこまでは自分の仕事やろ

87: 2021/12/27(月) 08:09:25.96
学習ロジック説明するだけやろ

91: 2021/12/27(月) 08:09:44.30
特徴量と目的変数用意して型通りのガラガラポンしか出来ない典型的無能
データ分析向いてないよ

106: 2021/12/27(月) 08:11:50.69
因果関係がわかるものではないって正直に言え

109: 2021/12/27(月) 08:12:21.40
>>106
そうそう、ワイが言いたいのはそれそれ

108: 2021/12/27(月) 08:12:15.57
こんなん許したら誰が作ったかもわからない謎ライブラリでロジック組み立ててAIがやりました!って言えちゃうやん

111: 2021/12/27(月) 08:12:57.14
>>108
ほとんどのAIがそうやで

112: 2021/12/27(月) 08:13:23.83
>>111
それじゃ“ビジネス”にならないよね?

110: 2021/12/27(月) 08:12:43.24
こういう奴は大体データリークとかに引っかかって炎上案件作る

114: 2021/12/27(月) 08:13:32.16
サイコロ猫に振らせてるのと変わらんからな

117: 2021/12/27(月) 08:13:53.29
必要なのは一般人に「わかった気にさせる」説明能力よな

コロナのウイルスとワクチンの原理とかもそうだけど

125: 2021/12/27(月) 08:14:50.58
将棋の評価点みたいに数字出るようにしたらええんちゃう

143: 2021/12/27(月) 08:17:23.65
>>125
あれも予測結果だけや
なんでその数値が出てるかっていう盤面の解析は人間がやってるんや
イッチはそれができない

146: 2021/12/27(月) 08:17:54.68
ワイの知り合いAIやってるけど実際これでAI採用出来ないって見送る業種もあるらしいわ

150: 2021/12/27(月) 08:18:23.64
>>146
生命に関わるやつだとそうやな、自動運転とか

149: 2021/12/27(月) 08:18:22.48
赤ちゃんが泣いてるときって
普通の人はお腹空いたとかトイレとか予想するんだわ
イッチは喋らないで泣いてるだけだから何が起きてるかわかりませんって言ってるのと同じなんだわ

190: 2021/12/27(月) 08:24:20.76
>>149
それはあくまでも予想やからな
赤ちゃんだから大人に想像のつかない突拍子のない理由で泣いてる可能性だってある
それじゃあ使えませんって業種もあるみたいやで

200: 2021/12/27(月) 08:26:24.66
>>190
人命に関わる所やと使えんわな

169: 2021/12/27(月) 08:20:50.48
このプログラムは○○法をもとに何々するアルゴリズムが組まれています
これは解析対象がどーこーなので適当だと考え使いました

すら言えんのかい

186: 2021/12/27(月) 08:23:18.59
人間「機械がやりました、俺は悪くねぇ!」

206: 2021/12/27(月) 08:27:11.33
「日本の朝メシに、なぜ卵かけご飯や納豆が人気なの?」


正しい答えは「知らねぇよ」やろ

しかしサラリーマンなら
「朝からよく噛むのは疲れるので、ごはんを飲み込みやすくしたものが定番となった可能性があります。推測ですが。他国でも~」
とかメチャクチャ適当なことをサッと言うねん

あまりにも適当やとあかん
一瞬「そういうもんか?」と思わせたら勝ちや

208: 2021/12/27(月) 08:27:34.92
>>206
お前の解釈挟み込んだらAI使う意味ないやん

231: 2021/12/27(月) 08:31:55.92
>>208
AI怖い人いるだろ
そういう人に、怖くないですよ
AIが言ってるのはーと言うことでーって安心させるタスクが生まれてる

218: 2021/12/27(月) 08:29:35.44
機械学習の仕組みと
入力はこれですでいいだろ

どうしてこの結果になったかは、アルゴリズムの説明すればいい

引用元 : ワイ「機械学習による予測がこれです」上司「解釈を説明して」ワイ「え?」