1: 2018/01/29(月) 22:11:57.72 ID:CAP_USER
◆「AI裁判官」は全然公平ではなかった! 差別やミス連発で人間以下… 人工知能裁判のお粗末な実態

アメリカの一部の州では、裁判でコンピュータアルゴリズムが使われている。
刑務所へ行くか執行猶予がつくか、懲役は何年か、保釈をするかしないか、コンピュータが計算したリスクスコアが使われているのだ。
だが今月17日の「Science News」によると、その判定アルゴリズムが本当に公平なのかどうか、当のアメリカで大きな議論になっているという。

■COMPASとは

有罪の被告を刑務所に入れるか否か、保釈申請を認めるか否かなどを裁判で決めるとき、裁判官や陪審員たちは被告の家族や友人、財産の状況から過去の犯罪歴といった大量の資料に目を通して判決を出すことが求められる。
だが、アメリカのいくつかの州ではこの過程をコンピュータアルゴリズムに任せている。
アルゴリズムは入力された犯罪歴、年齢、人種、雇用状況、教育レベル、薬物使用状況などに加え、家族の犯罪歴などから再犯や犯罪発生のリスクスコアを判定し、保釈・判決・仮釈放などを決定するのだという。

アルゴリズムを開発したのは国家機関ではなく、民間企業だ。
例えばウィスコンシン州で使われる「COMPAS」はNorthpointe社(現在はequivant社)が開発したもので、どのように判定が行われているのかの詳細は不明だ。

このブラックボックスが本当に公平なのかは疑問が多く、白人より黒人のほうがリスクを高く判定されているという指摘もあった。
過去には裁判での使用は不適切であるとの訴訟も起きている。

そこで、米国ダートマス大学のコンピュータサイエンス研究者であるJulia Dressel氏とHany Farid氏は、COMPASと人間の予測のどちらが正しいか検証を行った。
COMPASで評価されたフロリダ州の被告人1000人を無作為に抽出し、年齢や性別、家族構成、逮捕後から2年間の逮捕情報などの情報をデータベース化した。
そして、クラウドソーシングサイトで集めたボランティア400人にそれぞれ被告50人分のデータを渡し、2年後までに再犯するかを予測させた。

続きはソースで

TOCANA 2018/01/29
http://tocana.jp/2018/01/post_15729_entry_2.html
ダウンロード (1)


引用元: 【人工知能】「AI裁判官」は全然公平ではなかった 人種差別やミス連発で人間以下 人工知能裁判のお粗末な実態

スポンサーリンク
2: 2018/01/29(月) 22:15:02.23 ID:0zVyLSQW
長期受刑者の仮釈放申請なんかは裁判官も
「わからねぇ~」
だろうからなぁ。

4: 2018/01/29(月) 22:17:07.58 ID:HDwV4Coz
統計で算出させてるからや

18: 2018/01/29(月) 22:37:13.48 ID:Y3VeqX5c
>>4
統計だけでは簡単には出てこない。

多分偏見に近いようなコードが存在する。
日本の街金の信用算定プログラムでもそんな感じの集積してた、

55: 2018/01/30(火) 00:31:08.18 ID:ULpAF7mF
>>18
どーせディープラーニング(笑)なんじゃない?
アレは予測は出来るけどその根拠は示せないってシロモノだから。
明日の昼は晴れるか?みたいな話なら良いけど、裁判や診療みたいなクリティカルミッションに使うなら、根拠や妥当性の説明も求められるから、ディープラーニングの弱点が良く分かるね。

…でもトカナスレかよw

5: 2018/01/29(月) 22:18:45.88 ID:hvX+0pPN
学習した過去の判例通りだったりw

7: 2018/01/29(月) 22:19:32.69 ID:VU2fgGLt
将棋や囲碁もつい最近までそうやって馬鹿にしてたんだよ

23: 2018/01/29(月) 22:38:51.03 ID:Y3VeqX5c
>>7
だから?
裁判は囲碁や将棋のような簡単な勝ち負けはないよ。

8: 2018/01/29(月) 22:24:10.82 ID:828Tj8Ab
人間と同じなら完璧だろ、AIは未来予知能力じゃねーよ

9: 2018/01/29(月) 22:24:25.00 ID:tUrla8WW
ソースがトカナって時点でなおさら
信用できない結果が得られたな

10: 2018/01/29(月) 22:26:06.87 ID:htRvspxq
AIでもなんでもネェな
ルールに則った判断を、人間がプログラムしたんじゃ意味がねェだろう

11: 2018/01/29(月) 22:26:29.09 ID:bWIgI6Db
アルゴリズムがおかしい

12: 2018/01/29(月) 22:27:04.64 ID:lD4EI+9q
さすがに今現在のAI技術でまともな裁判ができると思ってる奴なんかいねえよ!

14: 2018/01/29(月) 22:31:39.71 ID:Lz5kvjxK
コンピュータの下した判断が中立であって人間の判断がブラックボックスで偏っている
の間違いじゃないのw

15: 2018/01/29(月) 22:32:26.46 ID:HiOBeAfo
つまりAIって過去の判例から画一的な審判はできるけど
情状酌量ができないってことでしょ

16: 2018/01/29(月) 22:32:41.48 ID:ZDHttULC
100年後にこの話を聞いた人類は大笑いするのであった笑

17: 2018/01/29(月) 22:33:03.29 ID:I2g02aTp
(´・ω・`)人種差別は正しいとは考えないの?

21: 2018/01/29(月) 22:38:30.75 ID:eXe5yqAa
>>17
いやさ、人種差別的に予測して外したってのがこの話じゃんすか。

20: 2018/01/29(月) 22:37:42.13 ID:kNJ+/yHJ
統計的にある人種の方が犯罪率が高い再犯率が高い
だからそれを判断に反映させる
そういう仕組みだった時
これは差別になるのかどうなのか
まあ人種を判断材料にしなきゃいいはなしか
じゃあ場所を判断材料にしたとき
場所によって人種分布に偏りがある場合どうするか

22: 2018/01/29(月) 22:38:39.20 ID:y069MqSv
自分と同じように「他人にもかけがえのない人生がある」ということ

24: 2018/01/29(月) 22:40:22.20 ID:eXe5yqAa
逆に「誰を出世させるか」についてペーターの法則っつーのがですね

25: 2018/01/29(月) 22:42:46.02 ID:xGsPwV5b
間違いを素直に学習するだけすごいだろ
囲碁将棋を見ろよ

27: 2018/01/29(月) 22:47:05.31 ID:wOf0oRn0
>アルゴリズムは入力された犯罪歴、年齢、人種、雇用状況、教育レベル、薬物使用状況などに加え

入力事項に人種があるなら、出力する結果に人種が影響するに決まってるな・・・
最初から分かり切った話ww

45: 2018/01/29(月) 23:26:55.22 ID:/qtOj4h5
>>27
最初から人種入れなきゃ良いのにな

白人の方が厳しく裁かれてるという結果が出たら無視するだろうし

49: 2018/01/29(月) 23:40:56.71 ID:IYhZMDNG
>>45
そういうことだよね
人種を入力しないで出した結果と比較するべきじゃ無いのかな

58: 2018/01/30(火) 00:45:11.01 ID:t62BZ4kH
>>45
人種によって明確な差が出るパラメータがあるだろうから
外すことはできないんじゃないかな

146: 2018/02/01(木) 05:11:02.18 ID:hA29Lu/4
>>58
いや、結果として人種で差がでるとしても、人種をパラメーターに使ってはいかんよ
黒人だから犯罪を犯すんじゃなくて、貧しいから犯罪を犯す
黒人よりも白人の方が貧しい人が多い

147: 2018/02/01(木) 09:38:48.75 ID:7vhpJ1bf
>>146
君の言う通りなら、資産や所得をパラメータに入れても、黒人に不利な判定ばかり
という事になるよ。

35: 2018/01/29(月) 22:56:50.24 ID:YGVpVdmW
AIって学習型コンピューターでしょ
学習した結果なんでしょうw

36: 2018/01/29(月) 22:59:38.49 ID:yB0dPln7
>>35
人間の脳とは完全に異なる似ても似つかない代物だからね

40: 2018/01/29(月) 23:12:45.22 ID:Q99QH88P
日本の裁判なら完璧な答えをAIは出すだろ
なんせ、過去の判例を全部入力していれば、近い答えを出す。

47: 2018/01/29(月) 23:33:54.19 ID:mJHS0cQ2
偏見差別以前に判例をひっくり返せないだろ

48: 2018/01/29(月) 23:37:22.40 ID:W/vA+B5D
AI失業しそうな法曹関係者、必死のネガキャンw

56: 2018/01/30(火) 00:38:36.78 ID:t62BZ4kH
人間以下じゃなくて人間と同等という結果じゃん
だったらAIにやらせた方が早い