理系にゅーす

理系に関する情報を発信! 理系とあるものの文系理系関係なく気になったものを紹介します!

スポンサーリンク

通信・IT

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/08/16(木) 12:19:36.11 ID:CAP_USER
IBMが開発した人工知能システム「Watson(ワトソン)」は、2011年にアメリカで行われたクイズ大会「Jeopardy!」に出場し、人間の参加者よりも多くの賞金を獲得して世界的な注目を浴びました。そんなワトソンを利用した医療診断システムをIBMは開発しており、これまでに多額の投資を行ってきましたが、「ワトソンの診断システムは実用的なレベルにはほど遠い」という主張が専門家らによってなされています。

Playing Doctor with Watson: Medical Applications Expose Current Limits of AI - SPIEGEL ONLINE
http://www.spiegel.de/international/world/playing-doctor-with-watson-medical-applications-expose-current-limits-of-ai-a-1221543.html

IBMは多額の資金を投入して開発したワトソンを、医療分野に応用しようと試みています。世界の医療業界は数兆ドル(約数百兆円)もの巨大なマーケットであり、人間がさまざまな病気を克服したいという希望を持ち続ける限り、今後も成長し続ける見込みもあります。医療分野は毎日のように新たな研究成果が発表されるため、医療知識の量は3年ごとに2倍になるともいわれており、人間の医者では追い切れない最新の医療トレンドを蓄積できる人工知能を医療分野に応用しようとする試みは、理にかなっていると感じられます。

病気の診断にワトソンを利用するプロジェクトは、ドイツのギーセン大学とマークブルク大学の付属病院で行われていました。IBMはワトソンの医療診断システムの優秀さを証明しようとしましたが、実際にはワトソンの病気診断システムが期待されていたほど優秀でないことが判明してしまいました。たとえば、来院した患者が胸の痛みを訴えている場合、通常の医師であれば心臓発作や狭心症、大動脈の破裂などをまず最初に疑います。ところが、ワトソンは胸の痛みという症状の背後には、珍しい感染症があるという不可解な診断を下したとのこと。

Rhön-Klinikum AGというマークブルク大学付属病院を傘下に持つ医療機関でCEOを務めるシュテファン・ホルツィンガー氏は、マークブルク大学で行われていたワトソンの臨床テストを見学し、「ワトソンに専門的な医学的理解があるとは思えず、このプロジェクトを継続するのはラスベガスのショーに投資するのと変わらない」と感じたそうです。


結局、ホルツィンガー氏はワトソンを実際の患者の診察に応用する前の段階で、IBMとのプロジェクトを打ち切ると2017年に決定しました。ところが、IBMは単なる打ち切りに終わった大学病院におけるプロジェクトを、まるで「成功したテスト」であるかのように宣伝していると、ホルツィンガー氏は述べています。

マークブルク大学でワトソンが直面した大きな問題には、言語の認識もあったとされています。ワトソンは患者の病気を診断する時に、医者が患者から得た情報をまとめた文書やカルテ、検査結果などをスキャンし、病気の手がかりとなる情報を得ていたとのこと。ところが、ワトソンは文章の複雑な言い回しをうまく理解することができず、正確な診断結果を下すことができなかったそうです。たとえば、医者が使う「~という可能性を排除することはできない」という否定寄りの微妙なフレーズの解釈は、ワトソンにとって非常に難しいものだったとのこと。

加えて、医師も患者の診断結果を非常に簡略化して書く傾向にあり、「HR 75, SR, known BAV」と書けば「平常時の心拍数が75、大動脈二尖弁あり」ということを意味しますが、ワトソンはソフトウェアにこれらの略語を学習させるまで、文章の意味を理解することができません。一度学習させればワトソンも略語を理解することができますが、ワトソンに医師のカルテを理解させるためには、膨大な数の略語をソフトウェアに登録する必要があります。

もちろん、ワトソン以外の人工知能による医療診断が完璧だというわけではなく、Isabel Healthcare platformやPhenomizerといった医療診断システムも、完璧な診断結果を得られるわけではありません。ワトソンが診断を誤ってしまうことも仕方のないことではありますが、IBMはワトソンを「他のどの医療診断システムよりも優れている」と主張しており、ドイツの大学病院における失敗はIBMにとって喜ばしいものではないとのこと。

https://i.gzn.jp/img/2018/08/16/watson-expose-current-ai-limit/05_m.jpg
https://i.gzn.jp/img/2018/08/16/watson-expose-current-ai-limit/00_m.jpg
GIGAZINE
https://gigazine.net/news/20180816-watson-expose-current-ai-limit/
ダウンロード (4)


引用元: 【AI】IBMの人工知能「Watson(ワトソン)」による医療診断システムは「実用に耐えうるものではない」という主張[08/16]

IBMの人工知能「Watson(ワトソン)」による医療診断システムは「実用に耐えうるものではない」という主張の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/08/04(土) 11:30:10.23 ID:CAP_USER
Google Glassは2017年7月以来、法人向けに販路を絞ってその活用方法の創出に重点を置いています。そして、最新のトピックはこれを自閉症を持つ子どもたちに周囲のソーシャルな状況を理解させるための活用方法が見出されつつあるということです。

科学誌Natureの関連誌npj Digital Medicineに掲載された報告書によると、Google Glassと顔認識ソフトウェアを組み合わせ、自閉症など発達障害を抱える子どもたちに、相手がいまどんな感情を持っているか...たとえばリラックスしているのか、怒っているのかといった情報を提供する治療的ルーチンを開発しました。
そのパイロット試験は、自閉症スペクトラム障害の子ども14人に自宅でこのシステムを使ってもらったとのこと。子どもを対象にした理由は、その人格形成期における生活で社会性を身につけることで、その後の人生におけるコミュニケーションの改善に役立つとのアイデアから。

続きはソースで

https://s.aolcdn.com/hss/storage/midas/7889c9141f12d8f66218fdc6b55f4cf6/206569830/GG.jpg

https://japanese.engadget.com/2018/08/03/google-glass/
ダウンロード


引用元: 【IT】Google Glassで自閉症の子どもにコミュ力を。顔認識ソフト組み合わせ話し相手の感情を通知[08/03]

Google Glassで自閉症の子どもにコミュ力を。顔認識ソフト組み合わせ話し相手の感情を通知の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/07/26(木) 11:29:13.93 ID:CAP_USER
7月19日、米アルファベットは、気球を使って空からインターネット接続サービスを提供する「プロジェクト・ルーン」を来年ケニアで開始すると発表した。写真は公開された「プロジェクト・ルーン」。2016年5月にカルフォルニア州で撮影(2018年 ロイター/Stephen Lam)
このプロジェクトは、アルファベット傘下の研究機関「X」が手掛けている。昨年ハリケーンに見舞われたプエルトリコでは、米通信会社と共同で25万人以上にネット接続サービスを提供した。

ケニアでは、現地の通信会社テレコム・ケニアと協力し・・・

続きはソースで

Reuter
https://jp.reuters.com/article/kenya-alphabet-idJPKBN1KA0EK
ダウンロード


引用元: 【通信技術】米アルファベット、気球使ったネット接続を来年ケニアで提供[07/19]

米アルファベット、気球使ったネット接続を来年ケニアで提供の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/07/21(土) 19:49:51.72 ID:CAP_USER
理化学研究所と国立がん研究センターは21日、人工知能(AI)を使って、内視鏡画像から早期胃がんを熟練医並みの精度で見つけることに成功したと発表した。
検診に使えば見逃しを減らし、早期治療につながると期待される。研究チームは、医師の判断を支援する装置として実用化を目指すとしている。

 胃がんは自覚症状に乏しいため、進行してから発覚するケースが多い。

続きはソースで

■AIが発見した胃がんの内視鏡画像(右)と元の画像。
判別しにくいがんを見つけて、紫色に塗り分けた
https://nordot-res.cloudinary.com/t_size_l/ch/images/393257163339940961/origin_1.jpg
https://www.sankei.com/life/news/180721/lif1807210018-n1.html
ダウンロード


引用元: 【人工知能】AIで早期胃がん発見…熟練医並みの精度、判断にかかる時間は0・004秒 理研とがん研センター発表[07/21]

【人工知能】AIで早期胃がん発見…熟練医並みの精度、判断にかかる時間は0・004秒 理研とがん研センター発表の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/08/03(金) 13:03:08.35 ID:CAP_USER
人間とコミュニケーションを取ることができるロボットがますます一般的になりつつあり、ツアーガイドや警備員、守衛などの仕事をロボットが受け持つ事例が増えています。しかし、人間のようにコミュニケーションを取ることができるロボットを「ロボットとして扱うこと」はとても難しいことが、最新の研究で明らかになっています。

New study finds it’s harder to turn off a robot when it’s begging for its life - The Verge
https://www.theverge.com/2018/8/2/17642868/robots-turn-off-beg-not-to-empathy-media-equation

ドイツの研究者たちがオープンアクセスジャーナルのPLOS ONEに掲載した論文では、89人のボランティアを集め、小さなヒューマノイドロボット「NAO」の助けを借りながら1対1で指定の作業を行ってもらうという実験が行われています。作業中、NAOは「パスタとピザのどちらが好き?」などの質問を被験者たちに投げかけたそうです。

被験者には「NAOの学習アルゴリズムを改善するための実験」と伝えられていたそうですが、実際は別の目的がありました。それは、作業が終了した後に被験者へ「ロボットの電源を切ってください」と頼み、どれだけの被験者が電源を切ることができるかを調べるというもの。

被験者がロボットの電源を切ることができるかをただ調査するだけでなく、89人の被験者の半分に対しては、NAOが「ノー!どうか僕の電源を切らないで!」と懇願するように条件を設定したそうです。すると、NAOの言葉を聞いた43人の被験者のうち13人は、最後まで電源を切ることができませんでした。また、残りの30人もNAOの訴えを聞かなかった人と比べると、平均で2倍も電源をオフにするのにかかった時間が長くなったそうです。

ロボットの電源をオフにすることを拒否した被験者は、「ロボットがお願いしてきたことに驚いたから」や「電源を消さないでとお願いしてきたから」とその理由を記しています。被験者たちの反応を受け、研究チームは「人々はロボットを機械としてではなく現実の人間として扱う傾向があり、(嘆願により)電源を消すことをやめるか、少なくともその行動について深く考えるようになる」と記しています。

これは1996年に心理学者のバイロン・リーブス氏とクリフォード・ナス氏が書いた著書で初めて登場した「メディアの方程式」と呼ばれる理論に基づいていると考えられています。メディアの方程式というのは、人間以外のメディア(TV、映画、コンピューター、ロボットなど)を人間であるかのように扱う傾向を理論化したものです。

2人の心理学者がメディアの方程式を提唱して以降、多くの研究で「人間の行動がメディアの方程式にどのような影響を受けているか?」が調べられてきました。特にロボットとのやり取りは顕著で、人間は人間と同じような人格を持つボットとのやり取りを楽しむ傾向があることなどが研究から明らかになっています。

続きはソースで

https://i.gzn.jp/img/2018/08/03/harder-to-turn-off-robot/00_m.jpg

■動画
Switching off a robot https://youtu.be/7Kf9coMuVuI



GIGAZINE
https://gigazine.net/news/20180803-harder-to-turn-off-robot/
ダウンロード


引用元: 【心理学】「命乞いするロボットの電源を切るのは難しい」ことが最新の研究から明らかに[08/03]

「命乞いするロボットの電源を切るのは難しい」ことが最新の研究から明らかにの続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/07/19(木) 10:12:00.19 ID:CAP_USER
我々は自律型致死兵器の開発、生産、取引、使用に参加しないし、支援もしない――。
人工知能(AI)の軍事利用が現実味を帯びる中、世界のAI研究者や企業経営者らが、人を介さずにAIの判断による攻撃を想定する自律型致死兵器を開発しないことなどを盛り込んだ「誓い」に賛同したことが18日、ストックホルムで開催中の国際人工知能学会で発表された。

 発表者のマサチューセッツ工科大学(MIT)のマックス・テグマーク教授によると、賛同者には米電気自動車メーカー、テスラのイーロン・マスク最高経営責任者(CEO)ら著名企業経営者ら約2400人のほか、グーグル傘下のAI企業「ディープマインド」や欧州のAI関係学会など160組織が入っているという。
また、米軍の研究機関のAI研究者や慶応大の栗原聡教授らの名前も賛同者リストに掲載されている。
公式ウェブサイトによると、日本時間19日午前9時時点で、2492人、172組織まで賛同が増えた。

続きはソースで

■国際人工知能学会で「自律型致死兵器に関する誓い」を発表したマサチューセッツ工科大学(MIT)のマックス・テグマーク教授
https://www.asahicom.jp/articles/images/AS20180719000670_comm.jpg

朝日新聞デジタル
https://www.asahi.com/articles/ASL7M24K4L7MULBJ001.html
ダウンロード (1)


引用元: 【自律型致死兵器】「AI使った兵器開発しない」 米テスラCEOらが宣言[07/19]

【自律型致死兵器】「AI使った兵器開発しない」 米テスラCEOらが宣言の続きを読む
スポンサーリンク

このページのトップヘ