理系にゅーす

理系に関する情報を発信! 理系とあるものの文系理系関係なく気になったものを紹介します!

スポンサーリンク

ディープラーニング

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/03/21(水) 11:14:18.68 ID:CAP_USER
静止画なのに回っているように見える「錯視」について、
深層学習(ディープラーニング)で自ら学習する人工知能(AI)も、人間と同様に「回っている」と誤って判断し、錯視が起きていることを、基礎生物学研究所(愛知県岡崎市)と立命館大学(京都市)などの共同研究グループが発見し、国際学術誌で発表した。

AIの深層学習は、世界のトップ棋士を次々と破った「アルファ碁」で注目を集めた新技術。
画像など膨大なデータを読み込み、判断や予測能力を自ら磨く。画像診断などにも活用されている。

 研究グループは、人の脳と同様に目で見る情報で予測を修正しながら学習するソフトを導入。

続きはソースで

画像:円が回転して見える「蛇の回転錯視」
https://cdn.mainichi.jp/vol1/2018/03/21/20180321k0000e040220000p/6.jpg

毎日新聞
https://mainichi.jp/articles/20180321/k00/00m/040/191000c
ダウンロード


引用元: 【人工知能】AI誤って「回転」と錯視…人間同様に 立命大など発見「AIが錯視というエラーを起こす可能性が分かった」[03/21]

【人工知能】AI誤って「回転」と錯視…人間同様に 立命大など発見「AIが錯視というエラーを起こす可能性が分かった」の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/02/18(日) 02:17:13.38 ID:CAP_USER
 アメリカの研究チームは人工知能(AI)を使って地震の検出と位置特定をするシステム「ConvNetQuake」を開発しました。
従来のシステムは体感できないほど小さな地震を検知することを苦手としていましたが、「ConvNetQuake」はAIを使用することで、大小さまざまな地震を検知することが可能になったと、海外メディアのFuturismが報じています。

A New AI Detected Seventeen Times More Earthquakes Than Traditional Methods
https://futurism.com/ai-earthquakes-traditional-methods/

日本だけでなく、アメリカにおいても地震が数多く発生しており、南カリフォルニアだけでも毎年約1万回の地震が発生しているとのことです。
しかし、その地震の多くは体感できるものでもなければ、自然発生したものでもないそうで、石油・ガス業界の企業により、産業排水を地下深くに注入していることを原因としています。


「ConvNetQuake」はディープラーニングによる地震の検出と位置特定を行うシステムです。
特殊なアルゴリズムを用い、揺れが自然発生によるものか人為的なものかを地震動の測定値から区別するものとなっています。

続きはソースで

関連ソース画像
https://i.gzn.jp/img/2018/02/16/convnetquake/01_m.png

GIGAZINE
https://gigazine.net/news/20180216-convnetquake/
ダウンロード (5)


引用元: 【地震】AIを使用した地震検知が従来方式の17倍以上の地震を検出することに成功[02/16]

AIを使用した地震検知が従来方式の17倍以上の地震を検出することに成功の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/01/30(火) 15:07:10.10 ID:CAP_USER
人工知能(AI)を活用し、内視鏡画像から胃がんを高い精度で検出するシステムを開発したと、公益財団法人がん研究会(東京都)などが発表した。

 熟練した医師に匹敵するレベルといい、早期発見や正確な診断につなげたい考え。

 同会が運営するがん研有明病院などで診断した1万2000枚以上の胃がん画像のデータを、コンピューターが自ら規則性などを探し出す先端技術「ディープ・ラーニング(深層学習)」でAIに学ばせ、病変を見つけられるようにした。

 学習用とは別の画像2296枚を使って能力を検証したところ、77病変のうち71病変を検出(検出率92・2%)。

続きはソースで

yomiDr. / ヨミドクター(読売新聞)
https://yomidr.yomiuri.co.jp/article/20180129-OYTET50000/
ダウンロード


引用元: 【医学/テクノロジー】胃がん、AIで高精度検出「熟練医に匹敵するレベル」…がん研がシステム開発[18/01/29]

胃がん、AIで高精度検出「熟練医に匹敵するレベル」…がん研がシステム開発の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/01/18(木) 02:58:09.92 ID:CAP_USER
東京大学の原田達也教授らは人工知能(AI)を使って2次元の画像から3次元の物の形を高精度で認識する技術を開発した。
深層学習(ディープラーニング)で多くの画像を学ばせると、1枚の画像から物の形を推測できるようになり、実物との表面の一致率が6割と世界最高水準になった。空間を認識できるロボットなどに応用し、
作業の精度を高める用途を想定する。

 原田教授らは様々な角度から表示した飛行機やイスなど13種類の被写体の画像約3万枚を学習データに使った。
画像が推測した形と本当の形との差が小さくなるように、人の脳をまねたニューラルネットワーク(神経回路網)の計算モデルを構築した。

 2次元画像から3次元に落とし込む際は、これまで「ボクセル」と呼ばれる多くの立方体を積み重ねる手法が多く使われていた。
深層学習を使うのは比較的簡単にできるが、立方体にでこぼこがある分、精度を上げるのが難しい。

続きはソースで

画像:絵画の画風をティーポットの3Dの物体に加えた
https://www.nikkei.com/content/pic/20180117/96958A9F889DE0E7E5E7E7E5E3E2E3E4E2E3E0E2E3EA8AE3E3E2E2E2-DSXMZO2575569016012018X11001-PB1-2.jpg

日本経済新聞
https://www.nikkei.com/article/DGXMZO25755710W8A110C1X11000/
ダウンロード


引用元: 【テクノロジー】東大、2次元画像から3次元の形を認識 AIで高精度に

東大、2次元画像から3次元の形を認識 AIで高精度にの続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2017/12/27(水) 05:40:22.00 ID:CAP_USER
【12月25日 CNS】
中国のIT大手「捜狗(Sogou)」が業界初となる口唇形状認識の開発に成功した。
音声認識に頼らず、話す人の唇の動きを画像認識することによって会話の内容を解読する。

 口唇形状認識は画像認識と自然言語処理が一体となった技術。ディープラーニング(深層学習)を応用し、中国語の口の動きを数千時間かけて学習させた。認識の正確率は60%以上で、米グーグル(Google)による英語の口唇形状認識システムの正確率50%を上回った。
12月上旬に中国・浙江省(Zhejiang)で行われた「世界インターネット会議(World Internet Conference)烏鎮サミット」で捜狗の口唇形状認識が初めて公開され、注目を集めた。

続きはソースで

(c)CNS/JCM/AFPBB News

画像:「世界インターネット会議・烏鎮サミット」で展示されていた口唇形状認識システムを試す来場者
http://afpbb.ismcdn.jp/mwimgs/7/0/700x460/img_703df7a4a35647bada937fc2d8793b7f216762.jpg

AFP
http://www.afpbb.com/articles/-/3156363?pid=19657948
images (1)


引用元: 【テクノロジー】唇の動きを画像認識、会話を解読 中国のIT企業が開発

唇の動きを画像認識、会話を解読 中国のIT企業が開発の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2017/07/08(土) 16:36:14.60 ID:CAP_USER
http://www.sankeibiz.jp/images/news/170708/cpc1707081605001-p1.jpg
 高い技能、低コストで文句も言わないとなると、まずは労働市場での衝突は避けられない……。人工知能が人間を脅かす日が来るのだろうか。神戸大学名誉教授の松田卓也氏は「家政婦が機械に取って代わられることは、当面ないだろう」と言う。その理由とは--。

 人間よりはるかに高い知能の誕生は2045年?

 2015年初頭、NHKが「NEXT WORLD 私たちの未来」と題して放映した番組に大きな反響があったという。番組の一部は30年後の45年を扱った近未来ドラマだが、米国の未来学者レイ・カーツワイルによれば、この45年という年に、世界は技術的特異点(シンギュラリティ)に達するという。

 技術的特異点(以下、特異点)とは、いう人によって多少のニュアンスの差があるが、人間よりはるかに知能の高い超知能が誕生する時点である。超知能は機械に補助された人間かもしれないし、あるいは機械知能かもしれない。前者の場合は超人類(トランスヒューマン)と呼び、後者なら機械超知能である。超人類は生身の人間ではなく、地頭を人工知能で補強したサイボーグである。

 1人の普通の人間の知的能力を1H(ヒューマン)と定義すると、カーツワイルによれば、人工知能の能力は29年には1Hを突破し、45年には10億~100億Hになるという。この数字は全人類の人口に匹敵する。したがって、特異点では人工知能の能力が、全人類の知的能力の総和に匹敵するということもできる。

 ここで、人工知能を狭い(弱い)人工知能と汎用(強い)人工知能の2種類に分類してみよう。狭い人工知能とは特定目的の人工知能であり、汎用人工知能とは人間のように常識を持ち、なんでも一応はこなせる広い知的能力を持った人工知能である。

2017.7.8 16:05
http://www.sankeibiz.jp/compliance/news/170708/cpc1707081605001-n1.htm
http://www.sankeibiz.jp/compliance/news/170708/cpc1707081605001-n2.htm
http://www.sankeibiz.jp/compliance/news/170708/cpc1707081605001-n3.htm
http://www.sankeibiz.jp/compliance/news/170708/cpc1707081605001-n4.htm
http://www.sankeibiz.jp/compliance/news/170708/cpc1707081605001-n5.htm
http://www.sankeibiz.jp/compliance/news/170708/cpc1707081605001-n6.htm

 現在、世界に普及している人工知能はすべて狭い人工知能である。たとえばチェスの世界チャンピオンを破ったIBMのディープ・ブルー、ジョパディ! というクイズで人間のチャンピオンを破ったIBMのワトソン、iPhoneに搭載されているバーチャル・アシスタントのSiriなど。グーグル検索でも、アマゾンでの買い物でも、背後にはこの狭い人工知能が働いている。狭い人工知能は人間のような意識を持っておらず、哲学的な観点から弱い人工知能と呼ぶこともあるが、特定分野では人間よりはるかに強力なのだ。 

 現在のコンピュータは、ある分野では人間をはるかに凌駕する。たとえば計算能力を取ると、10ペタフロップスの能力を持つ京コンピュータは1秒間に1京回の浮動小数点演算(小数点を含む計算)をこなす(1京とは1の後ろに0が16個並んだ数字)。人間なら1秒に1回も計算できないだろう。つまり計算能力では、コンピュータの能力は人間の1京倍以上あるといえる。

 またビッグデータの解析でも、コンピュータは人間の能力をはるかに上回っている。コンピュータは何千万ものデータを解析して、人間には気づかない傾向を見つけたりする。

 子供は人工知能よりはるかに優れている

 ところが二足歩行を考えると、ロボットの歩き方はヨチヨチ歩きであり、子供程度の能力しか持っていない。パターン認識の能力を取っても、人工知能は人間に敵わない。たとえば、犬と猫の区別は3歳の幼児でも簡単にできるが、コンピュータには難しい。12年にグーグルの人工知能が猫を認識したと話題になった。グーグルは1000台のコンピュータに、動画投稿サイトYouTubeから取った1000万の静止画像を見せて、3日間学習させた。手法は教師なし深層学習(Deep Learning)というものである。

続きはソースで
ダウンロード (6)


引用元: 【人工知能】ルンバは家政婦にはなれない…AIの発達で“消える”職業とロボにはできない仕事 [無断転載禁止]©2ch.net

【人工知能】ルンバは家政婦にはなれない…AIの発達で“消える”職業とロボにはできない仕事の続きを読む
スポンサーリンク

このページのトップヘ