理系にゅーす

理系に関する情報を発信! 理系とあるものの文系理系関係なく気になったものを紹介します!

スポンサーリンク

予測

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/10/25(木) 16:20:01.01 ID:CAP_USER
 富士山西側で約2500年前に未知の噴火が2回あったとする研究結果を、秋田大と東京大、国立研究開発法人・産業技術総合研究所(茨城県つくば市)の研究グループが発表した。本栖湖の地層を基に2000年以上前に起きた既知の3回の噴火についても詳しく調べ、従来の推定より広範囲に降灰していた可能性が高いことが判明。将来の噴火や影響予測につながる成果としている。

 調査は2015年11月、本栖湖で初めて本格的に実施された。本栖湖は最大水深が約122メートルあり、過去1万年以上にわたって干上がることなく連続して地層が堆積たいせきしているため、調査対象となった。いかだを浮かべ、地層を取り出す装置を湖底まで下ろして過去約8000年分に当たる深さ4メートルの地層を採取。放射性炭素年代測定などで詳しく調べた。

 その結果、これまで知られていない約2530年前と約2510年前と推定される火山灰の層を確認した。同研究所の藤原治博士は「地上の地層に残っていないもので、比較的小規模な噴火が20年という短い期間で相次いで起こった可能性が高い」と分析する。

続きはソースで

https://imgc.eximg.jp/i=https%253A%252F%252Fs.eximg.jp%252Fexnews%252Ffeed%252FHazardlab%252FHazardlab_26839_1.jpg,zoom=2040,quality=70,type=jpg

読売新聞
https://www.yomiuri.co.jp/science/20181025-OYT1T50047.html
ダウンロード (1)


引用元: 【地質学】富士山で未知の噴火2回、わずか20年間隔か[10/25]

富士山で未知の噴火2回、わずか20年間隔かの続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/09/28(金) 12:16:23.01 ID:CAP_USER
 「ウゼェんだよ! 見んなハゲ!」「あははは! クソ豚!」――ユーザーが入力した言葉の意味を推測し、さまざまな罵詈雑言を浴びせるAI(人工知能)「罵倒少女」が登場したのは2016年のことだった。イラスト投稿サイト「pixiv」で公開されると、12日間で延べ26万人に合計734万回罵倒し、話題を呼んだ。18年3月には丸井グループともコラボレーションした。

 罵倒少女は、コミュニケーションに特化したAI「PROJECT Samantha」(プロジェクト・サマンサ)の取り組みの1つだ。9月19日に都内で開かれたイベント「AI MEETUP 2」で、プロジェクトに携わるソニー・ミュージックエンタテインメント(SME)の井上敦史さんが、キャラクターAIの開発で得た知見、今後の展望を語った。

■「キャラクターは最強のユーザーインタフェース」

 対話型AIのアプローチには、(1)「トイレどこ?」という入力文から「トイレ」といった単語を抽出する、(2)「お手洗い」「化粧室」などの同義語を探す、(3)「トイレはどこ?」という意味の文章を数万以上学習させ、未知の文章でも意味を予測できるようにするディープラーニング――などがある。

 PROJECT Samanthaは、そうしたアプローチからさらに踏み込み、ユーザーの発言から「入力文に現れない意図」を読み取るAIエンジンを活用した。例えば「この部屋暑い」という発言からは「不快だ」「温度を下げたい」といった意図を抽出する。読み取る意図のバリエーションは10万種類以上。読み取った1つ1つの意図に対し、AIがユーザーに返す言葉を開発者が用意していた。

 ユーザーから罵倒少女のキャラクターへの発言は「愛している」「好き」「かわいい」などが上位に並んだ。井上さんは「ユーザーは相手がAIだと分かっていても、キャラクターに没頭してしまった結果、“エモい”ワードを呼び掛けたのでは」と分析する。

 罵倒少女の知見を踏まえ、井上さんは「人間がAIに話し掛けるには、多くの動機が必要」と指摘する。「人間は無意識に会話のコストを計算している。友達と暇をつぶしたい、女の子と仲良くしたいという欲求があると、会話しようとするコストは低い。一方、知らない人(機械)との会話は盛り上がらず、無難な内容になりがち」

その点、「キャラクターは最強のユーザーインタフェース」(井上さん)という。あらかじめユーザーが、キャラクターが登場する作品をよく知っていて、性格や口調、声優のボイスを認知しているところからスタートすれば、会話のハードルは下がると、井上さんは説明する。罵倒少女では、1万人のユーザーが30分以上会話していたという。

続きはソースで

http://image.itmedia.co.jp/news/articles/1809/21/kf_bato_03.jpg
http://image.itmedia.co.jp/news/articles/1809/21/kf_bato_04.jpg

http://www.itmedia.co.jp/news/articles/1809/21/news098.html
ダウンロード (1)


引用元: 【人工知能】「エ◯い目で見んじゃねよ、このクズ」 26万人を罵倒したAI「罵倒少女」から考える「飽きない対話AI」の作り方

【人工知能】「エ◯い目で見んじゃねよ、このクズ」 26万人を罵倒したAI「罵倒少女」から考える「飽きない対話AI」の作り方の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/08/31(金) 14:39:45.98 ID:CAP_USER
2018年6月18日に発生した大阪府北部地震では震度6弱の揺れが観測されましたが、本震以降に観測された震度1以上の余震はなんと56回で、最大余震は最大震度4のものでした。このように大きな地震が発生した後に何度も起きる余震を、AIを用いて予測するという研究がGoogleによって行われています。
https://i.gzn.jp/img/2018/08/31/forecasting-earthquake-aftershock-ai/00_m.jpg

Deep learning of aftershock patterns following large earthquakes | Nature
https://www.nature.com/articles/s41586-018-0438-y

Forecasting earthquake aftershock locations with AI-assisted science
https://www.blog.google/technology/ai/forecasting-earthquake-aftershock-locations-ai-assisted-science/
https://i.gzn.jp/img/2018/08/31/forecasting-earthquake-aftershock-ai/01.png

地震は最初に「本震」が起き、その後「余震」が複数回にわたって続きます。通常、余震は本震よりも震度が小さなものとなりますが、タイミングによっては復興に向けた活動を著しく阻害することがあります。しかし、余震が発生するタイミングとその規模を正確に予測するのは困難です。

そこで、ハーバード大学の卒業生であるPhoebe DeVries氏は、Googleで働く機械学習の専門家たちとチームを組み、余震の発生場所をディープラーニングを用いて予測することに挑戦しています。まだ研究は途中の段階にあるそうですが、DeVries氏はこれまでの研究結果を科学誌のNatureで公表しています。

DeVries氏ら研究チームは世界中でこれまでに発生した主要な地震118件に関するデータを集めるところからスタート。データはまとめてAI学習用のデータセットとしています。収集したデータは視覚化されており、例えば1992年にアメリカ・カリフォルニア州で発生したランダース地震(マグニチュード7.3)の場合は以下のように表されます。青・赤・黄などの色が並んだ平面が本震、その周辺に浮かぶ半透明の赤いキューブが余震を示しているそうです。
https://storage.googleapis.com/gweb-uniblog-publish-prod/original_images/aftershocks_3d.gif

続きはソースで

https://i.gzn.jp/img/2018/08/31/forecasting-earthquake-aftershock-ai/s01_m.png

GIGAZINE
https://gigazine.net/news/20180831-forecasting-earthquake-aftershock-ai/
ダウンロード (3)


引用元: 【AI】AIを用いて地震後に起きる余震を正確に予測するGoogleの研究[08/31]

AIを用いて地震後に起きる余震を正確に予測するGoogleの研究の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/08/29(水) 13:10:06.85 ID:CAP_USER
【8月29日 AFP】
物理学者チームは28日、物質に質量を与えるとされる素粒子「ヒッグス粒子(Higgs boson)」が、「ボトムクォーク」と呼ばれる素粒子へと崩壊する現象の観測に初めて成功したと発表した。ヒッグス粒子の存在を突き止めてから6年、ようやくその努力が報われた形だ。

 欧州合同原子核研究機構(CERN)の発表によると、理論的に予測されていたこの崩壊は、スイスにある世界最大の粒子加速器「大型ハドロン衝突型加速器(LHC)」で観測されたという。LHCはノーベル賞受賞につながった2012年のヒッグス粒子発見で知られる。

 CERNのATLAS国際共同研究チームは、今回LHCで実証された「観測が非常に困難な相互作用」について、「LHCの初期の準備段階では、このような観測を成し遂げることは難しいだろうとの考えがあった」と述べている。

 ヒッグス粒子自体が見つけるのが難しい上、他の粒子もボトムクォークに崩壊するため、これまでその崩壊がヒッグス粒子のものであることを明確に突き止めることは困難だった。

 長年待ち望まれていた今回の観測結果は、物理学の「標準模型(Standard Model)」理論のさらなる裏付けとなると、研究者らは指摘する。標準模型は、宇宙を構成する基本粒子とそれらを支配する力に関する主流の理論となっている。

 1970年代初めに確立された標準模型の下では、クォークとレプトンが物質の最も基本的な構成単位とされている。

続きはソースで

(c)AFP

http://afpbb.ismcdn.jp/mwimgs/f/4/320x280/img_f409483a27971a1058808286555aaf25288922.jpg

AFP
http://www.afpbb.com/articles/-/3187660
ダウンロード (1)


引用元: 【物理学】ヒッグス粒子の崩壊、LHC実験で初観測 発見から6年[08/29]

ヒッグス粒子の崩壊、LHC実験で初観測 発見から6年の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/08/02(木) 15:34:32.26 ID:CAP_USER
視線の動きから相手の考えていることや感情を読むことができると言われています。南オーストラリア大学で神経心理学を研究しているトビアス・レッチェル氏らの研究チームは、目の動きをAIに分析させることで、相手の性格を判別することを可能にしています。

Frontiers | Eye Movements During Everyday Behavior Predict Personality Traits | Frontiers in Human Neuroscience
https://www.frontiersin.org/articles/10.3389/fnhum.2018.00105/full

This AI Can Predict Your Personality Type Simply by Watching Your Eyes
https://www.sciencealert.com/this-ai-predict-personality-type-simply-watching-eyes-big-five-traits

レッチェル氏は「機械学習を使用して、『私たちの目の動き』とそれに関連する『さまざまな性格特性』をAIに学習させることで、性格を予測することが可能になりました」と語り、「目の動き」から性格を判定するAIの開発に成功したと説明しています。

研究チームはAIの判定精度を検証するため、50人の被験者を集めて、被験者の目の動きをアイトラッキングソフトウェアで測定。

続きはソースで

https://i.gzn.jp/img/2018/07/31/ai-predict-perosnality-eye-tracking/01_m.jpg
https://i.gzn.jp/img/2018/07/31/ai-predict-perosnality-eye-tracking/00_m.jpg

GIGAZINE
https://gigazine.net/news/20180731-ai-predict-perosnality-eye-tracking/
ダウンロード (2)


引用元: 【AI/心理学】目の動きから「性格を読み取る」AIが開発される[07/31]

【AI/心理学】目の動きから「性格を読み取る」AIが開発されるの続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/08/01(水) 20:22:54.97 ID:CAP_USER
■上皮細胞が複雑な立体構造を作る際に、これまで考えらえていたのとはまったく異なる形状の細胞ができることが判明し、この形状に「スクートイド:scutoid」と名付けた

正方形、長方形、三角形、五角形など、私たちの身の回りには、多種多様な形状が存在するが、このほど、新たな"形状"が発見された。しかも、この新たな"形状"は、すでに私たちの体にも潜んでいるという。

■『スクートイド』と名付けた
米リーハイ大学、スペインのセビリア大学を中心とする欧米の共同研究プロジェクトは、2018年7月27日、科学オンラインジャーナル「ネイチャー・コミュニケーションズ」において「上皮組織の変化に順応し、エネルギー消費を最小化ながらパッキング構造の安定性を最大化する新たな形状を発見し、これを『スクートイド』と名付けた」という研究論文を発表した。

「スクートイド」は、五角柱をベースとし、頂点の1つを斜めに切り落として側面の数を6つに変形させたような形状で、昆虫の胸部や中央部の後部にある小盾板(スクテラム)と似ていることから、共同研究プロジェクトによって名付けられた。

一般に、胚の成長に伴って、組織は複雑な三次元の形状に曲がりながら、器官になっていく。上皮細胞はこのプロセスに欠かせないもので、互いにしっかりと圧迫し合い、組織の湾曲に順応する仕組みとなっているが、その構造や形状については、その多くが、いまだ明らかとなっていない。

続きはソースで

https://www.newsweekjapan.jp/stories/2018/08/01/save/matuoka0801a.png
https://www.newsweekjapan.jp/stories/assets_c/2018/08/Burdick-Scutoid-thumb-720xauto.jpg

https://www.newsweekjapan.jp/stories/world/2018/08/post-10708.php
ダウンロード (7)


引用元: 上皮組織に新しい「三次元形状」が発見され話題に[08/01]

上皮組織に新しい「三次元形状」が発見され話題にの続きを読む
スポンサーリンク

このページのトップヘ