理系にゅーす

理系に関する情報を発信! 理系とあるものの文系理系関係なく気になったものを紹介します!

スポンサーリンク

シミュレーション

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/04/10(火) 11:59:39.52 ID:CAP_USER
 中部大学の津田一郎教授が1987年に提案した数理モデルが、海外の数学者らによって証明された。
このモデルは人が脳で連想記憶を行う機構の一端を説明するもので、当時の数学的手法では証明できなかった。
今回、ブラジル・リオデジャネイロ連邦大学の数学者らが、コンピューターを用いる数値シミュレーションで検証に成功し、初めて数学によってモデルの正しさが明らかになった。

 脳は目、耳、鼻、舌、皮膚から受ける刺激を情報として記憶する際、過去の記憶を参考にして新たな入力情報が何であるかを連想する。
例えば、かじったリンゴを見てもリンゴだと連想し、レモンを見ると酸っぱいと連想して新たな記憶として留める。

 31年前、津田教授は大脳新皮質内のニューロン(神経細胞)のネットワーク構造を模擬した神経回路モデルで連想記憶の研究に着手。

続きはソースで

論文情報:
1987年【Progress of Theoretical Physics】Memory Dynamics in Asynchronous Neural Networks(PDF)
https://academic.oup.com/ptp/article-pdf/78/1/51/5439802/78-1-51.pdf
2018年【Mathematics】Chaotic Itinerancy in Random Dynamical System Related to Associative Memory Models(PDF)
http://www.mdpi.com/2227-7390/6/3/39/pdf

大学ジャーナル
http://univ-journal.jp/20187/
ダウンロード (1)


引用元: 【数学】中部大学教授による31年前の数理モデルをブラジルの数学者らが証明[04/09]

【数学】中部大学教授による31年前の数理モデルをブラジルの数学者らが証明の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/04/01(日) 09:10:59.00 ID:CAP_USER
■要旨
理化学研究所(理研)計算科学研究機構プログラミング環境研究チームの佐藤三久チームリーダー、來山至テクニカルスタッフⅠ、情報基盤センター計算工学応用開発ユニットの五十嵐潤上級センター研究員らの国際共同研究グループは、次世代スーパーコンピュータ(スパコン)でヒトの脳全体の神経回路のシミュレーション[1]を可能とするアルゴリズム[2]の開発に成功しました。

脳を構成する主役は神経細胞です。神経細胞は電気信号を発して情報をやりとりする特殊な細胞です。
その数はヒトの大脳で約160億個、小脳で約690億個、脳全体では約860億個にのぼります。
神経細胞同士はシナプス[3]でつながり合い、複雑なネットワーク(神経回路)を形成しています。
しかし、現在の最高性能のスパコンをもってしても、ヒトの脳全体の規模で、神経細胞の電気信号のやりとりをシミュレーションすることは不可能です。

今回、国際共同研究グループは、次世代スパコンで脳のネットワークのシミュレーションを達成するアルゴリズムを開発しました。
新たなアルゴリズムによってメモリの省力化を実現するだけでなく、スーパーコンピュータ「京」[4]などの既存のスパコン上の脳シミュレーションも大幅に高速化できました。

本成果は、2020年以降に登場するポスト「京」[5]などの次世代スパコン上で、ヒトの脳全体のシミュレーションを実現し、脳の情報処理や脳疾患の機構の解明に貢献すると期待できます。
また、新アルゴリズムはオープンソースとして一般公開されている神経回路シミュレータ「NEST[6]」の次期公開版に搭載される予定です。

本研究は、スイスのオンライン科学雑誌『Frontiers in Neuroinfomatics』(2月16日付、日本時間:2月17日)に掲載されました。

また、本研究はポスト「京」研究開発枠・萌芽的課題(4)
「大脳皮質神経回路のデータ駆動モデル構築(課題番号:hp160258)」と京調整高度化枠「ブレインシミュレータNEST5gの性能評価(課題番号ra001012)」として「京」の計算資源を用いて実施されました。

続きはソースで

■原論文情報
Jakob Jordan, Tammo Ippen, Moritz Helias, Itaru Kitayama, Mitsuhisa Sato,
Jun Igarashi, Markus Diesmann and Susanne Kunkel,
"Extremely Scalable Spiking NeuronalNetwork Simulation Code: From Laptops to Exascale",
Frontiers in Neuroinfomatics, 10.3389/fninf.2018.00002
https://www.frontiersin.org/articles/10.3389/fninf.2018.00002/full

理化学研究所
http://www.riken.jp/pr/press/2018/20180326_1/
ダウンロード


引用元: 【演算】ヒトの脳全体シミュレーションを可能にするアルゴリズム | 理化学研究所03/26]

ヒトの脳全体シミュレーションを可能にするアルゴリズム | 理化学研究所の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/03/09(金) 11:30:43.23 ID:CAP_USER
■DNAを用いたコンピューティング理論

英マンチェスター大学は1日(現地時間)、DNAの複製メカニズムを利用し、同時に異なる全ての過程を並行してシミュレーションできるDNAコンピュータの実現可能性を発表した。
これについて、同学のRoss D. King教授による論文が英Journal of the Royal Society Interfaceに掲載された。

 発表論文は、DNA分子を用いて未だかつて実現したことのない「非決定性万能チューリングマシン(NUTM)」を作製できる可能性を指摘する。
実現すれば万能チューリングマシン(UTM)に分類される既に存在するコンピュータや、現在も研究されている量子コンピュータよりも理論的には遥かに高速になると考えられる。

 同教授は、NUTMについて「迷路をコンピュータに解かせた際、UTMは分岐路でどちらの分岐を先に計算するか決定する必要があるが、NUTMは全ての通りを同時にシミュレートするため、その必要がない」とし、「量子UTMも同時に異なる通りをシミュレートできるが、迷路が左右対称である必要があり、これは利用者にとって大きな制約だ」としてNUTMの優位性を強調している。

 DNA(デオキシリボ核酸)は、生体では遺伝情報の運搬や格納に用いられる。
異なる4種の塩基が作る塩基対を持つ2重らせん構造が有名だが、その塩基の配列こそが遺伝情報だ。

続きはソースで

画像:計算のサイズ(n)に対し、nの多項式時間を必要とする判定問題はP問題と呼ばれる。
指数関数時間などになると、計算のサイズに対し計算量は莫大な増加をする。
https://pc.watch.impress.co.jp/img/pcw/docs/1047/398/f1_s.jpg

PC Watch
https://pc.watch.impress.co.jp/docs/news/1047398.html
ダウンロード


引用元: 【IT】英大学、量子コンピュータを超える「非決定性万能チューリングマシン」の実現可能性を指摘[03/02]

英大学、量子コンピュータを超える「非決定性万能チューリングマシン」の実現可能性を指摘の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/03/04(日) 09:43:13.23 ID:CAP_USER
■量子コンピュータ、日本発の原理

 2017年6月のこと。筆者のLinkedInに、ある人物から連絡があった。

 彼はカナダ・バンクーバーの投資家で、量子コンピュータの開発を手掛けるカナダD-Wave Systemsに投資をしている人物だった。
ひとまず電話で話をしたところ、D-Wave Systemsのビジネスの日本展開を推進したいと言う。

 D-Wave Systemsは、シリコンバレー(パロアルト)にも小さな拠点を持っている。
量子コンピュータのチップのウエハーを開発および生産しているチームが、そこを拠点にしていて、事業担当ディレクターもパロアルトに勤務しており、カナダの投資家は筆者に、まずパロアルトの拠点を紹介してくれた。
余談だが、実はこのディレクターは、英国の理論物理学者スティーヴン・ホーキング博士のアシスタントをしていた人物だった。

 パロアルトは、筆者が代表を務めるAZCAのオフィスからも近い。
そこで筆者はD-Wave Systemsのパロアルトオフィスを訪ね、事業担当のディレクター他、数人のキーパーソンに会ってきた。
筆者は、もう自分自身でプロジェクトを担当することは少なくなっているのだが、もしAZCAがこの案件を支援することになるのなら、ぜひとも自分で担当したいと思った。
それくらい、D-Wave Systemsが手掛ける量子コンピュータの分野に興味がわいたのである。

 さて、ここで少しD-Wave Systemsについて大切な補足をしておきたい。

 量子コンピュータの原理は、今から30年以上前となる1985年、英国オックスフォード大学の物理学者デイビッド・ドイチェ氏が、量子チューリングマシンなるものを定義したことで知られている。
そして1994年に米国マサチューセッツ工科大学(MIT)のピーター・ショア教授が発表した論文がきっかけとなって、量子コンピュータ実現のためのさまざまな研究が進み、今では大きく分けて3つの方式の研究開発が主流になっている。
Google、IBM、Intel、Alibabaなどが進める量子ゲート方式、Microsoftが進めるトポロジカル方式、そしてD-Wave Systems、Google、IARPA-QEOなどが進める量子アニーリング方式である。
D-Wave Systemsが開発した量子コンピュータは、
「量子アニーリング(量子焼きなまし)」という原理(方式)が採用されている。

 実は、量子アニーリングは、1998年に東京工業大学(東工大)の西森秀稔氏と門脇正史氏によって提案された、“日本生まれ”の技術だ。

 2017年7月に東京で高校時代からの親しい友人に会う機会があった。
彼も西森教授と同じ東京大学理学部物理学科の出身だったので、西森教授を知っているかと聞いてみたところ、本当に奇遇なことに、「知るも何も、西森君は東大時代の非常に親しい後輩だ。
もちろんよく知っている」と言って、その場ですぐに筆者を西森氏に紹介してくれた。
そんなことから、筆者は翌8月末に早稲田ビジネススクールでの集中講義のために再び東京を訪れたその足で、西森教授の研究室を訪ねた。そして、話は大いに盛り上がったのである。

もちろん、D-Wave Systemsも西森氏のことは非常に尊敬していて、いろいろとアドバイスをもらったという。
D-Wave Systemsの創設者によれば、彼は以前、西森氏が米国の大学で量子コンピュータについて講義を行った時に、その講義に出席し、熱心に質問することができたという。

続きはソースで

画像左=D-Wave Systemsの量子コンピュータ「D-Wave 2000Q」 出典:D-Wave Systems
/右=D-Wave Systemsのシステム担当シニアバイスプレジデントが筆者にマシンを説明している
http://image.itmedia.co.jp/ee/articles/1802/26/mm3017_180226quantum3.jpg
http://image.itmedia.co.jp/ee/articles/1802/26/mm3017_180226quantum4.jpg

EE Times Japan
http://eetimes.jp/ee/articles/1802/26/news021.html
ダウンロード


引用元: 【テクノロジー】予算なき量子コンピュータ開発、欧米より一桁低い日本を憂う[03/01]

予算なき量子コンピュータ開発、欧米より一桁低い日本を憂うの続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/03/07(水) 08:12:19.56 ID:CAP_USER
米グーグル(Google)は2018年3月5日(米国時間)、新しい量子プロセッサ「Bristlecone」を発表した。
「0」と「1」の情報を重ね合わせ状態で保持できる「量子ビット」を72個搭載する。
同社はこの新しい量子プロセッサを使って、量子コンピュータが従来型のコンピュータでは実現不可能な計算能力を備えていることを示す「量子超越性」を実証する。

グーグルは量子ビットの数が49個よりも多くなると、量子コンピュータの振る舞いを従来型のコンピュータでシミュレーションできなくなると主張している。
より具体的に言うと、量子ビットが49個あり、量子回路の「深さ」が40以上で、2つの量子ビットによる演算操作(量子ゲート)のエラー率が0.5%を下回る量子コンピュータが実現できれば、量子超越性を実証できるとしていた。

 グーグルのブログでの発表によれば、Bristleconeの量子ビットの数は72個で、量子ビットの読み出しエラー率が1%、1つの量子ビットによる演算操作のエラー率が0.1%、2つの量子ビットによる演算操作のエラー率が0.6%である。量子ビットの数は量子超越性を実証できる数を超えている。
しかしグーグルが「最も重要」とする2つの量子ビットによる演算操作のエラー率は、目標である0.5%にわずかに届いていない。

続きはソースで

写真●グーグルが発表した新量子プロセッサ「Bristlecone」
http://tech.nikkeibp.co.jp/atcl/nxt/news/18/00344/pic01.jpg

日経 xTECH
http://tech.nikkeibp.co.jp/atcl/nxt/news/18/00344/
ダウンロード


引用元: 【IT】グーグルの新量子プロセッサ「Bristlecone」、72量子ビットで量子超越性に挑む[03/06]

グーグルの新量子プロセッサ「Bristlecone」、72量子ビットで量子超越性に挑むの続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/01/18(木) 19:29:44.63 ID:CAP_USER
観測性能が大幅に向上した気象衛星「ひまわり8号」のデータや、スーパーコンピューターを活用して、豪雨の発生場所などを高い精度で予測する手法の開発に、理化学研究所などの研究グループが成功しました。
将来的に、豪雨や洪水の危険性をいち早く把握できると期待されています。

3年前から運用が始まった気象衛星「ひまわり8号」は、地球全体を撮影する頻度が従来の30分に1回から10分に1回に増えたほか、センサーの性能向上などでデータ量が従来のおよそ50倍に増えました。

理化学研究所や気象庁気象研究所のグループは、こうした膨大なデータをスーパーコンピューター「京」で処理することで、豪雨の発生場所などをより高い精度で予測する手法の開発に成功したと発表しました。

研究グループによりますと、3年前の「関東・東北豪雨」を例にシミュレーションした結果…

続きはソースで

NHKニュース
https://www3.nhk.or.jp/news/html/20180118/k10011292751000.html
ダウンロード


引用元: 【テクノロジー】気象衛星「ひまわり8号」やスパコン「京」を活用した高精度な豪雨予測 開発成功

気象衛星「ひまわり8号」やスパコン「京」を活用した高精度な豪雨予測 開発成功の続きを読む
スポンサーリンク

このページのトップヘ