理系にゅーす

理系に関する情報を発信! 理系とあるものの文系理系関係なく気になったものを紹介します!

神経回路

    このエントリーをはてなブックマークに追加 mixiチェック
1: 2015/03/04(水) 20:41:40.86 ID:???.net
掲載日:2015年3月4日
http://news.mynavi.jp/news/2015/03/04/181/

no title


 電気通信大学は3月3日、小脳の運動学習の理論を構築し、運動の記憶がトレーニング後に小脳内でどのように定着するのかを理論的に明らかにしたと発表した。

 同成果は電気通信大学大学院情報理工学研究科情報・通信工学専攻の山﨑匡 助教、理化学研究所脳科学総合研究センターの永雄総一 博士、University of California, San DiegoのWilliam Lennon氏、電気通信大学脳科学ライフサポート研究センターの田中 繁特任教授らによるもの。3月3日付け(現地時間)の「米国科学アカデミー紀要」に掲載された。

 毎日コツコツ勉強して覚えた内容は、一夜漬けで覚えた内容に比べて頭に残りやすくなる。この現象は「分散効果」といい、運動学習においても起こることが発見されている。またトレーニングを終えて休んでいる間も、脳は記憶を定着させるために働き続けていることもわかっている。しかし、記憶の定着過程において脳内で何が起きているかはよくわかっていなかった。

 今回の研究では、運動の中で最も簡単な神経回路で生じる目の反射運動に着目し、視機性眼球運動(OKR)の適応と呼ばれる運動学習について、小脳の神経回路の数理モデルを構築し、シミュレーションを行った。

 その結果、トレーニングを行うと、短期記憶に関与する小脳皮質で神経細胞のつなぎ目(シナプス)での信号の伝わり方が変形して形成されたが、トレーニング後はその記憶は自然に消滅した。

続きはソースで

<画像>
シミュレーションの結果。(A)マウス実験と数理モデルでのOKR適応の比較。(B)数理モデルの小脳皮質のシナプス(青)と小脳核のシナプス(青)の伝達効率の変化。
http://news.mynavi.jp/news/2015/03/04/181/images/001l.jpg

<参照>
【メディアリリース】小脳における記憶の定着過程の理論を提唱 ~「一夜漬けより毎日コツコツと」の仕組み解明へ~
http://www.uec.ac.jp/news/announcement/2014/20150226-1.html

Modeling memory consolidation during posttraining periods in cerebellovestibular learning
http://www.pnas.org/content/early/2015/03/02/1413798112.abstract

電通大 山﨑研 - NumericalBrain
http://numericalbrain.org/

引用元: 【神経科学】一夜漬けよりコツコツ学習の方が記憶が定着する仕組みを解明 - 電気通信大

一夜漬けよりコツコツ学習の方が記憶が定着する仕組みを解明 - 電気通信大の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック
1: 2015/02/26(木) 10:38:55.23 ID:???.net
掲載日:2015年2月26日
http://www.nikkei.com/article/DGXLZO83685140W5A220C1EA2000/

01


 米グーグルは「ブロック崩し」などの電子ゲームの攻略法を遊びながら自ら編み出し、人間以上の高得点を出せる人工知能(AI)を開発した。やり方を教わらなくても自分で学習するAIに道を開く研究成果で、将来は人間にしかできないと思われていた複雑な仕事をこなせるようになる可能性もある。26日付の英科学誌ネイチャー(電子版)で発表する。

 開発したのは、人間の脳の神経回路をまねた学習機能を持つAI「DQN」。スペースインベーダーやブロック崩しなど懐かしのゲーム49種類をAIに与えた。ゲームの事前知識を教えなくても、人間のように繰り返し遊ぶことでやり方を学び、高得点を取る秘訣を編み出す。

 ブロック崩しを約100回遊ばせた段階では、AIは飛んでくるボールをうまく打ち返せないなど苦戦していたが、400回遊ぶと取りこぼしはほぼなくなった。600回を超えると、端のブロックに攻撃を集中して穴を開け、ブロックの裏側にもボールを送り込んで崩す攻略法を発見し、高得点を出せるようになった。

 ゲームの試験開発に携わるプロの人間とAIが得点を競ったところ、ゲーム49種類のうち29種類で、人間並みかそれ以上の得点を得られたという。ブロック崩しでは人間の13倍の得点を取り、最も上手になった「ピンボール」では25倍に達した。

続きはソースで

<参照>
Deep Q-network: New artificial intelligence can learn how to play vintage video games from scratch - BelfastTelegraph.co.uk
http://www.belfasttelegraph.co.uk/technology/deep-qnetwork-new-artificial-intelligence-can-learn-how-to-play-vintage-video-games-from-scratch-31022741.html

Nature : Human-level control through deep reinforcement learning - YouTube
https://www.youtube.com/watch?v=iqXKQf2BOSE



Human-level control through deep reinforcement learning : Nature : Nature Publishing Group
http://www.nature.com/nature/journal/v518/n7540/full/nature14236.html

<関連>
Playing Atari with Deep Reinforcement Learning
http://www.cs.toronto.edu/~vmnih/docs/dqn.pdf

引用元: 【AI/機械学習】グーグル、自ら学ぶ人工知能「Deep Q-network」開発 ゲーム繰り返し遊んで攻略

【動画】グーグルが人工知能「DQN」開発 ゲームを繰り返し遊んで攻略の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック
1: ◆HeartexiTw @胸のときめきφ ★ 2014/01/16(木) 06:27:17.85 ID:???0 BE:2469031889-PLT(12557)

理化学研究所ライフサイエンス技術基盤研究センターなどのグループは、脳卒中患者の脳をMRIで時間を追って観察することにより、リハビリテーションによって脳の中心部にある神経回路が再構築されることを明らかにした。

神経回路再生のメカニズムや、脳卒中後に運動機能を回復させるための効果的なリハビリ手法の開発に貢献すると期待される。

7

*+*+ 日刊工業新聞 +*+*
http://www.nikkan.co.jp/news/nkx0720140116eaak.html



脳卒中後の神経回路、リハビリで再構築の続きを読む

このページのトップヘ