理系にゅーす

理系に関する情報を発信! 理系とあるものの文系理系関係なく気になったものを紹介します!

スポンサーリンク

プロセッサ

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/11/08(木) 16:07:40.14 ID:CAP_USER
 英マンチェスター大学は11月2日(現地時間)、世界最大規模となる、脳の構造を模した“ニューロモーフィック”スーパーコンピュータのマシンの稼働開始を発表した。

 「ニューロモーフィック」とは、動物の脳の働きを模したものを指す。ニューロン(神経細胞)は神経系を構成する細胞で、生物の脳を構成する基本要素となる。

 このニューロンは、おもに純粋な電気化学的エネルギーである「スパイク」を放出することによって情報を伝達しており、ニューロモーフィックコンピューティングは、電子回路を含む大規模なコンピュータシステムで、スパイクによる情報伝達を機械内で模倣するという仕組み。

 今回マンチェスター大で稼働したスパコンは、「Spiking Neural Network Architecture (SpiNNaker)」と称する独自プロセッサを100万基搭載。同プロセッサは、1基あたり1億個のトランジスタを備え、秒間2億回の処理が可能となっている。

 同大学によれば、地球上でもっとも大規模にニューロンをリアルタイムにモデル化できるマシンであるという。

続きはソースで

https://pc.watch.impress.co.jp/img/pcw/docs/1152/148/01_l.jpg

PC Watch
https://pc.watch.impress.co.jp/docs/news/1152148.html
ダウンロード


引用元: 【IT】英マンチェスター大、脳を模した世界最大の“ニューロモーフィック”スパコンを稼働開始[11/07]

英マンチェスター大、脳を模した世界最大の“ニューロモーフィック”スパコンを稼働開始の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/09/13(木) 17:27:32.63 ID:CAP_USER
NECは、「SX-ACE」に続く新スパコン「SX-Aurora TSUBASA」を2017年10月25日より発売している。しかし、中小型の「A100シリーズ」ならびに「A300シリーズ」の提供時期は2018年2月以降、大型の「A500シリーズ」に至っては2018年の7~9月とされており、現在、やっと手に入るようになったという時期で、最新型のスパコンという位置づけである。

なお、NECのプレスリリースやWebを探してみたが、この原稿の執筆時点では、顧客に出荷されたという記述は見つからなかった。

これまで、SCなどの学会での発表は開発を率いた百瀬慎太郎氏が行なわれることが多かった。しかし、このHot Chipsでの発表スライドには百瀬氏の名前も書かれていたものの実際に登壇されることはなく、もう一人の発表者として名前が挙がっていた山田洋平氏が発表を行った。

■PCIeカードに搭載されたスパコン

SX-ACEまでのこれまでのNECのSXスパコンは、ベクタエンジン(VE)と同じチップに集積されたスカラプロセサでNEC製のOSを動かしていた。

続きはソースで

https://news.mynavi.jp/article/nec_aurora_tsubasa-1/images/002.jpg
https://news.mynavi.jp/article/nec_aurora_tsubasa-1/images/003.jpg
https://news.mynavi.jp/article/nec_aurora_tsubasa-1/
ダウンロード


引用元: 【IT】NECの最新世代スパコン「SX-Aurora TSUBASA」[09/05]

NECの最新世代スパコン「SX-Aurora TSUBASA」の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/03/07(水) 08:12:19.56 ID:CAP_USER
米グーグル(Google)は2018年3月5日(米国時間)、新しい量子プロセッサ「Bristlecone」を発表した。
「0」と「1」の情報を重ね合わせ状態で保持できる「量子ビット」を72個搭載する。
同社はこの新しい量子プロセッサを使って、量子コンピュータが従来型のコンピュータでは実現不可能な計算能力を備えていることを示す「量子超越性」を実証する。

グーグルは量子ビットの数が49個よりも多くなると、量子コンピュータの振る舞いを従来型のコンピュータでシミュレーションできなくなると主張している。
より具体的に言うと、量子ビットが49個あり、量子回路の「深さ」が40以上で、2つの量子ビットによる演算操作(量子ゲート)のエラー率が0.5%を下回る量子コンピュータが実現できれば、量子超越性を実証できるとしていた。

 グーグルのブログでの発表によれば、Bristleconeの量子ビットの数は72個で、量子ビットの読み出しエラー率が1%、1つの量子ビットによる演算操作のエラー率が0.1%、2つの量子ビットによる演算操作のエラー率が0.6%である。量子ビットの数は量子超越性を実証できる数を超えている。
しかしグーグルが「最も重要」とする2つの量子ビットによる演算操作のエラー率は、目標である0.5%にわずかに届いていない。

続きはソースで

写真●グーグルが発表した新量子プロセッサ「Bristlecone」
http://tech.nikkeibp.co.jp/atcl/nxt/news/18/00344/pic01.jpg

日経 xTECH
http://tech.nikkeibp.co.jp/atcl/nxt/news/18/00344/
ダウンロード


引用元: 【IT】グーグルの新量子プロセッサ「Bristlecone」、72量子ビットで量子超越性に挑む[03/06]

グーグルの新量子プロセッサ「Bristlecone」、72量子ビットで量子超越性に挑むの続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/02/05(月) 02:27:20.70 ID:CAP_USER
「0と1」の状態を同時に持つことができる量子の特性をいかすことで極めて速い処理能力を実現するとされる量子コンピューターは、夢のコンピューターとも呼ばれて実用化が大きく期待されています。
実現すれば、現代の既存のコンピューターとは比べものにならないほどの高い処理能力を持つといわれる量子コンピューターですが、実はその実用化にはまだ大きな壁が立ちはだかっているとのこと。
その実態について科学・コンピューター技術専門メディアのQuanta Magazineがまとめています。

The Era of Quantum Computing Is Here. Outlook: Cloudy | Quanta Magazine
https://www.quantamagazine.org/the-era-of-quantum-computing-is-here-outlook-cloudy-20180124/

1980年代にその概念が提唱され、1990年代には理論的に実証が可能なことが報告されていた量子コンピューターは、実現すれば既存のコンピューターとは比べものにならないほど速い処理速度を実現すると期待されています。
従来のコンピューターは、膨大な数の「0」と「1」からなるデジタルデータを超高速で処理することでさまざまな機能を実現しているのですが、2015年以降は半導体チップの進化を示してきた「ムーアの法則」の限界が叫ばれるようになり、いよいよ技術の限界点に差し掛かろうとしているともいわれています。

そんな状況を打破し、次世代のコンピューターとして大きく注目を集めているのが量子コンピューターです。

量子コンピューターは量子が持つ「0と1が同時に存在する」という特性をいかすことで、まさに「次元の違う」レベルの処理速度を実現することが可能であるといわれています。
従来型のコンピューターの場合、処理を行うプロセッサの数と処理能力の関係は、基本的に単比例によって増加します。
一方、量子コンピューターはその能力が指数関数的に増加することが理論的に証明されていることからも、次世代の技術を可能にするブレークスルーとして期待が寄せられています。
科学誌「Neture」は2017年1月に量子コンピューターは2017年に「研究」から「開発」の段階に移行すると発表しており、実際にIBMは2017年3月にクラウドベースで誰もが量子コンピューティングを使ってみることが可能な商業サービス「IBM Q」を発表するなど、量子コンピューター界隈ではにわかにさまざまな動きが起こり始めています。

しかしQuanta Magazineによると、その実現に向けた道のりは広く考えられているほど楽観的ではないとのこと。
最先端のコンピューター技術としてもてはやされている量子コンピューターですが、その実現にはまだまだ高い壁が立ちはだかっているといいます。

「0と1が同時に存在すること」を利用して計算を行う量子コンピューターは、「量子重ね合わせ」と「量子もつれ」の効果を利用することで「超並列」と呼ばれる処理を実現します。
この、「0と1の状態が同時に存在する」という情報の単位は量子ビットと呼ばれ、量子コンピューターを実現する上で最も基本的な事柄の一つです。

続きはソースで

関連ソース画像
https://i.gzn.jp/img/2018/02/04/quantum-computing/32390815144_f14b33ee0f_z.jpg

GIGAZINE
http://gigazine.net/news/20180204-quantum-computing/
ダウンロード (1)


引用元: 【テクノロジー】「夢のコンピューター」と呼ばれる量子コンピューター実用化の前に立ちはだかる大きな壁とは?[02/04]

「夢のコンピューター」と呼ばれる量子コンピューター実用化の前に立ちはだかる大きな壁とは?の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/01/29(月) 17:15:14.04 ID:CAP_USER
人間の脳と同じ構造を持つプロセッサーを開発することでより高い処理能力と高エネルギー効率を実現しようとする試みは、多くの研究者たちが行っているところです。
2018年1月26日付のScience Advancesではそんな試みの1つである「人工ニューロン」に関して、人工シナプスを毎秒10億回以上発火させることができ、かつ必要なエネルギーは有機的なシナプスの1万分の1というシステムについて発表されています。

Ultralow power artificial synapses using nanotextured magnetic Josephson junctions | Science Advances
http://advances.sciencemag.org/content/4/1/e1701329

Artificial neurons compute faster than the human brain
https://www.nature.com/articles/d41586-018-01290-0

NIST's superconducting synapse may be missing piece for 'artificial brains' | EurekAlert! Science News
https://www.eurekalert.org/pub_releases/2018-01/nios-nss011818.php

Googleの自動画像分類や言語学習プログラムに使われているような、人間の脳を模倣した人工知能(AI)のソフトウェアはコンピューターを大きく進歩させました。
しかし、これらのソフトウェアは人間がタスクを行うよりもはるかに多くのパワーを必要とするので、
既存のハードウェア向きとはいえません。

アメリカ国立標準技術研究所(NIST)は人間の脳のような仕組みのソフトウェアをより効率的に動かせる、神経形態学的なハードウェアの開発に力を入れている機関の1つ。
既存のハードウェアのトランジスタは一定間隔で1か0かの精密な情報を処理しますが、NISTの「神経形態学的な」ハードウェアは人間のニューロンのように異なるタイプの信号を作り出し必要時に応じて発火を起こすことで、複数のソースから得た小さな情報を蓄積していきます。
この仕組みによって少ないエネルギーでソフトウェアを動かすことができるとのこと。

ただし、ギャップ(シナプス)のあるトランジスター間で情報を送らなければならない時、伝導の効率は悪くなってしまいます。

続きはソースで

関連ソース画像
https://i.gzn.jp/img/2018/01/29/artificial-neurons-human-brain/0001.png

GIGAZINE
http://gigazine.net/news/20180129-artificial-neurons-human-brain/
ダウンロード


引用元: 【物理学/研究】人間の脳を模倣した「人工ニューロン」でコンピューターは人間以上の速度で処理できるように[18/01/29]

人間の脳を模倣した「人工ニューロン」でコンピューターは人間以上の速度で処理できるようにの続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2017/06/05(月) 22:14:59.20 ID:CAP_USER
http://eetimes.jp/ee/articles/1706/05/news053.html

台湾・台北で開催された「COMPUTEX TAIPEI 2017」で、NVIDIAのCEOであるJensen Huang氏は、「ムーアの法則は終わった。マイクロプロセッサはもはや、かつてのようなレベルでの微細化は不可能だ」と、ムーアの法則の限界について言及した。
[Alan Patterson,EE Times]
2017年06月05日 11時30分 更新

「ムーアの法則は終わった」

 「ムーアの法則は終わった」。NVIDIAのCEO(最高経営責任者)を務めるJensen Huang氏は、アカデミック界で長年ささやかれてきた説について、大手半導体企業として恐らく初めて言及した。

 ムーアの法則は、Intelの共同設立者であるゴードン・ムーア氏が1965年に、「トランジスタの微細化は非常に速く進み、集積度は毎年倍増していく」と提唱したことから生まれた。ただし、微細化の速度は1975年に、「2年ごとに2倍になる」と変更された。

 Huang氏は、台湾・台北で開催された「COMPUTEX TAIPEI 2017」(2017年5月30日~6月3日)で、報道陣やアナリストに向けて、「スーパースカラーによるパイプラインの段数増加や投機的実行といったアーキテクチャの進化によって、ムーアの法則のペースは維持されてきた。だが現在は、そのペースが鈍化している」と語った。

 同氏は、「マイクロプロセッサはもはや、かつてのようなレベルでの微細化は不可能だ。半導体物理学では『デナード則』をこれ以上継続することはできない」と明言した。

http://image.itmedia.co.jp/ee/articles/1706/05/mm170605_moore.jpg

続きはソースで

【翻訳:滝本麻貴、編集:EE Times Japan】
原文へのリンク http://www.eetimes.com/document.asp?doc_id=1331836&
ダウンロード


引用元: 【ムーアの法則】「ムーアの法則は終わった」、NVIDIAのCEOが言及 [無断転載禁止]©2ch.net

【ムーアの法則】「ムーアの法則は終わった」、NVIDIAのCEOが言及の続きを読む
スポンサーリンク

このページのトップヘ