理系にゅーす

理系に関する情報を発信! 理系とあるものの文系理系関係なく気になったものを紹介します!

スポンサーリンク

プロセッサ

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/03/07(水) 08:12:19.56 ID:CAP_USER
米グーグル(Google)は2018年3月5日(米国時間)、新しい量子プロセッサ「Bristlecone」を発表した。
「0」と「1」の情報を重ね合わせ状態で保持できる「量子ビット」を72個搭載する。
同社はこの新しい量子プロセッサを使って、量子コンピュータが従来型のコンピュータでは実現不可能な計算能力を備えていることを示す「量子超越性」を実証する。

グーグルは量子ビットの数が49個よりも多くなると、量子コンピュータの振る舞いを従来型のコンピュータでシミュレーションできなくなると主張している。
より具体的に言うと、量子ビットが49個あり、量子回路の「深さ」が40以上で、2つの量子ビットによる演算操作(量子ゲート)のエラー率が0.5%を下回る量子コンピュータが実現できれば、量子超越性を実証できるとしていた。

 グーグルのブログでの発表によれば、Bristleconeの量子ビットの数は72個で、量子ビットの読み出しエラー率が1%、1つの量子ビットによる演算操作のエラー率が0.1%、2つの量子ビットによる演算操作のエラー率が0.6%である。量子ビットの数は量子超越性を実証できる数を超えている。
しかしグーグルが「最も重要」とする2つの量子ビットによる演算操作のエラー率は、目標である0.5%にわずかに届いていない。

続きはソースで

写真●グーグルが発表した新量子プロセッサ「Bristlecone」
http://tech.nikkeibp.co.jp/atcl/nxt/news/18/00344/pic01.jpg

日経 xTECH
http://tech.nikkeibp.co.jp/atcl/nxt/news/18/00344/
ダウンロード


引用元: 【IT】グーグルの新量子プロセッサ「Bristlecone」、72量子ビットで量子超越性に挑む[03/06]

グーグルの新量子プロセッサ「Bristlecone」、72量子ビットで量子超越性に挑むの続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/02/05(月) 02:27:20.70 ID:CAP_USER
「0と1」の状態を同時に持つことができる量子の特性をいかすことで極めて速い処理能力を実現するとされる量子コンピューターは、夢のコンピューターとも呼ばれて実用化が大きく期待されています。
実現すれば、現代の既存のコンピューターとは比べものにならないほどの高い処理能力を持つといわれる量子コンピューターですが、実はその実用化にはまだ大きな壁が立ちはだかっているとのこと。
その実態について科学・コンピューター技術専門メディアのQuanta Magazineがまとめています。

The Era of Quantum Computing Is Here. Outlook: Cloudy | Quanta Magazine
https://www.quantamagazine.org/the-era-of-quantum-computing-is-here-outlook-cloudy-20180124/

1980年代にその概念が提唱され、1990年代には理論的に実証が可能なことが報告されていた量子コンピューターは、実現すれば既存のコンピューターとは比べものにならないほど速い処理速度を実現すると期待されています。
従来のコンピューターは、膨大な数の「0」と「1」からなるデジタルデータを超高速で処理することでさまざまな機能を実現しているのですが、2015年以降は半導体チップの進化を示してきた「ムーアの法則」の限界が叫ばれるようになり、いよいよ技術の限界点に差し掛かろうとしているともいわれています。

そんな状況を打破し、次世代のコンピューターとして大きく注目を集めているのが量子コンピューターです。

量子コンピューターは量子が持つ「0と1が同時に存在する」という特性をいかすことで、まさに「次元の違う」レベルの処理速度を実現することが可能であるといわれています。
従来型のコンピューターの場合、処理を行うプロセッサの数と処理能力の関係は、基本的に単比例によって増加します。
一方、量子コンピューターはその能力が指数関数的に増加することが理論的に証明されていることからも、次世代の技術を可能にするブレークスルーとして期待が寄せられています。
科学誌「Neture」は2017年1月に量子コンピューターは2017年に「研究」から「開発」の段階に移行すると発表しており、実際にIBMは2017年3月にクラウドベースで誰もが量子コンピューティングを使ってみることが可能な商業サービス「IBM Q」を発表するなど、量子コンピューター界隈ではにわかにさまざまな動きが起こり始めています。

しかしQuanta Magazineによると、その実現に向けた道のりは広く考えられているほど楽観的ではないとのこと。
最先端のコンピューター技術としてもてはやされている量子コンピューターですが、その実現にはまだまだ高い壁が立ちはだかっているといいます。

「0と1が同時に存在すること」を利用して計算を行う量子コンピューターは、「量子重ね合わせ」と「量子もつれ」の効果を利用することで「超並列」と呼ばれる処理を実現します。
この、「0と1の状態が同時に存在する」という情報の単位は量子ビットと呼ばれ、量子コンピューターを実現する上で最も基本的な事柄の一つです。

続きはソースで

関連ソース画像
https://i.gzn.jp/img/2018/02/04/quantum-computing/32390815144_f14b33ee0f_z.jpg

GIGAZINE
http://gigazine.net/news/20180204-quantum-computing/
ダウンロード (1)


引用元: 【テクノロジー】「夢のコンピューター」と呼ばれる量子コンピューター実用化の前に立ちはだかる大きな壁とは?[02/04]

「夢のコンピューター」と呼ばれる量子コンピューター実用化の前に立ちはだかる大きな壁とは?の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2018/01/29(月) 17:15:14.04 ID:CAP_USER
人間の脳と同じ構造を持つプロセッサーを開発することでより高い処理能力と高エネルギー効率を実現しようとする試みは、多くの研究者たちが行っているところです。
2018年1月26日付のScience Advancesではそんな試みの1つである「人工ニューロン」に関して、人工シナプスを毎秒10億回以上発火させることができ、かつ必要なエネルギーは有機的なシナプスの1万分の1というシステムについて発表されています。

Ultralow power artificial synapses using nanotextured magnetic Josephson junctions | Science Advances
http://advances.sciencemag.org/content/4/1/e1701329

Artificial neurons compute faster than the human brain
https://www.nature.com/articles/d41586-018-01290-0

NIST's superconducting synapse may be missing piece for 'artificial brains' | EurekAlert! Science News
https://www.eurekalert.org/pub_releases/2018-01/nios-nss011818.php

Googleの自動画像分類や言語学習プログラムに使われているような、人間の脳を模倣した人工知能(AI)のソフトウェアはコンピューターを大きく進歩させました。
しかし、これらのソフトウェアは人間がタスクを行うよりもはるかに多くのパワーを必要とするので、
既存のハードウェア向きとはいえません。

アメリカ国立標準技術研究所(NIST)は人間の脳のような仕組みのソフトウェアをより効率的に動かせる、神経形態学的なハードウェアの開発に力を入れている機関の1つ。
既存のハードウェアのトランジスタは一定間隔で1か0かの精密な情報を処理しますが、NISTの「神経形態学的な」ハードウェアは人間のニューロンのように異なるタイプの信号を作り出し必要時に応じて発火を起こすことで、複数のソースから得た小さな情報を蓄積していきます。
この仕組みによって少ないエネルギーでソフトウェアを動かすことができるとのこと。

ただし、ギャップ(シナプス)のあるトランジスター間で情報を送らなければならない時、伝導の効率は悪くなってしまいます。

続きはソースで

関連ソース画像
https://i.gzn.jp/img/2018/01/29/artificial-neurons-human-brain/0001.png

GIGAZINE
http://gigazine.net/news/20180129-artificial-neurons-human-brain/
ダウンロード


引用元: 【物理学/研究】人間の脳を模倣した「人工ニューロン」でコンピューターは人間以上の速度で処理できるように[18/01/29]

人間の脳を模倣した「人工ニューロン」でコンピューターは人間以上の速度で処理できるようにの続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2017/06/05(月) 22:14:59.20 ID:CAP_USER
http://eetimes.jp/ee/articles/1706/05/news053.html

台湾・台北で開催された「COMPUTEX TAIPEI 2017」で、NVIDIAのCEOであるJensen Huang氏は、「ムーアの法則は終わった。マイクロプロセッサはもはや、かつてのようなレベルでの微細化は不可能だ」と、ムーアの法則の限界について言及した。
[Alan Patterson,EE Times]
2017年06月05日 11時30分 更新

「ムーアの法則は終わった」

 「ムーアの法則は終わった」。NVIDIAのCEO(最高経営責任者)を務めるJensen Huang氏は、アカデミック界で長年ささやかれてきた説について、大手半導体企業として恐らく初めて言及した。

 ムーアの法則は、Intelの共同設立者であるゴードン・ムーア氏が1965年に、「トランジスタの微細化は非常に速く進み、集積度は毎年倍増していく」と提唱したことから生まれた。ただし、微細化の速度は1975年に、「2年ごとに2倍になる」と変更された。

 Huang氏は、台湾・台北で開催された「COMPUTEX TAIPEI 2017」(2017年5月30日~6月3日)で、報道陣やアナリストに向けて、「スーパースカラーによるパイプラインの段数増加や投機的実行といったアーキテクチャの進化によって、ムーアの法則のペースは維持されてきた。だが現在は、そのペースが鈍化している」と語った。

 同氏は、「マイクロプロセッサはもはや、かつてのようなレベルでの微細化は不可能だ。半導体物理学では『デナード則』をこれ以上継続することはできない」と明言した。

http://image.itmedia.co.jp/ee/articles/1706/05/mm170605_moore.jpg

続きはソースで

【翻訳:滝本麻貴、編集:EE Times Japan】
原文へのリンク http://www.eetimes.com/document.asp?doc_id=1331836&
ダウンロード


引用元: 【ムーアの法則】「ムーアの法則は終わった」、NVIDIAのCEOが言及 [無断転載禁止]©2ch.net

【ムーアの法則】「ムーアの法則は終わった」、NVIDIAのCEOが言及の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2016/06/24(金) 20:59:24.20 ID:CAP_USER
1秒に1150億の命令を処理する『1000コアプロセッサー』、カリフォルニア大学が開発。単3乾電池1本で駆動 - Engadget Japanese
http://japanese.engadget.com/2016/06/20/1-1150-1000-3-1/
http://o.aolcdn.com/hss/storage/midas/cfad0a4efcad78c55c842bddfa6ea958/203972537/mainkc.jpg


6月16日にホノルルで開催されたVLSIのシンポジウムで発表されたKiloCoreは研究者いわく、世界初の1000コアプロセッサーで、なおかつ大学研究レベルでは最も高クロックなプロセッサー。これまでに設計されたプロセッサーはおよそ300コアが最高だったとしています。

KiloCoreはIBMが持つ32 nm CMOS技術を使って製造され、各コアがそれぞれ独立してマイクロプログラムを走らせる方式。研究者によると、このCPUではアプリケーションプログラムを細分化して並列実行するため、処理が割り当てられないプロセッサーの通電を切ることで高いスループットを維持しつつ、低電力が実現できるとのこと。たとえば単3乾電池1本でも駆動可能だとしています。

さらに各コアは最大1.78GHz程度で駆動、処理のボトルネックとなるメモリーへのデータの書き出し/読み込みを最小限に抑えるために各コア間でデータを直接やり取りします。これによって最新のモバイルプロセッサーと比較しても100倍以上の効率的な処理が可能となり、数値的な例を上げれば、0.7Wの電力で1秒間あたり1150億の命令を実行できるとしました。

想定されるKiloCoreの得意分野は無線通信のコード/エンコード処理やビデオ処理などから、データセンターでの記録処理や科学的データ分析まで多岐にわたります。

続きはソースで

ダウンロード (2)


引用元: 【電子工学】1秒に1150億の命令を処理する『1000コアプロセッサー』、カリフォルニア大学が開発。単3乾電池1本で駆動 [無断転載禁止]©2ch.net

1秒に1150億の命令を処理する『1000コアプロセッサー』、カリフォルニア大学が開発。単3乾電池1本で駆動の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック Share on Tumblr Clip to Evernote
1: 2015/12/27(日) 16:53:35.67 ID:CAP_USER.net
光接続のプロセッサー、サーバーの超高速化・省エネ化に道を開くか (ニュースイッチ) - Yahoo!ニュース
http://headlines.yahoo.co.jp/hl?a=20151227-00010001-newswitch-sctch

ダウンロード (3)


現在の半導体製造プロセスそのまま活用、MIT・UCバークレーなどが試作

 日進月歩で高速化するコンピューターやスマートフォン。だが、それらの性能を大幅に向上させるのに、大きな壁が立ちはだかっている。マイクロプロセッサーとのデータのやり取りに使われる銅配線の伝送速度に限界があるためだ。こうした難題を解決するため、半導体の電子回路と、データ伝送を光で行う光I/O(入出力)部品とを一つのチップに搭載した初めてのマイクロプロセッサーが、米国の大学で試作された。

 開発にかかわったのはマサチューセッツ工科大学(MIT)、カリフォルニア大学バークレー校(UCバークレー)、コロラド大学ボールダー校の研究者ら。しかも、このチップは、現在のCMOS(相補型酸化金属半導体)の半導体製造プロセスをそのまま活用して製造できることから、商業化の面でも大きな優位性を持つ。将来、データセンターの高速化、省電力化などに貢献するものと期待されている。

 これまでにも、チップ間のデータのやり取りを光接続で行うチップが民間企業も含めて研究開発されてきたが、製造工程が複雑なため実用化が難しく、簡単な回路しかできなかった。
それに対して、今回のものは、3X6ミリメートルの大きさのチップに7000万個のトランジスタと850個の光学部品を組み込み、プロセッサーが必要とするロジック、メモリー、光相互接続の機能を盛り込んだ。このチップを使った実際のデモでは、光ファイバーを介してメモリーと接続し、グラフィックスプログラムを実行しながら、3Dイメージを表示したり、操作して見せたという。

 標準的なマイクロエレクトロニクスのプロセス用に、直径10マイクロメートル(マイクロは100万分の1)のマイクロリング共振器といった光部品も設計。チップ自体は、大手半導体製造会社であるグローバルファウンドリーズのニューヨーク州フィッシュキルにある、45ナノメートルプロセスの工場設備をそのまま使って製造した。

 データ伝送性能は1平方mm当たり毎秒300ギガビット(ギガは10億)で、現在使われているマイクロプロセッサーの10-50倍あることを実験で確かめた。開発に携わった研究者の推測によれば、現在のデータセンターに設置されたサーバーで使われるエネルギーの20~30%が、プロセッサーやメモリー間のデータ転送に費やされているため、ワイヤから伝送エネルギーが小さく済む光に置き換われば、省エネ面での利点は大きいという。

 一方で、この研究開発をもとに大学発ベンチャーも生まれており、UCバークレーのエンジニアによってAyar Labsというスタートアップが5月に設立された。早ければ2年後をめどにデータセンター向けの試験版の製品開発を目標にしている。

 さらに、このように半導体と光接続を組み合わせたシリコンフォトニクス技術は、開発中の自動運転車に搭載されているレーザーレーダーのライダー(lidar)はじめ、脳の画像化や環境センサーなどにも応用が可能としている。

 研究成果は、24日発行の科学誌ネイチャーに発表された。

引用元: 【電子工学】光接続のプロセッサー、サーバーの超高速化・省エネ化に道を開くか

光接続のプロセッサー、サーバーの超高速化・省エネ化に道を開くかの続きを読む
スポンサーリンク

このページのトップヘ