理系にゅーす

理系に関する情報を発信! 理系とあるものの文系理系関係なく気になったものを紹介します!

演算

    このエントリーをはてなブックマークに追加 mixiチェック
1: 2019/05/10(金) 18:03:15.11 ID:CAP_USER
 米オークリッジ国立研究所は7日(米国時間)、米エネルギー省が、世界最速を謳うスーパーコンピュータシステム「Frontier」の提供について、米Crayと契約を締結したことを発表した。システム提供は2021年予定で、契約評価額は6億ドル以上の見込み。
https://pc.watch.impress.co.jp/img/pcw/docs/1183/445/01_l.jpg

 Frontierは、現行のスーパーコンピュータの50倍に相当する、1秒間に100京回(10の18乗)の演算が可能な“エクサスケール”のシステムとなる予定で、理論演算性能1.5EFLOPSを掲げている。

 システムはCrayの「Shasta」アーキテクチャベースで、Slingshotインターコネクトを採用。CPUとGPUには、次世代のHPCおよびAIに最適化された、カスタム仕様の「EPYCプロセッサ」および深層学習性能を考慮した広範な混合精度演算とHBMを備えた「Radeon Instinct」GPUを採用する。

 システム全体は100台を超えるキャビネットからなり、各ノードはEPYCプロセッサ1基とRadeon Instinct GPUが4基の構成で・・・

続きはソースで

PC Watch
https://pc.watch.impress.co.jp/docs/news/1183445.html
ダウンロード (7)


引用元: 【IT】米エネルギー省、世界最速の新スパコンにAMD製CPU/GPUを採用[05/08]

米エネルギー省、世界最速の新スパコンにAMD製CPU/GPUを採用の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック
1: 2018/11/13(火) 21:35:35.02 ID:CAP_USER
全世界のスパコン性能ランキング「TOP500」の第52回の結果が発表された。

 ランキング1位は米エネルギー省のオークリッジ国立研究所に設置されたスパコン「Summit」。6月発表時のHigh Performance Linpack(HPL)性能を122.3PFLOPSから143.5PFLOPSに引き上げた。

 2位は、6月時点で3位だった米エネルギー省 ローレンスリバモア国立研究所にある「Sierra」。こちらも同様に前回からHPLのスコアを71.6PFLOPSから94.6PFLOPSに引き上げ、中国の「神威太湖之光」を3位に引きずり下ろした。

 上位の2システムはすべてIBM製となっており・・・

続きはソースで

https://pc.watch.impress.co.jp/img/pcw/docs/1153/151/1_l.jpg

PC Watch
https://pc.watch.impress.co.jp/docs/news/1153151.html
ダウンロード (2)


引用元: 【IT】米国のスパコンが第52回TOP500ランキングでワンツーフィニッシュ 全世界のスパコン性能ランキング[11/13]

米国のスパコンが第52回TOP500ランキングでワンツーフィニッシュ 全世界のスパコン性能ランキングの続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック
1: 2018/05/30(水) 11:41:28.53 ID:CAP_USER
藤井啓祐 理学研究科特定准教授、富田章久 北海道大学教授、福井浩介 同博士課程学生らの研究グループは、光を用いた量子コンピュータを、現在の技術レベルで実現させる方法を開発しました。

 本研究成果は,2018年5月25日に、米国科学誌 「Physical Review X」に掲載されました。

■本研究成果のポイント
・光を用いた量子コンピュータの実現には, 量子ビットの誤り率を非常に小さくする必要があった。
・量子ビットの誤り耐性を最大限引き出す方法とノイズに強い量子ビットの配列法により, 現在の技術レベルでも量子コンピュータを実現できる方法を開発。
・光を用いた量子コンピュータの現実的な構成法を世界で初めて明らかにした先駆的な研究であり, この分野の発展をさらに加速させることが期待される。

■概要
 量子コンピュータは,量子力学の重ね合わせの原理を利用することで,素因数分解,分子の性質・化学反応のシミュレーションなどを現在のコンピュータより遙かに高速に処理できることが期待されており,世界各国で盛んに研究・開発されています。
本研究グループでは、大規模な量子計算の実現に有利であるとされる光に注目してきましたが、光を用いた量子計算の実現には,370兆回の演算当り1回以下の誤りしか許されず,現在の技術レベルでは達成が非常に困難でした。

 しかし、今回、本研究グループは,誤りの発生を極限まで抑えながら量子ビットを配列する方法を新たに提案しました。

続きはソースで

http://www.kyoto-u.ac.jp/ja/research/research_results/2018/images/180525_3/01.jpg

京都大学
http://www.kyoto-u.ac.jp/ja/research/research_results/2018/180525_3.html
ダウンロード (1)


引用元: 【量子ビット】光による量子コンピュータの実現に大きく迫る手法を開発 -従来の100億倍の誤り耐性-[05/29]

【量子ビット】光による量子コンピュータの実現に大きく迫る手法を開発 -従来の100億倍の誤り耐性-の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック
1: 2018/03/07(水) 08:12:19.56 ID:CAP_USER
米グーグル(Google)は2018年3月5日(米国時間)、新しい量子プロセッサ「Bristlecone」を発表した。
「0」と「1」の情報を重ね合わせ状態で保持できる「量子ビット」を72個搭載する。
同社はこの新しい量子プロセッサを使って、量子コンピュータが従来型のコンピュータでは実現不可能な計算能力を備えていることを示す「量子超越性」を実証する。

グーグルは量子ビットの数が49個よりも多くなると、量子コンピュータの振る舞いを従来型のコンピュータでシミュレーションできなくなると主張している。
より具体的に言うと、量子ビットが49個あり、量子回路の「深さ」が40以上で、2つの量子ビットによる演算操作(量子ゲート)のエラー率が0.5%を下回る量子コンピュータが実現できれば、量子超越性を実証できるとしていた。

 グーグルのブログでの発表によれば、Bristleconeの量子ビットの数は72個で、量子ビットの読み出しエラー率が1%、1つの量子ビットによる演算操作のエラー率が0.1%、2つの量子ビットによる演算操作のエラー率が0.6%である。量子ビットの数は量子超越性を実証できる数を超えている。
しかしグーグルが「最も重要」とする2つの量子ビットによる演算操作のエラー率は、目標である0.5%にわずかに届いていない。

続きはソースで

写真●グーグルが発表した新量子プロセッサ「Bristlecone」
http://tech.nikkeibp.co.jp/atcl/nxt/news/18/00344/pic01.jpg

日経 xTECH
http://tech.nikkeibp.co.jp/atcl/nxt/news/18/00344/
ダウンロード


引用元: 【IT】グーグルの新量子プロセッサ「Bristlecone」、72量子ビットで量子超越性に挑む[03/06]

グーグルの新量子プロセッサ「Bristlecone」、72量子ビットで量子超越性に挑むの続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック
1: 2017/12/25(月) 05:41:21.74 ID:CAP_USER
理研や東京大学などが、量子コンピュータの情報単位「量子ビット」をより高精度化したものを実現。
演算速度や量子コンピュータを使える時間を改善できるという。

 理化学研究所や東京大学などの研究グループは12月18日、量子コンピュータの情報単位「量子ビット」を実現する素子をより高精度化したと発表した。
従来と比べると演算速度が約100倍になり、量子コンピュータを計算作業に使える時間も伸びるという。

 量子コンピュータは、量子ビットと呼ばれる情報単位を用いる。量子ビットは0と1に加え、0と1の「重ね合わせ状態」(量子の重ね合わせ)を扱える。量子計算のアルゴリズムを使えるため、
従来のコンピュータと比べて計算や解析が短時間で行えるといわれる。

 実用化には、演算精度が99%以上の高精度な量子ビットが必要になる。そのためには

(1)量子ビットの演算速度を向上させる、
(2)量子ビットは時間経過とともに情報を失う(重ね合わせ状態を失う)ため、

続きはソースで

図:量子ドット素子の概念図
http://image.itmedia.co.jp/news/articles/1712/21/am1535_ryoshidot.jpg
図:周期から量子演算に必要な時間が分かる「ラビ振動」
http://image.itmedia.co.jp/news/articles/1712/21/am1535_ryoshidot2.jpg
図:量子演算の正確性の検証
http://image.itmedia.co.jp/news/articles/1712/21/am1535_ryoshidot3.jpg

ITmedia NEWS
http://www.itmedia.co.jp/news/articles/1712/21/news137.html
images (1)


引用元: 【テクノロジー】量子コンピュータの情報単位「量子ビット」を高精度化 演算速度が約100倍に

量子コンピュータの情報単位「量子ビット」を高精度化 演算速度が約100倍にの続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック
1: 2016/12/10(土) 06:23:19.62 ID:CAP_USER9
2016.12.10 06:10

 米半導体大手インテルの日本法人は9日、人工知能(AI)事業の戦略説明会を開き、2020年までにディープラーニング(深層学習)の性能を現在の100倍に高める計画を明らかにした。
AIを使ったサービス向けに最適化し、中央演算処理装置(CPU)の働きを高速化するアクセラレーター「レイククレスト」を来年前半に投入。AI事業で先行する米画像処理半導体(GPU)大手エヌビディアを追撃し、市場での存在感を高めたい考えだ。

続きはソースで

引用元:SankeiBiz http://www.sankeibiz.jp/business/news/161210/bsc1612100500008-n1.htm

images


引用元: 【科学】AIの深層学習性能100倍に インテル、2020年までに計画 (SankeiBiz) [無断転載禁止]©2ch.net

AIの深層学習性能100倍に インテル、2020年までに計画 (SankeiBiz)の続きを読む

このページのトップヘ