1: 2014/12/19(金) 17:15:48.40 ID:???0.net
GPUのメモリ帯域を1TB/secに引き上げるHBMが準備完了へ
http://pc.watch.impress.co.jp/docs/column/kaigai/20141219_680985.html
SK hynixに続いてSamsungも生産準備ができたと説明
次世代の広帯域メモリHBM(High Bandwidth Memory)が離陸しようとしている。HBMはすでにSK hynixが製品化を進めており、来年(2015年)第1四半期から量産出荷を始める。Samsungも、SK hynixに続いてHBMの製造準備を進めていることを明らかにしている。
スタック型の新メモリ規格にはHBMとHMC(Hybrid Memory Cube)があるが、SamsungはHBMを提案するとJS Choi氏(Samsung Semiconductor)はメモリ関連カンファレンス「MemCon 2014」で語った。HBMの方が市場の適用範囲がより広いからだという。HBMはグラフィックスから始まるが、ネットワークやHPC(High Performance Computing)など、より多くのメモリアプリケーションが期待できるとSamsungは見る。HMCはHPCに採用されつつあるが、市場性はHBMより狭いという分析だと見られる。
グラフィックス市場でのHBMの大きな利点は、頭打ちになりつつあるGDDR5よりも広いメモリ帯域と低い消費電力だ。しかし、グラフィックスだけではなく、ネットワーク機器もHBMの有望な市場だとSamsungは説明する。
データセンターのネットワークアプリケーションでは現在10Gigabit Ethernetが最もポピュラーだが、バックサイドではより高速な100Gbitからさらに高速な200Gbitや400Gbbitが浸透する見込みだという。そのため、ルックアップやパケットのためのバッファとしてより高性能なメモリが必要とされている。
現状では、ネットワーク機器では、カスタムメモリ(RLDRAMなど)を使うか、既存のメモリを多くのチャネルで使っており、システムのコストが高く付いている。
HBMはこの問題を解決できるとSamsungのChoi氏は言う。
一方、HPC(High Performance Computing)市場でも、HBMは有望だとSamsungのChoi氏は語る。
「テラスケールHPCの世界で最も重要な事項は消費電力を減らすことだから」で、帯域当たりの電力を大幅に削減できるHBMが利点があるとする。
また、実装面積が狭いこともHBMの利点で、複数のスタックを使うことで、小さな面積に4TBのメモリを実装できると説明した。
HPCでのHBMの難点であるECCの問題も、JEDEC(半導体の標準化団体)でECCが規格に加えられたことで解決したという。
熱伝導のためのダミーバンプも配置
HBMについて残る問題は、発熱やコスト、製造工程やエコシステムなどだ。
HBMはDRAMのダイを最大8個積層したスタックにするため、表面積の小さなスタックの熱が問題になりやすい。問題はDRAMが熱に弱いこと。
温度が上がるとリーク電流(Leakage)が増えて、DRAMのメモリセルからのリークが増大する。
すると、DRAMのメモリ内容を保持するために、リフレッシュの回数を増やさなければならなくなる。しかし、リフレッシュがさらに熱を上げてしまう。
「DRAMにとっては85℃までの温度に留めることが望ましい。95℃と、やや高温でリーク電流が増えてリフレッシュモードの最適化が必要になる。
105℃になると、非常に高温で(頻繁な)リフレッシングが必要となる。そのため、ダイ温度を下げるための効果的なクーリングソリューションが必要となる」とAMDのJoe Macri氏(CVP and Product CTO)は説明する。
SamsungはMemconで、2.5DソリューションのHBMの温度測定結果の概要を示した。その上で、効果的なサーマルソリューション技術の全てをHBMに投入した結果、4スタックでは全てのダイが良好な温度に収まることが検証できたと説明した。Samsungによると、HBMでは熱はもはや問題ではないという。
以下ソース
http://pc.watch.impress.co.jp/docs/column/kaigai/20141219_680985.html
SK hynixに続いてSamsungも生産準備ができたと説明
次世代の広帯域メモリHBM(High Bandwidth Memory)が離陸しようとしている。HBMはすでにSK hynixが製品化を進めており、来年(2015年)第1四半期から量産出荷を始める。Samsungも、SK hynixに続いてHBMの製造準備を進めていることを明らかにしている。
スタック型の新メモリ規格にはHBMとHMC(Hybrid Memory Cube)があるが、SamsungはHBMを提案するとJS Choi氏(Samsung Semiconductor)はメモリ関連カンファレンス「MemCon 2014」で語った。HBMの方が市場の適用範囲がより広いからだという。HBMはグラフィックスから始まるが、ネットワークやHPC(High Performance Computing)など、より多くのメモリアプリケーションが期待できるとSamsungは見る。HMCはHPCに採用されつつあるが、市場性はHBMより狭いという分析だと見られる。
グラフィックス市場でのHBMの大きな利点は、頭打ちになりつつあるGDDR5よりも広いメモリ帯域と低い消費電力だ。しかし、グラフィックスだけではなく、ネットワーク機器もHBMの有望な市場だとSamsungは説明する。
データセンターのネットワークアプリケーションでは現在10Gigabit Ethernetが最もポピュラーだが、バックサイドではより高速な100Gbitからさらに高速な200Gbitや400Gbbitが浸透する見込みだという。そのため、ルックアップやパケットのためのバッファとしてより高性能なメモリが必要とされている。
現状では、ネットワーク機器では、カスタムメモリ(RLDRAMなど)を使うか、既存のメモリを多くのチャネルで使っており、システムのコストが高く付いている。
HBMはこの問題を解決できるとSamsungのChoi氏は言う。
一方、HPC(High Performance Computing)市場でも、HBMは有望だとSamsungのChoi氏は語る。
「テラスケールHPCの世界で最も重要な事項は消費電力を減らすことだから」で、帯域当たりの電力を大幅に削減できるHBMが利点があるとする。
また、実装面積が狭いこともHBMの利点で、複数のスタックを使うことで、小さな面積に4TBのメモリを実装できると説明した。
HPCでのHBMの難点であるECCの問題も、JEDEC(半導体の標準化団体)でECCが規格に加えられたことで解決したという。
熱伝導のためのダミーバンプも配置
HBMについて残る問題は、発熱やコスト、製造工程やエコシステムなどだ。
HBMはDRAMのダイを最大8個積層したスタックにするため、表面積の小さなスタックの熱が問題になりやすい。問題はDRAMが熱に弱いこと。
温度が上がるとリーク電流(Leakage)が増えて、DRAMのメモリセルからのリークが増大する。
すると、DRAMのメモリ内容を保持するために、リフレッシュの回数を増やさなければならなくなる。しかし、リフレッシュがさらに熱を上げてしまう。
「DRAMにとっては85℃までの温度に留めることが望ましい。95℃と、やや高温でリーク電流が増えてリフレッシュモードの最適化が必要になる。
105℃になると、非常に高温で(頻繁な)リフレッシングが必要となる。そのため、ダイ温度を下げるための効果的なクーリングソリューションが必要となる」とAMDのJoe Macri氏(CVP and Product CTO)は説明する。
SamsungはMemconで、2.5DソリューションのHBMの温度測定結果の概要を示した。その上で、効果的なサーマルソリューション技術の全てをHBMに投入した結果、4スタックでは全てのダイが良好な温度に収まることが検証できたと説明した。Samsungによると、HBMでは熱はもはや問題ではないという。
以下ソース
引用元: ・【社会】GPUのメモリ帯域を1TB/secに引き上げるHBMが準備完了へ
GPUのメモリ帯域を1TB/secに引き上げるHBMが準備完了への続きを読む