理系にゅーす

理系に関する情報を発信! 理系とあるものの文系理系関係なく気になったものを紹介します!

スポンサーリンク

コンピュータ

    このエントリーをはてなブックマークに追加 mixiチェック
1: 2019/05/07(火) 04:37:38.07 ID:CAP_USER
IBMが1964年に発表したメインフレーム「System/360」は、「OSの共有が可能で拡張性の高い汎用目的コンピューター」という、現代に近い形のコンピューターを商用として市場に送り出した最初のモデルといわれています。そんなSystem/360に使われていた「磁気コアメモリ」について、古いコンピューターの修復を手がけるエンジニアのKen Shirriff氏がブログで解説しています。
https://i.gzn.jp/img/2019/05/06/ibm-magnetic-core-memory/00_m.jpg

A look at IBM S/360 core memory: In the 1960s, 128 kilobytes weighed 610 pounds
http://static.righto.com/images/ibm-360-mem/core-module-bench.jpg

IBMはSystem/360に280億ドル(当時のレートで約10兆円)、その中でも磁器コアメモリに対して50億ドル(約1兆8000億円)ものコストをかけたといわれています。System/360に補助記憶装置として搭載された磁気コアメモリは当初の容量が16KBだったものの、すぐに32KBや64KBに改良されたとのこと。アポロ計画を超える規模の予算で開発されたSystem/360は大成功を収めて、IBMはその後のコンピューター業界をけん引する存在となりました。

磁気コアメモリは半導体メモリチップが登場するまで、1950年代から1970年代にかけて主流となった記憶補助装置でした。磁気コアメモリの1単位は円環状のフ◯ライトコアと書き込み線・読み出し線という2本の電線で構成され、コアの内部に生じる磁束に応じて0か1かを記憶させるという仕組みです。そのため、磁気コアメモリは多くの半導体メモリと異なり不揮発性で、さらにランダムアクセスが可能で破壊読み出し型という仕様となっています。
https://i.gzn.jp/img/2019/05/06/ibm-magnetic-core-memory/01_m.jpg

実際の磁気コアメモリのユニットを見るとこんな感じ。まるで織物のように電線が縦と横に交わっていて、その交差点にフ◯ライトコアが装着されています。指の大きさと比較して分かるとおり、1単位の大きさは非常に小さいもの。
https://i.gzn.jp/img/2019/05/06/ibm-magnetic-core-memory/02_m.jpg

このフ◯ライトコア1つで1ビットの情報を収納するため、64KBの磁気コアメモリユニットは必然的に巨大なものとなります。
https://i.gzn.jp/img/2019/05/06/ibm-magnetic-core-memory/03_m.jpg

最も人気のあったSystem/360モデル40は月額9000ドル(約320万円)から1万7000ドル(約610万円)で借りることができ、1972年までにIBMはモデル40だけで10億ドル(約3600億円)の収益を得たとのこと。System/360ではCPU・電源・ストレージというコンピューターのシステムが1つのフレームに収められていて、当時としてはかなりコンパクトなサイズにまとめることに成功しました。それでも1つのフレームサイズはおよそ150cm×60cmで、その重さは610ポンド(約270kg)はあったそうです。
https://i.gzn.jp/img/2019/05/06/ibm-magnetic-core-memory/04_m.jpg

次期モデルとなるSystem/360 モデル50は、月額1万8000ドル(約650万円)から3万2000ドル(約1150万円)で借りることができました。

続きはソースで

https://i.gzn.jp/img/2019/05/06/ibm-magnetic-core-memory/05_m.jpg

https://i.gzn.jp/img/2019/05/06/ibm-magnetic-core-memory/09_m.jpg

https://i.gzn.jp/img/2019/05/06/ibm-magnetic-core-memory/06_m.jpg

https://gigazine.net/news/20190506-ibm-magnetic-core-memory/ 
ダウンロード (1)


引用元: 【IT】50年以上前のコンピューター黎明期を支えた「磁気コアメモリ」とは?[05/06]

50年以上前のコンピューター黎明期を支えた「磁気コアメモリ」とは?の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック
1: 2019/04/28(日) 21:41:58.14 ID:CAP_USER
専門雑誌に掲載された難解な論文を読み込み、科学的背景を持たない読者にもわかりやすいようにかみ砕いて文章として伝える「サイエンスライター」と同じように機能するAIをマサチューセッツ工科大学(MIT)の研究者らが発表しました。

Rotational Unit of Memory: A Novel Representation Unit for RNNs with Scalable Applications | Transactions of the Association for Computational Linguistics | MIT Press Journals
https://www.mitpressjournals.org/doi/full/10.1162/tacl_a_00258

Rotational Unit of Memory
http://super-ms.mit.edu/rum.html

Can science writing be automated? | MIT News
http://news.mit.edu/2019/can-science-writing-be-automated-ai-0418

MITの大学院生であるRumen Dangovski氏とLi Jing氏、物理学教授のMarin Soljačić氏らの研究チームは、専門的な論文を1、2文程度に要約するAIを開発しました。AIが生成できる文章は非常に短いため、2019年4月時点では実際のサイエンスライターが作成するような記事を作り出すことはできないとのことですが、大量の論文を読む際に軽くチェックして内容を予備的に把握するのに役立つ可能性があります。

もともと、研究チームは物理学的な問題に対処することを目的としてAIでのアプローチを試みていたそうで、論文の要約などの処理に焦点を当てていなかったそうです。ところが、研究チームは自身が開発したアプローチが物理学の分野だけでなく、自然言語処理を含むほかの分野にも同じアプローチが適用できることに気づいたとのこと。

一般的なニューラルネットワークは、コンピューターが非常に多くの事例についてのパターンを「学習」して進歩します。たとえば写真に写っているオブジェクトを識別したり、写真や音声から特定のものを抜き出したりするシステムに、ニューラルネットワークは広く活用されています。

その一方で、ニューラルネットワークは長い一連のデータから情報をピックアップし、関連付けることが困難だとのこと。この能力は長い論文から必要な情報を見つけ出して要約する、サイエンスライターのような仕事に求められる技術の一つです。長距離の依存関係をモデル化する長期短期記憶(LSTM)ネットワークなどの手法がこの問題を解決するために使用されていますが、自然言語処理を実用的なものに近づけるには至っていません。

研究チームは従来のニューラルネットワークに使われてきた行列の乗算に基づくシステムではなく、多次元空間で回転するベクトルに基づく代替システムを考案しました。このシステムは「記憶回転単位(rotational unit of memory)」と名付けられており、研究チームは「RUM」と呼んでいます。RUMはニューラルネットワークが要素を記憶するのを助け、より正確に要素を思い出すことにも有効とのこと。RUMはもともと光の振る舞いのような複雑な物理学的問題を解決するために考案されたアプローチでしたが、やがて研究チームはRUMが自然言語処理のような他分野でも有用である可能性に気づきました。
https://i.gzn.jp/img/2019/04/27/science-writing-be-automated/03_m.png

続きはソースで
ダウンロード (3)


引用元: 【AI】「難解な論文をわかりやすく要約してくれるAI」が開発される[04/27]

「難解な論文をわかりやすく要約してくれるAI」が開発されるの続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック
1: 2019/04/22(月) 21:22:17.23 ID:CAP_USER
米国の航空宇宙企業ロッキード・マーティンは2019年3月20日、軌道上で衛星のミッションを変えられる衛星「スマートサット(SmartSat)」のコンセプトを発表した。

スマートフォンにアプリを追加するように、衛星のソフトウェアを変えることで、衛星に新たな能力やミッションを与えることができるのが特徴で、同社では早ければ今年中にも、この技術を適用した超小型衛星を打ち上げることを目指している。

従来の人工衛星といえば、いったん宇宙に打ち上げられると、ハードウェアもソフトウェアも変えられず、開発された当時の機能や性能のまま、数年から十数年にわたって運用するのが当たり前となっている。

しかし、その間も地上では技術革新が進んでおり、また衛星のサービスの需要が変化するなどして、打ち上げたときの機能や性能のままでは不都合が生じることもある。

そこでロッキード・マーティンは、ソフトウェアの変更によって衛星に新しいミッションを割り当てることができる、「スマートサット(SmartSat)」というコンセプトを開発した。

同社は「まるでスマートフォンにアプリを追加するかのように」、またIT業界でおなじみの「ソフトウェア定義(Software Defined:SDx)」という言葉を使った「ソフトウェア定義衛星(software-defined satellite)」という言葉で、この衛星の特徴を説明する。

ロッキード・マーティンの宇宙部門のEVPを務めるRick Ambrose氏は「スマートフォンのように、アプリを追加すればミッションが変えられる、新しい人工衛星の姿を想像してみてください」と語る。

「スマートサットは、衛星の設計、製造、提供方法を根本から変革させることを目指した、私たちの挑戦の大きな一歩です」。

スマートサットは、米国国立科学財団(NSF)が開発した、高性能かつ放射線に強いコンピューターを搭載。このコンピューターはマルチコア処理能力をもち、ハイパーバイザー(仮想化OS)を使って仮想マシンをコンテナ化する。従来の衛星は、単一のプロセッサーでプログラムを動かしており、マルチコア処理の導入はほぼ初めてだという。

これにより、1台のコンピューターで複数のサーバーを仮想的に動かすことができ、衛星が軌道上でより多くのデータを処理したり、どのデータを地球に送信するかという優先順位付けをしたりといったことを可能にするとしている。

衛星のデータ処理能力が上がることで、最も重要かつ関連性の高い情報だけを送信することができるようになり、それにより通信の帯域幅のコストを節約し、また地上局の負担を軽減できるという。また、将来的には宇宙にデータセンターを置くような時代も実現するだろうとしている。

また、通信のビーム径を変更したり、帯域幅を調整したりできる機器も搭載し、マルチコア処理と合わせることで、衛星が軌道上にいながら、プログラムの書き換えだけで、衛星の機能や能力、目的を変更することができるようになるという。

この技術を使うことで、たとえば当初は西欧に向けてサービスを提供していた通信衛星を、東欧にサービスを提供できるようにするといったことが可能になるとしている。

さらに、サイバーセキュリティの面でも強化が図られており、スマートサットの技術を搭載した衛星は、自律的にコンピューターの診断やリセット、必要に応じてバックアップをかけることができ、サイバー攻撃などの脅威を自律的に検知し、防御策を取ることもできるとしている。また、新たな脅威に対抗するため、衛星内のコンピューターにあるセキュリティ・プログラムを定期的に更新することもできるという。

ロッキード・マーティンは現在、同社の超小型衛星バス「LM 50」にこの技術を導入した、いくつかの試験機の打ち上げを計画しており、早ければ今年中にも打ち上げたいとしている。

そのひとつの「ライナス(Linus)」は、2機の12Uサイズのキューブサットからなる計画で、スマートサットの性能と、また3Dプリントされた衛星用部品の実証を行う。

続きはソースで

https://news.mynavi.jp/article/20190422-813061/images/001.jpg

https://news.mynavi.jp/article/20190422-813061/
ダウンロード (2)


引用元: 【宇宙開発】ロッキード・マーティン、軌道上で衛星のミッションを変えられる衛星を発表[04/22]

ロッキード・マーティン、軌道上で衛星のミッションを変えられる衛星を発表の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック
1: 2019/02/21(木) 14:55:25.37 ID:CAP_USER
超強力なスーパーコンピューターの処理能力をはるかに凌ぎ、産業界全体に変革をもたらす可能性があるとして、量子コンピューターの研究・開発に多額の資金が投入されている。日々報じられる関連ニュースを読み解くために押さえておきたい基礎知識を説明する。

子コンピューターは、ほとんど神秘的といえる量子力学の現象を利用して、処理能力を飛躍的に向上させる。現在、そして将来のもっとも高性能なスーパー・コンピューターの処理能力さえもはるかに凌ぐことが期待されている。

量子コンピューターは従来のコンピューター(古典的コンピューター)を完全に置き換えるものではない。古典的コンピューターは今後も、ほとんどの問題に対処するためのもっとも簡単で経済的な解決策として使われ続けるだろう。だが、量子コンピューターは、材料科学から医薬品研究に至るまで、さまざまな分野に胸躍る進歩をもたらすことが期待されている。すでに、量子コンピューターを用いて、電気自動車用のより軽く強力な電池を開発しようとしたり、新薬開発に役立てたりしようとしている企業もある。

量子コンピューターが持つ力の秘密は、量子ビット(キュービット)を生成し、操作する能力にある。

■「キュービット」とは何か?

現在のコンピューターは、1か0を表す一連の電気パルスまたは光パルスであるビットを用いて演算をする。ツイッターのツイートからメール、iTunesの楽曲、YouTubeの動画に至るまで、さまざまなものが本質的にはこの2進数の長い文字列でできている。

一方、量子コンピューターは演算の単位として通常、電子や光子といった素粒子である「キュービット」を用いる。キュービットを生成し、操作することは科学的・工学的に困難な課題となっている。IBM、グーグル、リゲッティ・コンピューティング(Rigetti Computing)といったいくつかの企業は、深宇宙よりも低温に冷却された超伝導回路を用いている。イオンQ(IonQ)などの他の企業は、超高真空チャンバー内のシリコンチップ上の電磁場に個々の原子を閉じ込める手法を用いている。どちらの場合も、制御された量子状態にあるキュービットを、外部環境から隔絶することを目指している。

キュービットは、いくつかの奇妙な量子的性質を持つ。その結果、相互につながった一連のキュービットは、同数のバイナリー・ビットよりはるかに強力な処理能力を持つことになる。キュービットの不可思議な量子的性質には、「重ね合わせ」として知られる性質や「量子もつれ」と呼ばれる性質がある。

■「重ね合わせ」とは何か?

キュービットは、1と0の数多くの取り得る組み合わせを同時に表せる。このような、同時に複数の状態で存在できる能力を「重ね合わせ」と呼ぶ。研究者は、精密レーザーやマイクロ波ビームを用いてキュービットを操作し、キュービットを重ね合わせ状態にする。

直感に反するこの現象により、重ね合わせ状態にあるいくつかのキュービットを備えた量子コンピューターは、膨大な数の起こり得る結果を同時に並列して処理できる。最終的な計算結果は、キュービットを測定して初めて得られる。測定するとキュービットの量子状態は直ちに1または0に「崩壊」する。

https://cdn.technologyreview.jp/wp-content/uploads/sites/2/2019/02/18140458/062118rigetti0584finalsquare-cropped.jpg 

■「量子もつれ」とは何か? 

研究者は、「もつれ合った」キュービットの対を生成できる。対を成す2つのキュービットが同一の量子状態で存在することを「量子もつれ」という。もつれ合ったキュービットの一方の量子状態を変化させると、もう一方の量子状態も予測可能な形で即座に変化する。キュービット同士が距離的に非常に離れていたとしても同じ現象が起こる。

量子もつれが起こる理由や仕組みについてはよく分かっていない。この現象はアインシュタインすらも困惑させた。アインシュタインが量子もつれのことを「不気味な遠隔作用」と表現したのは有名だ。だが、量子もつれこそ、量子コンピューターの能力の鍵となる現象だ。従来のコンピューターでは、ビット数が倍になれば、処理能力も倍になる。一方、量子もつれのおかげで、量子コンピューターにキュービットを追加すると、演算処理能力は指数関数的に増加する。

量子コンピューターは、量子の数珠つなぎのような、もつれ合ったキュービットを利用することで魔法のような能力を発揮する。特別に設計された量子アルゴリズムを用いて計算速度を向上できる量子コンピューターの能力こそ、量子コンピューターの可能性が大きな注目を集めている理由となっている。

以上が、量子コンピューターのプラス面だ。マイナス面は、「デコヒーレンス」により量子コンピューターが従来のコンピューターよりはるかにエラーを起こしやすいことだ。

■「デコヒーレンス」とは何か?

キュービットが外部環境と相互作用してキュービットの量子的な状態が衰退し、最終的に失われることを「デコヒーレンス」と呼ぶ。

続きはソースで

https://cdn.technologyreview.jp/wp-content/uploads/sites/2/2019/02/18140458/062118rigetti0584finalsquare-cropped.jpg 
images


引用元: 【IT】〈解説〉量子コンピューターとは何か?ニュースを読む前に押さえたい基礎知識[02/21]

量子コンピューターとは何か?ニュースを読む前に押さえたい基礎知識の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック
1: 2019/02/24(日) 17:25:12.50 ID:CAP_USER
人工知能(AI)が人類の知能を超える転換点のことを指すシンギュラリティ。「機械が人間の脳を超える」ことで、人類に豊かな未来をもたらすという肯定的な意見がある一方で、SF映画などで取り上げられるように悲劇を生むのではないか、という懸念を抱く声も少なくありません。

 建築家で、文化論に関する多数の著書で知られる名古屋工業大学名誉教授・若山滋氏は、「AIについて考えることは、そのまま人間について考えること」と言います。どういうことでしょうか? 若山氏が独自の視点で論じます。

■AIと都市化

 「AI(人工知能)」という言葉がブームだ。

 書店で本を探してみると、コンピューター分野とビジネス分野のコーナーに分かれている。コンピューター分野では、ディープラーニング、ニューラルネットワークといったソフトウエアの専門用語が解説され、ビジネス分野では、これをビジネスに応用した成功例が列挙されている。今の人間は、新しい技法の中身に興味をもつ人間と、それを利用して利益を得たい人間に二分されるようだ。両者とも、反対側にはあまり興味がないのがおもしろい。

 かつてのマルチメディアと同様、そのうち沈静化するとも思えるが、実はこれが、僕が「建築様式の発達」についての研究で考えてきた、人間は「都市化する動物である」そして「脳の外在化を進める動物である」という考え方によく適合する。つまりこのAIというものは、人類という動物種の必然と思え、人間性の本質であると思え、避けることのできない、いや今後ますます加速度的にその方向に進まざるをえない事態だと思われるので、ここで、コンピューター分野でも、ビジネス分野でもない、都市論、文明論的な観点から考察してみたい。まずは歴史を振り返ろう。

 AIについて考えることは、そのまま人間について考えることなのだ。

■人間は都市化する動物である

 家や都市は、人間だけのものではない。

 鳥もビーバーも、家をつくる。蟻も蜂も、都市的な空間に住む。

 洞窟時代の人間に比べれば、そういった動物の方が高度な建築と都市をもっていたともいえる。しかし人間はその居住空間を不断に発達させ、今日のように高度で複雑な居住環境を築いてきた。

 人類はその生態を不可逆的に変化させる動物なのだ。

 人間は、道具を使い、農耕し、定住する。その居住地は、次第に大きくなり、密度が高くなり、宗教建築や宮殿建築が複雑化し、絵と文字と彫刻が現れ、道路が敷かれ、橋が架かり、水道が引かれる。やがてガス灯や電灯が灯り、高層化され、鉄道の駅ができ、自動車が走り、情報網が広がっていく。

続きはソースで

Yahoo!ニュース
https://headlines.yahoo.co.jp/hl?a=20190223-00010001-wordleaf-cul
images


引用元: 【シンギュラリティ】AIは「脳の外在化」を進める人間の必然[02/23]

【シンギュラリティ】AIは「脳の外在化」を進める人間の必然の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック
1: 2019/01/30(水) 20:09:45.43 ID:CAP_USER
コロンビア大学でニューロエンジニアリングについて研究するニマ・メスガラニ准教授が、脳の信号を「耳で聞いて理解可能な会話音声」に変換するシステムを作成しました。このシステムを用いれば口に出さなくても脳の信号を読み取るだけで、何を考え話そうとしているかが理解できるようになります。

Towards reconstructing intelligible speech from the human auditory cortex | Scientific Reports
https://www.nature.com/articles/s41598-018-37359-z

Columbia Engineers Translate Brain Signals Directly into Speech | Zuckerman Institute
https://zuckermaninstitute.columbia.edu/columbia-engineers-translate-brain-signals-directly-speech

メスガラニ准教授がコンピューターを用いて脳波を直接理解可能な会話音声に変換するシステムを開発しました。このシステムは、これまでに前例のないレベルで脳波から人の話し言葉を生成することが可能です。システムは音声合成器と人工知能を活用したものとなっており、コンピューターが脳と直接通信するための新しい方法につながる技術として期待が集まっています。

メスガラニ准教授のシステムは、筋萎縮性側索硬化症(ALS)患者や脳卒中から回復した人など、脳は機能しているものの上手く話すことができない人が外界とのコミュニケーション能力を取り戻すための大きな助けとなる可能性があります。なお、メスガラニ准教授の研究結果は科学誌のScientific Reportsで公開されています。

脳波を直接理解可能な会話音声に変換するための研究でリーダーを務めたメスガラニ准教授は、「我々の声は、周囲の友人や家族および世界中の人々とつながるための役に立つものです。よって、怪我や病気で自分の声が出せなくなってしまうということは、とても悲しいことです。しかし今回の研究により、我々はその力(声を出すということ)を取り戻すための方法を見つけたということになります。正しい技術を使えば、1度声が出せなくなってしまった人であっても、再び聞き手に理解してもらうことが可能な会話が行えるようになるということを示すことができました」と、研究の意義について語っています。

過去数十年にわたる研究から、人間が言葉を発する際、もしくは何か話すことをイメージする時でさえ、人間の脳には明らかな活動パターンが現れることが明らかになっています。また、反対に誰かの話を聞く時、もしくは聞くことを想像する時にも、脳でははっきりと認識可能な信号パターンが現れます。これらのパターンを記録し、その内容を解読するという研究はこれまでにも行われてきました。

メスガラニ准教授も同じように脳の信号から話そうとしていた内容を解読するという研究を行ってきた人物で、同分野における初期の研究では脳の一次聴覚野から記録した信号を分析して会話内容を再構成しようとするコンピューターモデルの作成を行っています。しかし、このアプローチでは理解しやすい会話音声を生成することが困難であったため、メスガラニ准教授ら研究チームは別の手法に挑戦することとなります。

以下の画像をクリックすると、メスガラニ准教授らが開発したシステムによる、「脳の活動パターンを分析して生成した音声」が再生できます。少し聞き取りづらいものの、英語で0から9までの数字を読み上げていることがわかります。
https://zuckermaninstitute.columbia.edu/sites/default/files/m5_dnn_vocoder.mp3

続きはソースで

https://gigazine.net/news/20190130-translate-brain-signals-speech/
ダウンロード


引用元: 脳の信号を読み取り「耳で聞いて理解可能な会話音声」に変換するシステムが誕生[01/30]

脳の信号を読み取り「耳で聞いて理解可能な会話音声」に変換するシステムが誕生の続きを読む
スポンサーリンク

このページのトップヘ