So-net無料ブログ作成
検索選択
前の10件 | -

安曇野(あずみの、あづみの)

azmino2.jpg
安曇野の田植え前の水を張った田に映る北アルプスです。(撮影: Vincent Davenport)
安曇野は、長野県松本盆地の北部に位置し、北アルプスの山々から流れる梓川や中房川、高瀬川などによってできた複合扇状地です。北アルプスに沿って南北に広がる田園風景が見事です。
地表の水の多くは伏流水となって地下に浸透してしまうため、堰(用水路)を作って灌漑し、農業を行っています。松本周辺では田はあまり見られず、畑でスイカなどが栽培されていますが、北上して安曇野あたりまで来ると稲作が盛んで、画像のような風景が広がります。
また清澄な伏流水を使った、わさび栽培やサーモン養殖なども盛んです。

因みに北アルプス槍ヶ岳を源流とする梓川は、松本市で奈良井川と合流し、犀(さい)川となります。
犀川は安曇野を流れ、高瀬川などが合流し、そして長野市で秩父山地の甲武信(こぶし)岳を源流とする千曲川と合流して名称は千曲川になります。
千曲川は新潟県に入り信濃川となり、日本海に注ぎます。千曲川と信濃川を合わせて日本最長の河川になります。信濃川より千曲川のほうが長いのですが、河川法上、信濃川(本流)とされます。

また千曲川が犀川と合流する地点から上流で比較すると、千曲川よりも犀川および上流の梓川のほうが長いのです。つまり梓川ー犀川ー千曲川ー信濃川が一番長いのですが...
まあ、どちらにしても最長であることに変わりがあるじゃあなし、千曲川も歴史ある川なので別にいいか...島崎藤村の「千曲川旅情の歌」は、詩情あふれる詩です。

人工知能(AI)はどこまで進んだ?

人工知能(Artificial Intelligence、AI)という言葉がよく使わています。
「AI」は人間を超えたとか、医者や弁護士といった知的職業が「AI」に奪われるとか喧しいようです。
この用語自体は、既に1950年代に生まれています。そして1968年に公開されたスタンリーキューブリックの「2001年宇宙の旅」では、宇宙船のコンピューター「HAL」が、感情や意識さえも持っているかのごとく描かれていて、さらには矛盾した任務の指令によって混乱し、乗組員の生命を奪うということまでやってのけて?います。
しかし現実は、コンピューターの性能の向上は目覚しかったにもかかわらず、それは計算能力という点において人間をはるかに超えたものの、その他の点においては、人と比べ得る知能を持つほどのものではなく、「AI」の歩みは遅々としたものでした。

転機が訪れたのは1996年に、IBMのコンピューター「Deep Blue」が、チェスのゲームで人間の世界チャンピオンを破ったあたりからです。そして2116年に、Googleの「AlphaGo」(アルファ碁)が、世界トップレベルの囲碁棋士を破るという大きな出来事がありました。
「Deep Blue」から「AlphaGo」まで20年かかった理由は、囲碁はチェスに比べて桁違いに指し手が多く、また直感や目標などが重要であるということなどと、「Deep Blue」が、膨大な知識のデータべ-スをもとに、ルールに従って最適解を出す、いわゆるエキスパートシステムという手法であるのに対して、「AlphaGo」は、人間の脳の仕組みに倣った「ニューラルネットワーク(神経回路網)」に基づいた「ディープラーニング(深層学習)」と呼ばれる、ずっと進んだ手法を使っていることによります。
「AlphaGo」が勝利したことによって、「AI」は一気に注目を浴びることになり、人間の知能を超えたとまでいわれるようになりました。

人のニューロン(神経細胞)は、多数のニューロンが結合し合うネットワーク構造を形成して、その結合部分であるシナプスが、一定以上の強さの信号(入力刺激)を受けると、活動電位を発生させ、他のニューロンに情報を伝達します。ひとつの神経細胞に複数の細胞から入力したり、活動電位がおきる閾(しきい)値を変化させたりすることにより、情報の加工、処理が行われます。
実際はもう少し複雑な仕組みですが、いずれにしても個々のニューロンそれ自体は、比較的単純な作動をしていて、複数のニューロンが合わさることによって、ある状態を示しているという、いわば「パターン認識」を行っていると考えられるのです。
「AI」の「ニューラルネットワーク(神経回路網)」はこの仕組みに倣って、パターン認識によって画像や音声や、推論などを処理しています。

因みにこのことは、フォン・ノイマンのセル・オートマトンを思い起こします。
数多くのセルから構成される格子列または面上で、各セルが近傍の状態によって、オンになったり、オフになったりするといった単純な規則によって動かすことを続けて、全体のセルの状態や結果を観察する仮想機械です。セル・オートマトンは、「生命活動に模した、機械の自己複製」を理論化することを目的としましたが、神経細胞や免疫システムの働きや細菌などの生物の繁殖と大変良く似た構造であることに気付かされます。

ニューラルネットワークのもっとも単純な構造では、入力された情報は入力層のニューロン群によって処理され、別のニューロンに情報が伝達され、出力層のニューロン群が処理した結果を出力します。
複雑な処理を行うには、入力層と出力層の間に中間層を設けます。中間層にニューロン群を配置することで、情報処理がより深くなり、確度が上がったり、汎用性が広がったりします。

nyuron3.jpg
中間層を一層からもっと増やして多層にすることで、さらに「深く」思考することが可能になります。
これが、ディープラーニング(深層学習)と呼ばれるものです。
ディープラーニングでは、従来のように人間が「特徴量」を設計しなくても、コンピューター自身が膨大なデータを読み解き、そこに隠れている規則や相関関係などの特徴を発見します。

特徴量とは、問題の解決に必要な本質的な変数であったり、特定の概念を特徴づける変数です。
例えば画像であれば色、輝度、被写体の形状や大きさ、頂点の位置や配置など、「その画像に何が写っているか」を判定するために必要となるだろう要素が特徴量です。
画像などのデータを入力すると、情報が第1層からより深くへ伝達されるうちに、各層で学習が繰り返され、この過程で、画像や音声などそれぞれのデータの特徴量が自動で算出されるわけです。
例えば多くの犬の画像を入力すると、自身で画像を解析して犬の特徴量を算出します。
次に犬の画像を入力し判定させると、それが今までの画像とはだいぶ違っていても、コンピューターはそれを、犬と判断します。人間が犬と教えなくとも、自身で犬を判断できるようになるわけです。

ということで、ニューラルネットワークを多層化したディープラーニングを行う「AI」が出来たことによって、「AlphaGo」が囲碁で人間に勝ち、多くの人の耳目を集めました。
現在、実際に活用が広がっているのは「IBM Watson」というシステムです。
実は「Watson」は「AlphaGo」より早く開発されていて、2011年に米国のクイズ番組「ジョパディ」に参加して、人間のクイズ王に勝ちました。
質問は話し言葉で「Watson」に入力され、それを理解して、ビッグデータを検索して推察し、回答を出すという大変難しいことに挑み勝利したのです。
その後、IBMはWatsonの実用化の開発を進め、いまでは保険、小売、教育、製造、医療など、50か国、25以上の業種で導入されています。

Watsonは自然言語を理解し、ビッグデータとディープラーニングによって専門知識を習得し、質問や課題に対してビッグデータを解析して推論し、最適な回答を出すという、「AI」に必要な多くの要素を持っているもかかわらず、IBMではこれを「AI」とは呼んでいないとのことです。
学習、推論、認識などで、一部の知的作業においては大変優れるものの、人間のような汎用性はなく、膨大なビッグデータを持ってはいても、ごく限られた領域のデータで、人間のように広い分野ではなく、そして感情や意識などまで含めた脳全体を再現することなど、まだとても不可能です。
つまり人の脳に匹敵するような、「人工知能」といえるほどのものは、まだ先の話ということですね..
とはいっても、既に多くの分野で、人間に代わる仕事をこなしています。ご用心を!


明るい春の森

mori05d.jpg
山の春はちょっと遅くて今ごろからです。
コナラ、ミズナラ、クリ、アズキナシ、カエデなどの落葉広葉樹の森が、緑の若葉で輝く時です。
四季それぞれの良さがありますが、やっぱり春が一番。冬が終わり、あらゆる生命が一斉に活動を始める春。成長する姿は若々しく、瑞々しいのです。
tani10b.jpg

整列や類推などコンピュータに苦手な作業

データを一定の規則に従って並べることを、ソート(sort 、整列)といいます。
ソートを、例えば1から順に9まで(昇順に)並べた数字を、逆に9から順に1まで(降順に)並べ替えるような演算をコンピューターにやらせるとします。
まず、左端の1を隣の2とを比較して、2の右に並べ替え、次に1と隣の3とを比較して並べ替えというような作業を、1が右端に来るまで8回、(比較)演算します。次に左端となった2を同様に隣同士と比較して右端の1の左に並べるには7回の演算が必要です。
これを順に行っていくと合計で35回の演算で、9から1まで降順に並び、終了です。
ソートの方法はいくつもあって、おそらくこの方法が最も効率が悪い方法ですが、演算を一つ一つ順に行っていく直列処理のコンピューターでは、大なり小なりこのような手順になり、実際、ごく初期のパソコンではこの種のソートに結構時間がかかりました。
人間ならば一瞬で昇順を見て取り、ひっくり返して降順にしてしまうことができます。
コンピューターよりも人間のほうが計算が早い時代もあったのです。

次に「類推」(analogy)です。類推は、ある事物に基づく情報を他の事物に、それらの間の何らかの類似性に基づいて推し量り、適用することです。
類推は、コンピュータの苦手とする分野です。これがコンピューターサイエンスの先駆者、ダグラス・ホフスタッターによって取り上げられたのは、文字列間の類推です。

文字列 a b c が、 a b d に変わるとすると、i j k は何に変わるでしょうか?
多くの人は「右端の文字をアルファベットの直後の文字で置き換えよ」というルールが適用されたものとしてとらえ、i j l と答えます。
次に a b c → a b d となると、k j i → ?
「右端の文字を直後の文字で置き換える」というルールを適用すると、答えは k j j となりますが、それでは、k j i の持つ、「文字が右から左の順で逆向きに並んでいる」構造が無視されます。
そこで、 a b c の右端というコンセプトが、 k j j の左端というコンセプトに「横すべり」するような力が働いて、「左端の文字を直後の文字で置き換えよ」というルールが適用されているととらえ、 l j i という解答を得ます。
もちろん解答は一つだけではなく、人によってはk j j が解だというかもしれません。ただ一つの正解しかないのではなく、コンセプトの横すべりの滑りのよさ?や構造の強さなどの判断によって、どれだけの人がそのコンセプトを採るかという解であって、ここら辺もコンピューターに苦手なところです。

人はこの類推を、ごく日常のこととして行っています。例えば様々な筆跡によって書かれた文字Aを文字Aとして認識し、クラシック音楽愛好家は一度も聴いたことのないバッハの曲をバッハの曲と当てられるといった類です。類推は、生活に必要欠くべからずのものなのです。

現代のコンピューターは、性能の飛躍的向上と、コンピューターサイエンスの進展によって、苦手な作業を克服しようとしています。
直列処理であっても、並列処理をエミュレート(emulate、模倣する・真似をするという意味で、異なるハードウェアやソフトウェア環境を模倣・真似をさせる技術)することによって、例えばソートでは隣同士の数字の比較を同時に行います。
また類推アルゴリズムのプログラムによって、これをシミュレート(模擬する)するといったことです。
こういった技術の積み重ねによって、いわゆる人工知能への道が開かれつつあります。

フロン廃止への道のり

フロン類は炭素、水素、塩素、フッ素などからなる化合物の総称で、人工的に作られた物質です。
最初に作られたフロンは、炭素・フッ素・塩素のみからなる、クロロフルオロカーボン (CFC) で、冷蔵庫などの冷媒として開発されました。
フロンは他にも溶剤、発泡剤、消火剤、エアゾール噴霧剤など広い用途があります。
化学的、熱的に極めて安定であるため、開発当時は夢の化学物質として、もてはやされました。

しかし、1970年代に、オゾン層の破壊が問題になり、フロンはその原因物質とされました。
大気中に放出されたフロンが、分解されないまま成層圏に達し、そこで太陽からの紫外線によって分解されて出来た塩素原子が、オゾンを分解するという化学反応の過程です。
オゾン層保護のため、フロンは国際的に、その製造が禁止されるに至りました。
そこでオゾン層を破壊しないフロン、いわゆる代替フロンの開発が行われ、ハイドロクロロフルオロカーボン (HCFC) やハイドロフルオロカーボン (HFC)などが生まれました。
しかしHCFCは依然、オゾン層破壊効果があるため、先進国では2020年までに、世界でも2030年までに全廃することが決まっています。

ところが、次に問題となったのが、地球温暖化への影響です。
HFCはオゾン層破壊効果は少ないものの、温暖化係数が、二酸化炭素の数千倍もあるのです。
ついにHFCも廃止への道をたどることとなりました。先進国では2029年までに70%削減し、世界全体では2047年までに85%の削減が決まりました。
CFC→HCFC→HFC→ノンフロンへと長い道のりです。フロン類はそれだけ有用性が高く、また代替物質(主として二酸化炭素)への変換が、技術的にもコスト的にも難しいことなどが理由です。

フロン類が廃止の道をたどるといっても、既に生産されたものを使い続けることは可能です。
実際、HFCはおろか、HCFCを使った空調や冷凍冷蔵設備が、依然として多く使われています。
こういった設備機器は製品寿命が長いことも長期使用を助けました。さらにHCFCを2020年まで使用して、その後にHFCに転換する、先延ばしという選択肢がありました。

ところが2029年には、そのHFCも大きく削減されることになり、先延ばし戦略が危うくなりました。HCFC削減から10年足らずで、HFC削減を迎えてしまうからです。
HCFC→HFC転換を経ずに、HCFC→ノンフロンに更新という動きが強まると思われます。

また2015年に施工された「フロン排出抑制法」により、フロン類の設備機器の点検と報告が義務付けられ、漏洩している場合には修理しないと補充が出来ないなど、一段と規制が厳しくなりました。
この規制により、ノンフロン設備への転換が加速される傾向にあります。
因みにこの制度に基づいたフロン漏洩の集計結果が公表されていて、大量の漏洩の実態と、その7割が小売業、食品製造業、化学工業の3業種で占められていることが判明しています。

ということで、極めてゆっくりだったフロン類の削減が、ここにきてノンフロン設備機器への転換を図る傾向にあわせて進むのではと思われます。
HFC→ノンフロン転換及び、HCFC→ノンフロン転換の両方が起きるわけです。

アリの行動―個体の単純さと集団の複雑さ

アリやハチなど、ある種の昆虫たちが、個体としては単純で知能など持たない生物なのに、群れの集団としての行動が極めて複雑で、知性を持っているようにも見えるのは何故なのでしょうか?
群れの中心にいる女王アリといえども、ただ子供を生むだけの単純な機能を果たしているだけのようです。アリの集団が中央処理装置を持っていないとしたら、何が全体を統括しているのでしょうか?

アリの作業の中で、「食料調達」における個体と集団の行動は、次のように考えらる。
食料調達を担ったアリは、ランダムな方向に進む。食料を見つけた個体は、道標フェロモンと呼ばれるマーカーを道筋に残しながら巣に戻る。フェロモンの道筋に遭遇した他のアリは、それに添って進もうとする。フェロモンの濃度が高ければ高いほど、それに遭遇したアリがその道筋をたどる可能性は高くなる。アリが食料に到達すると、すでに残されている道筋を強化しながら巣に戻る。
強化されない道筋はやがて消失する。このようにして、様々な食料資源の位置と質に関する情報が、無数のアリによって集合的に収集され、伝達される。

アリの集団がその振る舞いを調節するための、もう一つの手段は「作業の割り当て」にある。
働きアリが担う作業には、食糧調達、巣のメンテナンス、パトロール、廃棄物の処理の四つのタイプがある。それぞれの作業を実行する働きアリの数は、環境の変化によって変わる。
しかし他のアリに指示を出すアリなどは存在せず、また各個体は他のわずかな個体とやり取りしているに過ぎないにもかかわらず、どうして個々のアリが集団全体の環境条件に応じて、次に行うべき作業を決定できるのか?

アリは環境の中で、「何に遭遇するか」に基づいて、またそれと同時に様々な作業のうちの「ある特定の作業を遂行している他のアリに、どのくらいの割合で遭遇するか」に基づいて、作業の変更を決定している。巣のメンテナンス作業を行っているアリが、規模が大きく質の高い食料が巣に運び込まれることに遭遇すると、自らの役割を食料調達に変更する可能性が高まる。
また運搬活動の増加によって食料を巣に運び込まなければならないという合図が何らかの方法で伝えられ、食糧調達作業を開始する可能性がさらに高くなる。
アリはアンテナで直接触れ合いながら、個体間のやり取りを行ったり、また各作業に固有なフェロモンの痕跡を認知することによって、他のアリが何を行っているかを知って、様々な集合的な振る舞いをもたらしているようだ。 以上、「メラニー・ミッチェル著、複雑系の世界」より

アリや他の生物系あるいは免疫系などの振舞い方を模倣するコンピュータープログラムが開発されています。「アリコロニー最適化アルゴリズム」は、仮想のフェロモンを分泌したり、仮想の作業変更をしたりしながら、アリをシミュレートするプログラムです。
もっと複雑に見えるアリの生態については、これからです。
例えばアリの多数の個体がそれぞれの身体を重ね合わせ、一匹のアリのみでは到底届かない大きな距離をまたいで枝から枝へと長い橋を築いて集団が移動したり、また円盤状に固まって川に浮いて流れて移動したりするようなメカニズムなど、まだよく解っていないことも多いのです。

福寿草とカタクリ

fukuju3.jpg
雪が解けると真っ先に芽を出し、花を咲かせるのが、この「福寿草」です。
福寿とは幸福と長寿を意味しています。江戸時代から園芸種として多く育てられているそうです。
花の咲く期間は比較的長いのですが、花が枯れると程なく葉も落とし地上から姿を消します。
そのため、スプリング・エフェメラル(春の妖精)と呼ばれます。

同じようにスプリング・エフェメラルと呼ばれるのが「カタクリ」です。
落葉樹林によく生育し、春に落葉樹が葉をつける前の明るい林に芽を出して花を咲かせ、落葉樹が葉をつけて林が暗くなるまでには地上から姿を消します。花も葉も姿が見られるのは福寿草より短い期間で、また葉も1,2枚のみで、これで充分な光合成が出来るのかと思わせるほどです。
しかし、根(鱗茎)は年月をかけて大きくなり、昔はこの鱗茎から片栗粉を精製していました。

katak6c.jpg
kata12c.jpg
光合成は大きく2つの反応に分けられます。光エネルギーを化学エネルギーに変換する光化学反応(明反応)と、化学エネルギーから糖を合成するカルビン回路(暗反応)です。
福寿草もカタクリも春のうちに明反応だけ行って、化学エネルギーを蓄え、そして葉を落としたあと、暗反応で、根や鱗茎を発達させているのでしょうか。

ところで福寿草には強い毒性があります。誤って食べる心臓麻痺を起こす危険があるのです。
芽が出たばかりの福寿草はフキノトウと間違えて食することがあるそうです。
庭にはスイセンやマムシ草、そしてトリカブトなど毒性のある植物が沢山あるのです。

フォン・ノイマンのコンピューター 続き

現代のコンピューターのアーキテクチュアを作ったジョン・フォン・ノイマンは、「非フォン・ノイマン型コンピューター」という機械の概念設計をしています。え! ノイマンが非ノイマンをってどういうこと?
その前にアラン・チューリングという英国の天才数学者と、彼のチューリングマシンについてです。

第二次大戦時、ドイツは解読不可能といわれる暗号機を開発して通信に使用していました。名づけて「エニグマ暗号」です。その暗号を解読する政府の機密プロジェクトで、チューリングは解読の中心となって、エニグマ暗号が適用されたほとんどすべての通信を解読する解読器の開発に成功しました。この機械は対独戦において英国の優位をもたらし、ナチス敗北の要因の一つともいわれています。

チューリングは大戦の前、1936年に論文「計算可能数についての決定問題への応用」で、計算を数学的に議論するための単純化・理想化された仮想機械を発表しました。この仮想機械は、
1.格子状のセルに分割され、その上に情報を書き込み、読み取り出来る無限に長いテープ
2.セルに格納された情報を読み取り、書き込む可動テープヘッド
3.次に何を行うべきかをテープに指示する一セットのルール
で構成され、そのルールとヘッドから読みとった情報の組み合わせに応じて、次の動作を実行する。
1.ヘッドは特定のセルから動作を開始し、状態を開始にセットする
2.ヘッドは現在位置のセルから情報を読み取る
3.読み取った情報とルールによって3つの項目が指定される
 A.現在位置のテープに情報を書き込む
 B.ヘッドを右か左に一つ移動するか停止する
 C.ヘッドの新しい状態を設定する
4.この動作を、機械は内部状態が停止状態になるまで反復して実行し続ける。
チューリングは、この仮想機械「チューリングマシン」によって、数学上の問題である「決定問題」を解決したのです。

またも前置きが長くなりましたが、ここでジョン・フォン・ノイマンの登場です。
彼が設計した世界で最初のプログラム可能なコンピューターの基本概念すなわち「フォン・ノイマン型アーキテクチュア」は、チューリングマシンから着想を得たといわれています。フォン・ノイマンとチューリングは、プリンストン高等研究所で親交があったといわれています。
フォン・ノイマンは、それだけではなく、1940年代に「生命活動に模した、機械の自己複製」の論理を定式化しようとして、それに取り組む手段として、セル・オートマトン(cellular automaton)という仮想機械を考案しました。

セルはチューリングマシンのセルと同じで、オートマトンは自動人形、自動機械の意です。
数多くのセルから構成される格子列または面上で、各セルが近傍の状態によって、オンになったり、オフになったりするといった単純な規則によって動かすことを続けて、全体のセルの状態や結果を観察する機械です。セル更新ルールを見ただけでは予測不可能な極めて複雑な振る舞いを示します。

セル・オートマトンは、神経細胞の働きや細菌などの生物の繁殖をシミュレートしたり、また熱力学の法則に従う気体や液体の力学現象のシミュレーションに使われています。交通渋滞や雪の結晶の成長、ガスなどの物質の拡散現象などさまざまな現象のモデル化にも用いられます。素粒子の相互作用を理解する方法の研究にも使われるなど、徐々に応用の範囲が広がってきました。

セル・オートマトンは、ランダムアクセスメモリー(RAM)も、中央処理装置(CPU)も持たず、各セルが並列に演算処理を実現している、いわば 「並列コンピューター」 であるといった多くの点で、フォン・ノイマン型コンピューターと異なっているので、「非フォン・ノイマン型コンピューター」と呼ばれます。
ただし、このコンピューターは、概念上のコンピューターで(ハードウェアで実装して処理を行おうとする試みも行われていますが)、実際にはフォン・ノイマン型コンピューターで、ソフトウェア(プログラム上)で、シミュレートされ実行されます。

フォン・ノイマンのコンピューター

SF映画の名作「2001年宇宙の旅」の監督スタンリー・キュ-ブリックは、多くの話題となる映画を作りましたが、その中でも「博士の異常な愛情」という映画は、ブラックコメディの傑作です。
米ソの冷戦下、正気を失った米軍の司令官が核ミサイルの発射命令を出してしまい、その対応に米ソの指導者たちが右往左往して、最後には核戦争を絶対的に抑止することを意図して作られた「最終兵器」が点火してしまうという、シリアスな題材を、ブラックコメデイに仕立てた映画です。

映画の登場人物で中心的な存在が、大統領科学顧問の天才科学者、「ストレンジラヴ博士」です。
強大な核戦力を持って対峙するソ連に対する米国の核戦略は、起こりうるすべての事態に対処できるように準備し、たとえ核戦争になっても、採りうるオプションを用意し、さらには全面核戦争が起きたとしても、地下のシェルターで生き延びるように準備しなければならないとする、冷戦時代の戦略思考をカリカチュアライズしたキャラクターなのです。

ストレンジラヴ博士は、車椅子に乗り、片手が義手で、強いドイツ語なまりで話し、そして興奮すると義手がナチ式の敬礼を勝手にしてしまうという強烈なキャラクターの架空人物ですが、そのモデルについて、いろいろな人達が取り沙汰されてきました。ここではその内の二人の人物をあげます。
一人はヘンリー・キッシンジャーです。ニクソン大統領の補佐官、国務長官を務めた政治リアリストとして知られ、また限定的核戦争を提案しました。現在もなお隠然たる影響力を持つ人物です。少年時代にナチスドイツから米国に逃れてきた彼のドイツ語なまりは有名です。

そしてもう一人のモデル候補は「ジョン・フォン・ノイマン」です。
ハンガリー生まれの天才の中の天才といわれる人物、フォン・ノイマンは数学、物理学、コンピューターサイエンス、経済学、生物学などの分野で重要な貢献をしたことで知られています。
フォン・ノイマンは、23歳で数学・物理学・化学で博士号を取得し、その5年後には新たに創設されたプリンストン高等研究所(IAS)に、アルバート・アインシュタインなどとともに教授職につきました。
そこでの10年の間にゲーム理論の領域を開拓し、数理経済学の論文を発表し、そして世界で最初のプログラム可能なコンピューターの一つ、EDVACの概念的な枠組みを設計し、さらにマンハッタン計画に関わり、長崎型原爆の設計に不可欠な計算で重要な役割を果たしたといわれています。
そして戦後は政府の核ミサイルの専門的アドバイザーとしてソ連への先制核攻撃を主張しました。
また核開発の再に放射線に曝されたことでガンにかかり、晩年は車椅子に乗っていて、これもストレンジラヴ博士にふさわしい経歴の持ち主です。

前置きが長くなりましたが、フォン・ノイマンは、EDVACの概念的な枠組みを設計した後、さらにその改良後継機の設計・開発を行いました。「IASマシン」と呼ばれるそのコンピューターは、プログラムとデータをひとつのメモリに混在させることを意図したほぼ最初の設計で、1951年に稼動しています。因みにIASマシンは2300本の「真空管」で構成されています。
IASマシンの設計概念は公開され、世界中で同じ概念のコンピューターが開発されました。
現在、世界のコンピューターは、「フォン・ノイマン型」と呼ばれ、スーパーコンピューターからパソコン、そしてスマホ搭載のコンピューターまで「フォン・ノイマン型アーキテクチュア」が基本になっています。

フォン・ノイマン型アーキテクチュアは、プログラムの命令とデータの両方が配置されるランダムアクセスメモリー(RAM)と、メモリー上の命令とデータを取り出し、データをもとに命令を実行する中央処理装置(CPU)によって構成されています。
プログラムは通常、BASICやC言語、JAVAなどの高級言語と呼ばれるプログラム言語によって記述され、それが翻訳プログラム(コンパイラー)によって、コンピューターが処理することの出来る「0と1」のビット列の機械語に変換されます。そして命令を表すビット列は、単純な論理演算に翻訳され、CPUによって計算が逐次処理で実行されます。
どのような計算も、わずかな種類の論理演算を組み合わせることによって実行することが出来ます。現在のコンピューターは、1秒間に数億回の命令(計算)を実行することが出来ます。

ということで現代のコンピューターは、ほとんどすべてが、フォン・ノイマン型アーキテクチュアに依拠していますが、全く違うコンピューターもあります。それについては、―続き―で...


ネット・ゼロ・エネルギー住宅

日本の二酸化炭素排出量は、1990年から25年間の推移を見ると、ほぼ漸増傾向です。
産業部門や運輸部門は減っていますが、家庭とオフィスでの増加が足を引っ張っています。
冷暖房や種々の電子・電気機器の増加による電力消費の増加ということでしょうか。

そこで家庭のエネルギー消費を減らそうと、経産省が「ネット・ゼロ・エネルギー住宅(ZEH)」なるものを定義しました。頭にネットを付けるのは、実際にエネルギー消費がゼロなんて住宅はありえないから、どこかでエネルギーを自家調達して(これを創エネルギーというんです)、消費エネルギーと調達エネルギーのプラスマイナスのネット、正味でゼロにするということを明確に?するためです。
なおZEHを「ゼッチ」と発音するのだそうです。気恥ずかしくて、とてもゼッチなんていえませんけど。
ただ定義しただけでは、何も起こりませんから、補助金をいろいろ付けて世に広めようというようという目論見です。まあ、それも悪くはありませんが、補助金にはいろいろと制約が多いのも事実です。

ZEHを構成する要素は大きく三つあります。まずは建物の断熱性、次にエネルギーを消費する設備機器の省エネ化、そして最後は太陽光発電です。
建物の断熱性能を高めて夏の冷房、冬の暖房にかかるエネルギー消費を極力減らし、また給湯、照明その他の設備機器の省エネを進め、太陽光発電でそれらのエネルギーを賄おうということです。

ここで一番問題になるのが断熱です。以前から日本の住宅は断熱性能が低いということは指摘され続けてきました。「住まいは夏を旨とすべし」という兼好法師の言葉が現代でも生きているのです。
伝統的日本住宅を建てる限り、スカスカは不可避だともいえるでしょう。
最近ようやく壁の断熱が普及、一般化してきました。しかしどうしても足りないのは窓の断熱です。

熱の通り易さ(難さ)を表す数値に、「熱貫流率(U値)」というものがあります。
単位はW/㎡K(ワット/㎡ケルビン)で、対象材料の内側と外側の温度差が1℃の場合において、1㎡あたり貫入(通過)する熱量Wを表します。
これによると、厚さ100ミリの断熱材を使った壁の熱貫流率は、0.38W/㎡Kになります。
一方、窓のほうは、樹脂サッシ高断熱複層ガラスでは、熱貫流率1.7w/㎡k位が標準です。
つまり断熱窓は断熱壁の4倍以上の熱の伝わり方です。しかも壁は断熱材を増やすなど改善の余地がありますが、窓は三層の超断熱窓にしても1.0をきるのがやっと。しかも価格も高価なのです。

ZEHでは、建物全体での熱貫流率は、0.4~0.6以下(地域により異なる)を求めています。
つまり窓をちょっと大きくとったりすると、(特に寒冷地では)クリアできない数値です。
ということで建物全体の断熱性能を(あまりりコストを掛けずに)高めようとすれば、窓面積を減らすのが一番ということになります。窓を小さく、そして少なく、さらにははめ殺しにして開閉もなくすという、まさしく南極の基地みたいな極地型建物が断熱にとっては理想の形です。
太陽を燦々と浴び、心地よい風を通すという住宅よ、サヨウナラ...

といって済ますわけにはいきません。窓の断熱は断熱障子や、カーテン、ブラインドなどを併せて、断熱性能を壁に近づけ、また開閉窓は風の通り道に効果的に配置するなどして、光と風と熱を制御して、極地型住宅から逃れるのです。
→省エネ住宅と窓 http://kurotsugumi.blog.so-net.ne.jp/2015-04-02

前の10件 | -
メッセージを送る