インテルのスプリングヒルは「どこでもAI」を加速させる

無料

Intel(インテル)は2019年8月20日、同社初となる人工知能(AI)チップ「Springhill(スプリングヒル)」をリリースしたと発表した。

スプリングヒルは10ナノメートルのIce Lake(アイス・レイク)プロセッサーを土台とし、最小限度のエネルギーで最大限の演算処理を可能にするAIチップだとしている。
大型の電算設備向けに設計されたものだが、同社は自社のデータ・センターにおいてすでにスプリングヒルを使い始めたとも報告している。

インテルによるとスプリングヒルが開発されたのは、イスラエルのハイファにある人工知能開発新興企業ハバナ・ラブズ(Habana Labs)やニューロブレイド(NeuroBlade)など複数の人工知能開発新興企業だ。
これら複数の企業の技術を活用し、大幅なエネルギー消費なしに膨大な仕事量をこなせる画期的な稼働率を実現した。

通常、人工知能に機械学習や深層学習といったアプリケーションを稼働させる場合、CPUやGPUには多大な負荷がかかる。
スプリングヒルはこうした大量の電力を消費するエネルギー問題を解決すべく、電力消費効率を劇的に向上したのが大きな特徴だ。

このことにより、人工知能アプリケーションが常に稼働する大型電算設備やクラウド・データ・センターにおいて、アプリケーション稼働効率や電力効率が飛躍的にアップする期待がある。
結果的に、コスト効率も高まるという計算だ。

現在インテルのAI製品グループでは、「どこでもAI」戦略を主要コンセプトに掲げている。
スプリングヒルはその主要コンポーネントとして、今後ビジュアル面や音声、画像認識、言語処理タスクなどで活用される見込みとなる。

周知のごとく、すでにインテルのチップは世界中の大手企業で使用されているが、標準プロセッサーをディープラーニングなどに用いると、一般的な計算タスクに悪影響が出ることがわかっている。
特化された部品ではないのだからエネルギーの無駄が多いのは当然だが、スプリングヒルの登場で、今後は推論は推論、計算は計算にそれぞれタスクが集中できるようになるわけだ。
このことは、同社のAI製品グループを統括するゼネラルマネジャー、Naveen Rao氏の説明するところの「どこでもAI」ビジョンの実現に大きく貢献するだろう。

スプリングヒルの展開は、複雑なAI推論プロセスを効率化するだけでなく、現在加速しつつあるデータセンターのエネルギー効率を大幅に改善するトリガーにもなるはずだ。

こうした専用チップの開発は、インテルだけでなく世界中の名だたる企業が意欲的に乗り出している。
これまでのハードウェアではエネルギー消費効率に多大な無理があった大量の機械学習も、今後はデータセンターで可能になる予測もある。
当然台頭すればコストが下がり、一般的にもAIがさらに身近になるだろう。
すでにかなり生活に入り込んで来ている感のあるAIだが、この流れはさらに加速することは間違いない。
そもそも何を持ってAIなのか、存在が当たり前となりつつある現代は、すでにNaveen氏の構想が実現しつつある世界なのかもしれない。

タイトルとURLをコピーしました