ストレージの高速インタフェース規格「NVM Express」(NVMe)や、Intelの永続性メモリ「Optane」などの新しい技術が、企業向けストレージの分野で今後ますます重要になってくる。2020年11月開催のバーチャルカンファレンス「Flash Memory Summit」で、専門家がストレージ分野の今後の展望を語った。
AI技術に必要なコンピューティングとストレージの中核技術
AI(人工知能)技術、ビッグデータ分析、ハイパフォーマンスコンピューティング(HPC)など要件の厳しい用途への需要が、今後企業の間でさらに高まる可能性がある。こうした中でストレージやメモリのデータ処理速度の高速化がより重要になる。
特にAI技術を利用するには「ハードウェアとソフトウェアの両面でコンピューティングアーキテクチャの見直しが必要だ」と、コンサルティング企業Intuitive Cognition Consultingのプリンシパルを務めるデーブ・エグルストン氏は語る。
エグルストン氏によるとCPUやGPU(グラフィックス処理プロセッサ)の他、今後は
- DPU(Data Processing Unit)
- FPGA(Field Programmable Gate Array)
- ASIC(Application Specific Integrated Circuit)
などのコンピューティング要素がAI技術用のデータ処理を担う。DPUはネットワークインタフェースを搭載したデータ処理用のプロセッサ、FPGAやASICは特定の用途向けにプログラム可能な集積回路を指す。NVMeや、NVMeをネットワークにまで拡張する「NVMe over Fabrics」(NVMe-oF)はデータ伝送を高速化し、これらのコンピューティング要素を結び付けるのに役立つという。
問題は、こうしたコンピューティング要素間を移動するデータの制御を、サーバのCPUが担い続けることだ。「処理の一部をネットワークのどこか別の場所、またはストレージコントローラー内に移すことが鍵になる」とエグルストン氏は語る。
データの暗号化や圧縮、データベース検索などのタスクを処理するためのCPUを搭載したストレージアレイ「コンピュテーショナルストレージ」は、こうしたオフロードの手段となり得る。サーバの一部タスクをコンピュテーショナルストレージにオフロードすることで、サーバのCPU負担を軽減できる。「DPUを使って処理の一部をネットワークインタフェースカード(NIC)に移すことも効果的だ」とエグルストン氏は説明する。