今日からはじめるディープラーニング
TRANSCRIPT
今日からはじめるディープラーニング~ マルチGPUサーバー HPE Apollo 6500 と
TensorFlow 環境構築サービス ~
日本ヒューレット・パッカード株式会社サーバー事業統括本部
サーバー製品統括本部 スケールアウト・サーバー製品部
岡野家和
テクノロジーコンサルティング事業統括
トランスフォーメーション・コンサルティング本部 テクノロジーアーキテクト部
北山晋吾
2016年10月5日
本日の内容
2
1. HPE Apollo 6500 System のご紹介
2. ディープラーニング開発環境構築サービスのご紹介
HPE Apollo 6500 System 今日からはじめるディープラーニング
3
HPE Apollo System ファミリー
4
HPE Apollo 2000
HPE Apollo 4000 ファミリー
Scalable Multi-node
Storage Density
HPE Apollo 6000
HPE Apollo 8000
Rack-scale Efficiency
Warm-water Supercomputer
ワークロードに最適化されたモジュラー型サーバー
HPE Apollo 6500
2Uサーバートレイに8 GPU搭載
4Uシャーシに2サーバー・16 GPUを稼働
Tesla K80、M40、P100*をサポート
「電源の外出し」で熱と温度の課題に対処
Ultra-dense GPU Server
* Tesla P100は11月販売開始予定
New
HPE Apollo 6500 とはUltra-dense GPU Server
5
サーバーHPE ProLiant XL270d Gen9
シャーシHPE Apollo d6500 chassis
外付けパワーサプライHPE Apollo 6000 Power Shelf
GPU×4枚
GPU×4枚
• 最大8 GPU搭載可能な2Uラックサーバー
• 1シャーシに2サーバーを搭載
• 実績豊富な「ProLiant」 (M/BはApollo 2000)
• サーバーノードは個別メンテナンス可
• 前面抜き挿し型サーバートレイ
• 前面アクセス ホットプラグドライブ
• 冗長性のホットプラグ冷却ファン
• HPE Apollo 6000 で実績豊富な
1.5U パワーシェルフ
4U
2U
ディープラーニングを念頭にGPU搭載密度を追及したマルチノードサーバー
HPE ProLiant XL270d Gen9基本仕様
6
項目 仕様
ラック 奥行1,200mm ラック推奨
シャーシ HPE Apollo d6500 シャーシ (4U、2台のサーバートレイ、1シャーシ最大16 GPU稼働)
プロセッサー インテル Xeon プロセッサー E5-2600 v4 ファミリー
電源 HP Apollo 6000 パワーシェルフ
メモリ 16×2,400MHz DDR4 DIMM、最大容量1,024GB (16 x 64GB DIMM)
ネットワークオプション
• 2×1GbE シングルポート モジュール標準搭載• 2×PCI Express x16 LPスロットにInfiniBand、OmniPath(リリース後)、Ethernet アダプタ搭載可能
(1Gb, 10Gb, 25GbE)
I/O スロット1サーバートレイあたり8枚の350W GPUをサポー• 1×PCI Express x8 メザニン型スロット (Smartアレイ用)
• 2×PCE Express x16 ロープロファイル スロット
ストレージ 最大8本のホットプラグ式 SFF SAS HFF/ SATA HDD/ SSD –前面アクセスドライブ
アクセラレータ• NVIDIA Tesla: K80, M40 (K40 ~ 9月予定) Pascal GPU (発表され次第)
• インテル Xeon Phi KNL (PCIe用発表され次第)
• AMD : FirePro S9150
管理 HP iLO 4, HP Advance Power Manager
OS Red Hat Enterprise Linux 6.7, 7.2, SLES 11 SP4, 12, MS Windows Server 2012 R2
アプリ特性に応じて選択可能 : XL270d Gen9 トポロジー
7
8 GPU : 1 CPU トポロジー
P542D
PLX8796
GP
U
GP
U
GP
U
GP
U
PLX8796
GP
U
GP
U
GP
U
GP
UCPU2オプション
CPU1
Fa
bric
Fa
bric
x16
x16
x16x16 x16
x16
QPI
20 GBs
25 GBs
x8
GPUサポート(1サーバーノードあたり):
• 8枚 Tesla M40
• 4枚 Tesla K80
• 8枚 Tesla K40
• 8枚 Tesla P100 (販売開始次第)
4 GPU : 1 CPU トポロジー
GP
U
GP
U
GP
U
GP
U
PLX 8747
GP
U
GP
U
GP
U
GP
U
CPU2 CPU1
Fa
bric
Fa
bric
x16 x16x16 x16
x16
QPI
25 GBs
14 GBs
PLX 8764
PLX 8747
x16
PLX 8764
20 GBs
P542D
x8
GPUサポート(1サーバーノードあたり):
• 8枚 Tesla M40
• 8枚 Tesla K80
• 8枚 Tesla K40
• 8枚 Tesla P100 (販売開始次第)
HPE Apollo 6500 Overview
8
クラス最高のノードあたりGPU搭載密度• 最大 8 GPU を2Uサーバートレイに
• アプリケーションに応じて最大4:1または8:1のGPU:CPU構成を選べる柔軟性
ラックスケールのGPUコンピューティング• アクセラレータ、トップビンCPU、高速HPCクラスタなどHPCパフォーマンスを念頭に設計
• ストレージの柔軟性と豊富なI/Oオプションによるワークロードへの最適化が可能
拡張性とシンプルさを実現 –あくまでもProLiant Gen9• HPE ProLiant のエンタープライズクラス管理・運用ツール
• HPE iLOが管理者の時間とコストを削減
• HPE Advanced Power Manager (APM) がラックあたりの効率を最大化
Designed for GPUHigh Density ProLiant
スモールスタートならHPE Apollo 2000今日からはじめるディープラーニング
9
HPE Apollo 2000
ProLiant XL170r Gen91U サーバートレイ
ProLiant XL190r Gen92Uハーフワイド サーバートレイ
• 1サーバー2 GPU搭載
• Tesla M40, M60, K40, K80, P100*をサポート
• 2Uスペースに2サーバー4 GPU搭載可能
• XL190r でのTesla M60国内実績 400枚以上
* Tesla P100は11月販売開始予定
HPEブースでお待ちしいます –ぜひ現物をご覧ください
10
4サーバー 32 GPU構成 in 9.5U
ディープラーニング開発環境構築サービス今日からはじめるディープラーニング
11
サービス利用モデル開発
機械学習/ディープラーニングの利用と分類
手元のデータから独自のモデルを開発する
ディープラーニングフレームワークの利用
・TensorFlow
・Chainer
・Caffe
データ分析
すでに効果が見えているデータ群から、リソースを利用して機械学習モデルを設計する
・Google Cloud Machine Learning
・Microsoft Azure Machine Learning
トレーニング済みの機械学習サービスを利用したモデル適用を行う
・Google Cloud Vision API
・Microsoft Project Oxford
・HPE Haven OnDemand
ディープラーニングは、利用目的に応じて3つの利用形態が存在する。
GPU/CUDAを利用した自社モデル開発
拡張性の高さ 敏捷性の高さ
クラウドリソースを利用したモデル開発 既存モデルを利用したSaaS利用
モデル開発におけるディープラーニングフレームワークディープラーニングを始めるためには、わかりやすいフレームワークを活用することが重要。
また、ディープラーニングフレームワークを用いることで、GPUを意識することなくモデル構築することが可能。
ディープラーニング アプリケーション
Caffe Torch ChainerTensor
FlowTheano
CUDA
ディープラーニングフレームワーク
GPU (NVIDIA)
※CUDA最適化ライブラリcuDNN
ディープラーニング用ライブラリcuBLAS
密行列演算ライブラリcuSPARSE
疎行列演算ライブラリ
(深層学習を使ったデータモデリングをするためのライブラリ)
クライアントアプリケーションは、PythonやC++などで実装
ディープラーニングフレームワークによって、複雑なDeep Neutral Network構造を容易に実装
CUDAライブラリによって、GPUプログラミングは容易に実装可能
14
Open Source化された機械学習ライブラリ
・Python言語で複雑なDeep Neutral Network構造を容易に実装可能
・計算処理をグラフ構造で表現した、直感的に理解しやすいフレームワーク体系
・マルチGPUに対応。コードの変更なく、GPUリソースを最大限に活用可能
Googleの商用サービスでの利用実績
・Google PhotosなどのGoogle商用サービスでもすでに豊富な利用実績があり、多数の開発者がTensorFlowを使用して開発を実施
TensorBoardによるデータフローや学習過程の可視化にも対応
・付属のTensorBoardを使い、複雑なデータフロー構造や学習過程でのエントロピー低減の状態が可視化可能
Tensorflowによるディープラーニング開発環境の特徴
学習課程 データフロー構造
15
Tensorflowの利用シェア拡大
2015年11月のローンチ後、最も多く利用されているディープラーニングフレームワーク
16
Tensorflow構築支援サービス
•サンプルプログラムの操作に関する技術移管(オンサイト)•Q&A対応(1週間のリモート対応)
•Ubuntu14.04LTSインストール•nvidiaドライバインストール•Cuda7.0、cuDNN6.5インストール•tensorflowインストール•サンプルプログラムの動作確認(MNIST, CIFAR-10)
設計・構築 技術移管 納品
•導入作業報告書
本サービスは、ディープラーニング開発環境としてHPE Apollo 6500サーバ上にTensorFlowを導入し、NVIDIA GPUを最大限活用した高速機械学習環境を構築するサービスです。画像認識精度の飛躍的な向上、あるいは、お客様の保有するデータを利用した全く新しいInsight(気づき)の獲得など、これまで実現できなかったビジネスモデルを作り上げるための基盤となるディープラーニング環境の導入をご支援いたします。
サービス概要
サービス内容
※正式見積は詳細を確認させていただいた上で提示いたします。
※ その他、個別のご相談にも応じます
HPE Apollo + GPU 「まるごと半額」キャンペーンHPE Apollo 6500発表記念
17
キャンペーン内容
対象製品を購入の場合は一律 50% Off
GPUタイプ、購入台数、一切の制限なし
2017年1月31日まで
対象製品 HPE Apollo 2000 + GPU
• NVIDIA Tesla M40, M60, K40, K80
• NVIDIA Quadro M4000
HPE Apollo 6500 + GPU
• NVIDIA Tesla M40, K40, K80
まとめサーバーHWから開発環境構築サービスまで、HPEが一括で提供
18
HPE Apollo + GPUで「まるごと半額」。始めるなら今!
HPE Apollo 6500高密度GPU搭載サーバー
ディープラーニング環境構築サービス
技術移管• サンプルプログラムの操作に関する技術移管 (オンサイト)
• Q&A(1週間のリモート対応)
構築・試験• Ubuntu14.04LTS インストール
• NVIDIAドライバインストール
• Cuda7.0, cuDNN6.5 インストール
• TensorFlow インストール
• サンプルプログラム (MNIST, CIFAR-10) 動作確認
提出物• 導入作業報告書の提出TensorFlow : Googleが開発
し、オープンソース化された機械
学習ライブラリ
サービス内容 作業期間 2週間程度
Apollo + GPU 「まるごと半額キャンペーン」実施中
専用4Uシャーシに8 GPU搭載マシンを2台搭載可能なマルチノードサーバー
アンケートご協力のお願い
19
セッションアンケートは
ここ!
ブースNo. ⑲ ⑳日本ヒューレット・パッカード ブース
ぜひ、ブースにもお立ち寄りください!
Thank youfacebook.com/HPEJapan
twitter.com/HPEJapan
youtube.com/HPEJapan20
是非、サーバを導入したその日からディープラーニング始めてみませんか