mellanox introduction 2016 03-28_hjh
TRANSCRIPT
Mellanox 소개 - 최적의 인터컨넥트 솔루션
© 2016 Mellanox Technologies 3- Mellanox Confidential -
고성능, 초고속, 저지연 서버-스토리지 인터커넥트 제품의 선도 회사
• 업계 유일의 인피니밴드 FDR 56Gb/s 및 이더넷 10/40/56GbE 제품군
• 사용자 어플리케이션 데이터 대기시간 감소
• 데이터센터 인프라 투자수익 (ROI) 의 획기적 증가
기능별 본사:
• R&D 및 기술 본사 – 이스라엘 요크네암 (Yokneam)
• 영업 및 마케팅 – 미국 캘리포니아 써니베일 (Sunnyvale)
• 전세계 1,439 여명의 직원 수 (2013년 12월 기준)
탄탄한 재정 상태
• 2013년 기준 $390.9M 매출 기록
• 2014년 1 분기 $100M ~ $105M의 매출 예상
• 2013년 12월말 기준 $330.2M 가용 현금 (투자비 포함) 보유
멜라녹스는? Ticker: MLNX
이스라엘 요크네암 소재 멜라녹스 본사 (MTL)
© 2016 Mellanox Technologies 4- Mellanox Confidential -
멜라녹스의 주력 시장
Web 2.0 DB/EnterpriseHPC
10배 이상의성능 맟시뮬레이션실행시간
향상
33% 이상 높은 GPU
성능
무제한의확장성
최저 대기 시간
62% 더 빠른 실행시간
초당 42% 더 빠른 메시지
Cloud
12배 이상의처리량
높은 대역폭에서더많은 유저 지원
SLAs 보장 및 향상
데이터베이스쿼리10배 이상성능향상
4배 이상 빨라진VM Migration
서버당 더 많은가상머신과
가상머신당더 높은대역폭
Storage
하둡에서 2배 이상의성능 향상
13배 이상의메모리캐시성능
4배 이상의 가격 절감과성능향상
Mellanox는 스토리지 가속 소프트웨어를 제공합니다.
>80% 이상 IOPS (I/O operations per second)
Financial Services
© 2016 Mellanox Technologies 5- Mellanox Confidential -
엔드-투-엔드 인터커넥트 솔루션의 선도 회사
호스트/패브릭 기반 S/W통신 칩 스위치/게이트웨이어댑터 카드 케이블/모듈Metro / WAN
저장분석Enabling the Use of Data
10Gb, 40Gb 그리고 100 Gigabit 기반의 속도
포괄적인 엔드-투-엔드 인피니밴드 / 이더넷 포트폴리오
© 2016 Mellanox Technologies 6- Mellanox Confidential -
Big Data 와 Web 2.0을 위한 비교할수 없는 ROI
Source: Company testing for order of magnitude improvement data
빅테이타 분석 (e.g. Hadoop)• 더많은 JOB을병렬처리
• 노드/링크페일발생후더빠른 rebalancing
HDFS로더빠른데이터로드
인메모리 캐싱 (e.g. Memcached)
• 초당더빠른트랜잭션
• 더빠른응답/검색시간
• 서버당더많은유저와클라이언트
성능 당 가격• 같은가격에더많은대역폭
• GB / s의당낮은가격
• GB / s의당낮은전력
2X
13X
4X
© 2016 Mellanox Technologies 7- Mellanox Confidential -
RDMA over InfiniBand or
Ethernet
RDMA 동작방식
어플리케이션 1버퍼 1유
저커널
하드웨어
어플리케이션 2버퍼 1
OS버퍼 r 1
NIC
OS버퍼 1
NIC
TCP/IP
Mellanox NIC Mellanox NIC
© 2016 Mellanox Technologies 8- Mellanox Confidential -
인터커넥트 기술 적용에 따른 CPU 효율 차이
~88% CPU
Utilization
User
Sp
ace
Sys
tem
Sp
ac
e
~53% CPU
Utilization
~47% CPU
Overhead/Idle
~12% CPU
Overhead/Idle
RDMA 미사용시 RDMA 사용시
Us
er
Sp
ac
eS
ys
tem
Sp
ac
e
© 2016 Mellanox Technologies 9- Mellanox Confidential -
빅데이타 : 동일 크러스터 환경에 두배의 하둡 워크로드 지원
하둡 (Terasort) 벤치마크 결과에서 40%-50%의 수행 시간 감소• Mellanox 10GbE + RDMA vs. competing 10GbE
Without Mellanox With Mellanox
1 Workload 1.5x-2x Workloads
© 2016 Mellanox Technologies 10- Mellanox Confidential -
서버당 3배 정도의 가상머신 지원: 20 ~60 VMs
보다 높은 스토리지 집적도 : 초 당 2배 이상의 처리량과 IOPS• Atlantic.net은인피니 밴드를 이용하여 아마존과 비교하여 적은 비용과 2배이상의 클라우드 I/O 성능을 달성함.
가상화 기반 클라우드 환경에서의 상면 비용 감소
Without Mellanox With Mellanox
VM VM
VM VM
VM VM
VMVM
VM VMVM VM
© 2016 Mellanox Technologies 11- Mellanox Confidential -
멜라녹스는 클라우드 환경에서 가장 적은 어플리케이션 비용 구현
Microsoft Windows Azure
90.2% 클라우드효율성
응용프로그램당 33% 낮은비용
Cloud
애플리케이션성능은 10
배까지향상
물리서버당 3배이상의 vm 증가
네트워크및스토리지 I/O 통합
응용프로그램당 32 % 낮은비용
694% 높은성능
© 2016 Mellanox Technologies 12- Mellanox Confidential -
“스토리지를더저렴하게만들기위해더많은
네트워크가필요합니다!
Azure 저장소를늘이는방법은? 40GbE에서 RoCE (RDMA
over Converged Ethernet) 활성화를함으로써파격적인
원가절감이가능합니다.
고객 사례 – Microsoft Azure: 최적의 Storage Scale
Microsoft Keynote at Open Networking Summit 2014 on RDMA
KeynoteAlbert Greenberg, Microsoft
SDN Azure Infrastructure
© 2016 Mellanox Technologies 13- Mellanox Confidential -
“집약적인연산을사용하는 VMs -Azure에서 RDMA를
통한 40G 인피니밴드엑세스는많은메모리를사용하는
가상머신의어플리케이션을 최적의성능으로구축할
수있게도와줍니다.”
고객 사례 – Microsoft Azure :클라우드 환경에서의 최적의 어플리케이션 구동을 가능 케 하는 인피니밴드
Microsoft Keynote at TechEd North America Conference 2014
Brad AndersonCorporate Vice President
Microsoft
© 2016 Mellanox Technologies 14- Mellanox Confidential -
마이크로소프트 윈도우서버 2012 및 SMB 3.0
SMB 3.0 – 파일 공유 프로토콜 (vs. NFS, CIFS)
엔터프라이즈 파일 스토리지 솔루션
낮은 지연 시간, 높은 처리량, 낮은 CPU 오버 헤드(이더넷에 비해 50 % 이하)
낮은 비용과 높은 성능으로 파이버 채널을 대체
SMB Direct Protocol 은 Windows Server 2012 에통합된 멜라녹스 이더넷과 인피니밴드 RDMA 를 통해기능 확대
Microsoft HyperV-SMB 와 SQL-SMB 솔루션을 가속화
File Client File Server
SMB Client
User
Kernel
Disk
RDMA
Adapter
Network w/
RDMA support
RDMA
Adapter
SMB Server
Network w/
RDMA support
NTFS
SCSI
Application
FDR Delivers 10X Performance Improvement vs. 10GbE
© 2016 Mellanox Technologies 15- Mellanox Confidential -
Local
Single
Server
Fusion IOFusion IOFusion IOFusion-io
IO Micro
Benchmark
SMB
Client
SMB 3.0 + 10GbE
(non-RDMA)
SMB
Server
Fusion IOFusion IOFusion IOFusion-io
IO Micro
Benchmark
10 GbE
10GbE
SMB 3.0 + RDMA
(FDR InfiniBand)
SMB
Client
SMB
Server
Fusion IOFusion IOFusion IOFusion-io
IO Micro
Benchmark
FDR IB
FDR IB
SMB 3.0 + RDMA
(QDR InfiniBand)
SMB
Client
SMB
Server
Fusion IOFusion IOFusion IOFusion-io
IO Micro
Benchmark
QDR IB
QDR IB
Microsoft SMB 3.0 성능 비교
© 2016 Mellanox Technologies 16- Mellanox Confidential -
FDR 56Gb/s 인피니밴드는 5X 이상의높은처리량및10GbE에비해 50% 이하의 CPU 오버헤드를제공
저렴한 비용으로 하이엔드 스토리지를 대체, 확장성 한계 극복
FDR 인피니밴드 처리량을 뛰어넘는 성능
© 2016 Mellanox Technologies 17- Mellanox Confidential -
스토리지 아키텍쳐의 변화 : 스토리지계층화
Hot Data:
Flash
storage
Warm
Data:
15k SAS
HDDs
Cool Data:
NL/SATA HDDs
Cold Data:
Tape/Archive
Co
st
Pe
r G
B
Performance
SATA
HDD
SAS
HDD
Flash
SSD
DRAM
300X Performance
4000X Performance
200X
Co
st
50X
Co
st
© 2016 Mellanox Technologies 18- Mellanox Confidential -
멜라녹스 - 스토리지 파트너
성능이중시되는 RDMA 인터커넥트시장에서압도적인시장점유율
© 2016 Mellanox Technologies 19- Mellanox Confidential -
데이타 전송에서의 병목
+ = 12GB/s =
Server
24 x 2.5” SATA 3 SSDs
15 x 8Gb/s Fibre
Channel Ports
3 x 40Gb/s
2 x 56Gb/s
VPI RDMA Ports
또는
또는
10 x 10Gb/s iSCSI
Ports (with offload)
Interconnect 대역폭은스토리지성능 ROI를결정
© 2016 Mellanox Technologies 20- Mellanox Confidential -
가격/성능요소별
어댑터카드
스위치(포트당)
케이블(3m Passive)
총Connection
가격
Gb/s 당가격
승수(Multiplier)
56Gb/s FDR InfiniBand $838 $319 $123 $1280 $24 1x
40Gb/s RoCE $538 $447 $114 $1099 $27 1.1x
10Gb/s iSCSI $299 $293 $46 $638 $64 2.7x
16Gb/s Fibre Channel $1150 $746 $29 $1925 $124 5.3x
8Gb/s Fibre Channel $729 $207 $29 $965 $151 6.4x
FDR IB
2 ports
12GB/s
40Gb/s RoCE
3 ports
12GB/s
10Gb/s iSCSI
10 ports
12GB/s
8Gb/s FC
12 ports
12GB/s
$11580 $6380 $3297 $2560
© 2016 Mellanox Technologies 21- Mellanox Confidential -
사례 - 델 Fluid Cache for SAN 을위한 Cache 네트워크에서의활용
© 2016 Mellanox Technologies 22- Mellanox Confidential -
최적의 분산 파일 시스템 지원
멜라녹스 40G/56Gbps RDMA 사용시처리량과 IOPs
© 2016 Mellanox Technologies 23- Mellanox Confidential -
엔드-투-엔드 인터커넥트 솔루션의 선도 회사
호스트/패브릭 소프트웨어네트워킹 칩 스위치/게이트웨이어댑터 카드 인터컨넥트 모듈/케이블
포괄적인 엔드-투-엔드 인피니밴드 / 이더넷 포트폴리오
Virtual Protocol Interconnect
StorageFront / Back-End
Server / Compute Switch / Gateway
56G IB & FCoIB 56G InfiniBand
10/40/56GbE & FCoE
10/40/56GbE
Fibre Channel
Virtual Protocol Interconnect
© 2016 Mellanox Technologies 24- Mellanox Confidential -
최고의 ROI – 스위치 실리콘 칩
스위치의 실리콘 칩이 중요한 이유?• 최고의 스위치 용량
• 최저 전력
• 최저 대기시간
0.95
1.44
2.5
0
0.5
1
1.5
2
2.5
3
Trident+ Trident2 SwitchX
스위치용량 (Bpps)
1
0.5
0.2
0
0.2
0.4
0.6
0.8
1
1.2
Trident+ Trident2 SwitchX
대기시간 (µsec)
3
2
0.4
0
0.5
1
1.5
2
2.5
3
3.5
Trident+ Trident2 SwitchX
전력 (Watt/Gb)
© 2016 Mellanox Technologies 25- Mellanox Confidential -
VPI (Virtual Protocol Interconnect) 기술
64 ports 10GbE36 ports 40/56GbE48 10GbE + 12 40/56GbE36 ports IB up to 56Gb/s8 VPI subnets
스위치 OS 레이어
Mezzanine Card
VPI Adapter VPI Switch
Ethernet: 10/40/56 Gb/s
InfiniBand:10/20/40/56 Gb/s
통합된 Fabric Manager
네트워킹 스토리지 클러스터링 관리t
어플리케이션
가속 엔진
LOM Adapter Card
3.0
데이터센터에서 캠퍼스 및메트로 연결
© 2016 Mellanox Technologies 26- Mellanox Confidential -
1RU 크기 제품으로 최고 용량 제공• From 12 QSFP to 36 QSFP
• 64 x 10GbE
멜라녹스만이 제공할 수 있는 가치 제안• VPI (Virtual Protocol Interconnect)
• 56GbE
• End-to-End 솔루션 (IC칩, NIC, 스위치, SW, 케이블)
멜라녹스 이더넷 제품군
SX1036The Ideal 40GbE ToR/Aggregation
SX1024Non-blocking 10GbE 40GbE ToR
SX1016Highest density 10GbE ToR
Latency• 220ns L2 latency
• 330ns L3 latency
전력소모량 (SX1036)• Under 1W per 10GbE interface
• 2.3W per 40GbE interface
• 0.6W per 10GbE of throughput
SX1012Ideal storage/Database 10/40GbE Switch
© 2016 Mellanox Technologies 27- Mellanox Confidential -
멜라녹스 이더넷 솔루션 핵심 요약
전세계최고속도의 I/O• 10/40/56Gbps 이더넷 포트 제공
• 고속의 서버, 스토리지용 TOR 스위치로 적합
전세계최저 Latency – 220ns (40GE) : 경쟁사 제품 500ns 이상• 초저지연 반도체 기술 및 제품 (SwitchX) 자체 보유
• 금융권의 초저지연 Application (DMA) 에 적합
전세계최저전력소모• 10GE 포트당 1W 미만, 40GE 포트당 2.3W (경쟁사 대비 20% 미만)
• IC 칩에 PHY 가 집적되어 전력소모 최소화 – Green Data Center 에 최적화
전세계최고포트집적도 (1RU)• 10GE 64포트, 40GE 36포트, 10GE 48포트 + 40GE 12포트
• Computer Cluster, Cloud, Big Data, Web2.0 등 데이터센터 내 다수의 서버 및 스토리지 연결에 적합
동일한 HW 에서 이더넷및인피니밴드동시제공 (VPI – Virtual Protocol Interconnect)• 고객의 결정에 따라 필요한 프로토콜 선택적 혹은 동시 사용 – 투자 보호
RDMA 기술 적용으로 CPU Offload (RoCE)• 통상의 TCP/IP 통신은 반드시 CPU Kernel 경유 – RDMA 적용시 Kernel Bypass (Zero Copy)
• CPU 부하 경감으로 서버당 보다 많은 Application (VM) 구동 가능 – 비용, 전력, Cable 사용 감소
OpenFlow/SDN, NFV, 100GE 등미래통신기술수용 가능
© 2016 Mellanox Technologies 28- Mellanox Confidential -
SX1036 6001 S4810 BNT G8264 QFX3500 7150S
Port Count 64 x SFP+
36 x QSFP
48 x SFP+
4 x QSFP
48 x SFP+
4 x QSFP
48 x SFP+
4 x QSFP
48 x SFP+
4 x QSFP
48 x SFP+
4 x QSFP
Max Throughput (Tb/s) 2.88 1.28 1.28 1.28 1.28 1.28
Latency (us) 0.23 1 0.8-1.2 0.8-1.2 0.8-1.2 0.4
Power (watt/GbE port) 0.17 0.32 0.34 0.51 0.57 ---
Non-blocking 10GbE ToR(supports >32 servers per rack)
Full Solution (NIC/Cable/Switch)
SX1036 경쟁력 분석
세계를선도하는이더넷스위치솔루션을제공
© 2016 Mellanox Technologies 29- Mellanox Confidential -
획기적인 멜라녹스 VMS 장점
시스코 아리스타 멜라녹스멜라녹스장점
구분Nexus
7018
Nexus
3016
Nexus
6004DCS-7508 SX1036
사이즈 25U 36U 24U 22U 15U 실제약 30% ~ 60% 감소
전력소비량 ~10,000w 9,600w 19,800w 7,680w 1,500w전력소비량약
80% ~ 90% 감소
가격 $550k $1,240k $1,500k $724k$225k
(+$15k cables)비용약 60% ~ 85% 감소
East-West 솔루션지연속도 (max.)
~30us ~3us ~3us ~29us <2us 지연속도약 33% ~ 93% 감소
하드웨어결함후대역폭 %
0% 97% 83% 50% 93%
© 2016 Mellanox Technologies 30- Mellanox Confidential -
고객사례- 호주국립대학교 – 56GbE VMS 아키텍처
시스템• 200+ 노드 클라우드
• 56GbE VMS/FDR 업그레이드
멜라녹스를 선호하는이더넷 업체소개• 시스코UCS, 넥서스 6004를 선택
- RDMA를 통해 더 나은 성능과 가격을 제공함.
• Dell의 Force10 (브로드컴)
- 40/56Gb/s versus 10GbE
멜라녹스 장점• OFED 2.0을 지원하는 Ubuntu/KVM
• RoCE
• 종단간 56GbE (Cisco에는기능 없음)
• VPI
• MLNX OpenStack 지원
Cisco
Core Router
40GbE
2x56GbE
224 servers @ 56GbE non-blocking architecture
14 ToR
Routers
SX1036
224 노드 56GbE Non-blocking 클러스터
Mellanox
VMS8 Agg.
Routers
SX1036
© 2016 Mellanox Technologies 31- Mellanox Confidential -
피보탈이란• 1000개이상의 노드를 활용하여 하둡 클러스터를 구성 할 수 있는상용 하둡
피보탈의 용도• 아파치 하둡의 상용제품
• 하둡 인프라를 혁신적으로 가속화
• 대용량 데이터 분석을 위한 저장소
피보탈 하둡의 사용자• 소프트웨어 개발자 및 품질 기술자
• 분석가와 과학자
• 공급 업체 및 구성 요소 파트너
• 타사 응용 프로그램 공급자
멜라녹스 장점• VPI –이더넷및 인피니밴드
• 56Gb/s 처리량
• RDMA
고객사례 - 피보탈 (EMC와 EMC의자회사 VMware)
http://www.mellanox.com/related-docs/case_studies/CS_AWB_VPI.pdf
© 2016 Mellanox Technologies 32- Mellanox Confidential -
고객사례 –피보탈네트워크토폴로지
TORLEAF
SPINE
OSPF area 1
OSPF area 2
OSPF area 3
VMS
OSPF area 0
TOR
LEAFSPINE
Racks 1-17 + 51
Racks 18-34 + 52
Racks 35-50+ 53 + 0
© 2016 Mellanox Technologies 33- Mellanox Confidential -
1000개 이상의 노드에서 10GbE을 이용한 새로운 데이터분석 시스템을 위한 솔루션
고객사례 - Leading European Web 2.0 Company
RDMA
scale-out에 대한 라우팅 솔루션을 제공
SX1024
SX1036
RDMA 를위한 최고성능의 네트워크 카드
SX1024에서 Non-blocking Top-of-Rack
종단간 솔루션에서 최고의 네트워크 제품
http://www.mellanox.com/pdf/case_studies/CS_Euro_Web2_RoCE.pdf
© 2016 Mellanox Technologies 34- Mellanox Confidential -
요약
인터커넥트 기술은 비즈니스 성능에 매우 중요• 어플리케이션 생산성 및 투자수익율 (ROI) 증대
인터커넥트 시장의 꾸준한 성장• HPC 시장에서의 성장을 바탕으로 Web 2.0, storage, database, cloud,
Big Data 시장으로 확대
멜라녹스는 인터커넥트 시장을 선도하는 회사로 확고한 자리매김• 세계 최고속 인터커넥트 기술 보유 및 제품 제공 회사
• 막강한 파트너십, 채널 협력관계 구축
• 다수의 고성장 시장에 획기적인 비즈니스 유익 제공
감사합니다.