coopers & lybrand consulting has a distinctive presentation...
TRANSCRIPT
성능 테스트 소개 LoadRunner
www.ncicom.co.kr
목차
6.1 성능테스트
1 HP 솔루션 소개
2 LoadRunner 소개
3 성능 검증 방안 소개
4 성능 검증 방법
5 대규모 성능 검증 사례
목차
HP 1 HP Solution Map
2 HP Performance Test
HP Solution Map
Business Outcomes
APPLICATIONS STRATEGY
SAP, Oracle, SOA, J2EE, .Net
Project & Portfolio Management Center
CIO Office
CTO Office
Quality Center
SOA Center
Performance Center
(LoadRunner)
OPERATIONS
Universal C
MD
B
Business Availability
Center
Service Management
Center
Operations Center
Change & Configuration
Center
Network Management
Center
Security Center
HP Performance Test
What NC I
have?
Number 1 Product • 70% 이상의 성능 테스트 시장 점유율. • 다양한 프로토콜 지원 및 멀티 프로토콜. • 효율적 부하 발생.
Number 1 Reference • SKT NGM, 신한은행등 대규모 차세대 프로젝트의 대부분을 수행 함. • 대우 조선, 현대 자동차, 하이닉스 등 대규모 ERP, CRM 대부분 수행.
Number 1 People • 최고의 성능 전문가. • 채널사를 통한 많은 성능 테스트 인력 확보.
Number 1 Methodology • 수학적 모델을 기준으로한 성능 테스트 방법론 및
절차 확보. • 통합 연계 테스트를 통해 방법론 발전.
목차
LoadRunner 1 제품 개념
2 제품 구성
3 제품 기능
제품 개념
Web Database Application
가상 사용자
Virtual User Generator
• 제한적인 자원의 효율적인 사용
• 다양한 보고서를 이용한 정확한 분석
• 초기에 작성한 스크립트를 반복 재사용
Analysis Controller
• 최소 하드웨어 자원으로 대량 거래 발생
• 가상사용자로 실제 테스터를 대체
• 가상사용자의 수를 자유자재로 조절
테스트 대상 시스템
제품 구성
구분 내용
LR Virtual User Generator
가상 사용자를 생성하기 위해 어플리케이션 비즈니스 프로세스를 레코딩하는 기능을 수행
- 테스트 사용자 시나리오 Record
- LoadRunner transactions
- 스크립트의 테스트 데이터 파라메터 설정
LR Controller
VUG에서 작성한 스크립을 실행 시키고 Load Generator을 제어하는 모듈
- 가상사용자 실행기 (Hosts) 정의
- Test scripts 정의
- Vusers 정의 (Vuser 수, Test scripts, Host, Run Schedule 등)
• 서버 시스템 자원 모니터링 설정
LR Load Generator
실제로 스크립을 실행시키는 모듈
LR Analysis 부하테스트 결과를 그래프로 확인하고 병목현상 분석을 도와 주는 모듈
성능 테스트 환경
AP서버 DB서버
Controller Agent
Daemon
Vuser
Vuser
Vuser
Windows Service
Load Agent
Agent Daemon
Vuser
Vuser
Vuser
Windows Service
Load Agent
Analysis
1. Controller가 load Agent의 Remote login 접속 2. Load Agent 의 Agent Daemon을 실행 3. Controller에서 Assign 받은 스크립트대로 가상 사용자 발생 4. 가상 사용자는 스크립트에 저장되어 있는 비즈니스 프로세스를 실행 5. 실행된 결과는 Agent Daemon에 의해 Load Agent에 모아짐 6. Load Agent에 모아진 결과 데이터는 Controller로 보내짐
1
2
3
4
5
6
L4 DB DB
제품 기능 –스크립트 자동화
XecureWeb 모듈의 DLL 호출 방식으로 암호화 프로토콜 구형
C Compile 가 내장되어 C Function 사용이 자유로움
Web 브라우저 및 클라이언트 프로그램을 실행하면 자동으로 스크립트가 작성.
클릭하면
제품 기능 –스크립트 자동화
테스트 시 변경되는 데이터 값을 파라메터 위저드를 통해서 용이하게 파라메터 처리 할 수 있으며 파라메터 데이터 값을 엑셀, txt, MS Access로 부터 불러들여 사용할 수 있음.
데이터 파일을 직접 작성하거나 txt, excel 파일로 부터 읽어올 수 있음
날짜나 규칙적인 룰을 가진 경우 자동으로 생성
제품 기능 –보안 솔루션 지원
XecureWeb 모듈의 DLL 호출 방식으로 암호화 프로토콜 구형
C Compile 가 내장되어 C Function 사용이 자유로움
Web 브라우저 및 클라이언트 프로그램을 실행하면 자동으로 스크립트가 작성 되며, 특히 암호화 부분은 DLL로 연계하여 수행이 가능.
제품 기능 – 서버 Resource 그래프와 동기화
부하 테스트를 실시하는 동안 시스템의 Resource 사용량 및 서비스에 사용 되는 Application의 Resource 사용상태를 실시간으로 모니터링 할 수 있음.
제품 기능 – 다양한 Protocal지원과 Monitor기능
Web Server App. Server Database Internet/ Intranet
PROTOCOLS
Clients
PERFORMANCE MONITORS
•SAP •Oracle •Siebel •PeopleSoft
ERP/CRM •HTTP(S) • XML • Citrix ICA • SOAP •WAP
Web • EJBs • CORBA • COM • RMI •MQSeries
• 3270 • 5250 • VT100
•Oracle •MS SQLServer •DB2 •ODBC
Middleware Legacy Databases
Operating Systems Network Web
Servers App
Servers Java Databases
•Windows •Unix • Linux
• SNMP •WAN Emulation
•MS IIS • iPlanet • Apache
• EJB • JDBC • JSP • Sitraka JMonitor
•Oracle •MSSQL Server •DB2
• BEA WebLogic • IBM WebSphere • ATG Dynamo • iPlanet App
Server
제품 기능 – Error 추적 능력
성능테스트 수행 중 장애 Transaction의 모니터링이 감지가 가능하고 에러의 갯수, 종류, 에러 유형, 등의 다양한 모니터링이 하며, 시스템 모니터링과 연계하여 에러 구간의 모니터링이 가능
제품 기능 - 성능 병목 구간 분석 지원
성능 저하의 주요 원인을 빠르게 찾을 수 있도록 자동 연관 분석 (Automatic Correlation) 과 응답시간 상세 분석 기능 제공
제품 기능 – 멀티 프로토콜 지원 및 효율적 부하발생
Application Server 4 Node
부하발생기 (LoadRunner
Agent )
Database Server RAC 4 Node
부하조정 Console (LoadRunner Controller)
L4 switch
Switch
Shared Database
(CRM+Billing)
멀티 프로토콜 가능( HTTP + TCP )
부하 발생이 효율적( Agent CPU )
목차
성능 테스트 방안
1 성능 검증 요구 사항
2 성능 검증 영역
3 성능 검증 항목
4 성능 검증 수행 영역
5 성능 검증 추진 방향
6 성능 검증 수행 절차
7 성능 검증 방법론
성능 검증 요구사항
•질문
정형화
Infra 성능 점검 및 최적화
Application Framework 성능 검증
Online 업무성능 검증 및 최적화
주요 Batch 성능 확보
서버별 시스템 용량 및 성능 검증
임계부하 성능 측정 및 병목구간 제거
•프로그램시간은 얼마의 시간이 걸리는가? •On-line 프로그램의 성능은 목표 TPS에 도달할 수 있나? •On-line 프로그램의 TPS 임계치는 얼마나 되나? •On-line 과 Batch 를 동시에 운영할 경우 성능이 보장되는가? •시스템의 가용성과 안정성은 문제 없는가? •문제 발생시 원활하게 복구가 되는가? •향후 확장성이 보장되어 유연한 시스템 운영이 가능한가?
•관리 목표
시스템 효율화
시스템 안정화
검증
성능 검증 영역
성능
확장성
안정성 적정성
가용성
• H/W 성능 • 프레임웍 성능 • Application 성능 • 아키텍쳐 성능 • 빠른 응답 시간 • 높은 성능
• 시스템 확장성 • 아키텍쳐
확장성 • Tier 별 확장성
• 24*7 의 시스템 안정성 • 동일한 성능 보장 • 임계 상황의 성능 보장
• 용량의 적성성 • Capacity Plan
• 장애시 빠른 회복 능력 • 동일한 성능 확보
성 능
테스트
성능 검증 항목
1. 성능검증
성능 검증 목표 성능 도달 1.1
확장성 검증
혼합 업무 수행 능력 (온라인 & 배치)
1.2
3. 확장성 검증
횡적 확장성
종적 확장성 3.1
3.2
5. 적정성 검증
적정성
용량 변경/증설의 기준 5.2
성능 테스트를 통한 용량 측정 5.1
2. 안정성 검증
안정성 검증 시스템 부품 장애시 정상유무
장시간 온라인 수행 능력 2.1
2.2
가용성 검증
4. 가용성 검증
장애 복구 능력 4.3
H/W 장애시 Fail - Over
S/W 장애시 Fail - Over 4.1
4.2
임계 상황시 안정성 보장 2.3
성능 검증 수행 영역
계 획 • 향후 전략적 비지니스 설정
•목적에 맞는 시스템 및 아키텍쳐, 프레임웤 검토
설 계 개 발 테 스 트
• 시스템, 프레임웤 선정
• 아키텍쳐 설계
• FR/NFR 정의
• 아키텍쳐 및 FR을 기반으로 개발
• 개발된 Application 검증
• 통합 테스트 수행
• 사용자 테스트 수행
안정화 • 시스템 모니터링
• 시스템 안정화
BMT
선 정 구성 튜 닝 검증
아키텍쳐 검증 성능 검증 성능 테스트
• H/W BMT
• S/W BMT
• 아키텍쳐 성능 검증 • 안정성 검증
• 가용성 검증
• 단위 AP 성능 검증
• 통합 성능 검증 • 임계 성능 검증 • 장시간 성능 검증 • 가용성 검증
• 단위 AP 검증
• 통합 성능 검증
• 운영 테스트
단계적 접근
단위성능 테스트
시스템성능 테스트
통합성능 테스트
임계성능 테스트
기술적 접근
(1) Workload 모델링 • 실가동상황에 근접한 부하모델을 설계하고, 이를통해 성능측정오차 범위를 최소화 함.
단위성능, 시스템성능 테스트를 거쳐 ERP 통합성능을 확보하고 추가적으로 임계성능 테스트를 통해 시스템안정성능 검증함. 성능측정의 정확성을 확보하기 위해 부하모델링기법과 Tool을 사용하고 테스트시간을 단축하기 위해 테스트 병렬수행, 테스트사전점검강화, Instance Backup을 활용함.
• Transaction(거래) 단위성능 측정 및 최적화 • 동일 거래간 자원의 경합파악 및 조치
목적 내용
거래 성능 검증
• 서버 단위성능 측정 및 최적화 • 거래간 자원의 경합파악 및 조치 서버 성능 검증
• 임계 부하 상황(100%)의 서버 안정성 검증 • 잠재적인 시스템병목구간 파악 및 대응
서버 안정성 검증
• 서버간 연동성능 점검 및 최적화 • 구간별 성능측정 및 병목구간 제거
ERP시스템 성능검증
(2) 부하발생 Tool사용 +
(3) 테스트 병렬수행
(4) 사전점검 강화
• 목표거래비율의 대량거래 입력전문생성 및 부하량제어하며 테스트 진행
• 단위테스트와 시스템 테스트를 병렬수행하여전체 테스트 시간을단축함.
• 테스트전 사전점검을통해 테스트오류율과 전체 테스트시간을 단축함.
(5) Instance Backup 활용 • Instance Restore를 통해 반복테스트환경 구축함, DM 대체효과
성능 검증 추진 방향 – 성능 테스트 방안
성능 검증 수행 절차
계획, 설계, 시스템성능테스트, 통합성능테스트 순서대로 수행함, 각 단계(Phase)에는, 활동(Activity),작업(Task), 산출물(Output)이 존재함.
1.요구사항분석
1.요구사항 수집
2.요구사항 정의
1.적용기술 검토
2.일정 계획 수립
3.투입 자원 계획 수립
고객 면담서
NFR분석서
MTP (Master Test Plan)
1. 분석
1.목표 성능 치 산정
4.자원 감시 게획
1.성능 시험 대상선정
2.성능 시험 절차 계획
3.성능 시험 조건 계획
2.프로젝트수행계획수립
1.성능 목표 수립
2.이행철차 계획 수립
3.스크립트 설계
2.설계
1.업무시나리오 설계
2.시험 데이터 설명
3.스크립트 작성
시나리오 설계서
시험데이터 설명서
스크립트 작성
DTP (Detail Test Plan)
1.단위 성능 시험 수행
2.단위 시험 분석
1.단위 시험
1.통합 성능 시험 수행
2.통합 시험 분석
2.통합 시헙
3.이행
1.임계 성능 시험 수행
2.임계 시험 분석
3.임계 시험
실행 결과서,모니터링 결과서
시험 요약서,모니터링 분석서,튜닝 권고 내역서
1.결과 보고
실행 결과서,모니터링 결과서
시험 요약서,모니터링 분석서,튜닝 권고 내역서
실행 결과서,모니터링 결과서
시험 요약서,모니터링 분석서,튜닝 권고 내역서
반복
수행
수행
수행
반복
반복
4.평가
P
A
O
Process
Activity
Output
T Task
P P P P
A
A
A A A
A
A A
A T
T
T
T
T
T
T
T
T
T
T
T
T
T
T
T
T
T
T
T
O
O
O
O
O
O
O
O
O
O
O
O
O
O 최종 결과 보고서
1.결과 보고자료 작성
성능 검증 방법론 - 분석
2004년도 As-Is COIS 시간대별 처리량
0.00
2.00
4.00
6.00
8.00
10.00
12.00
시간
1 ~ 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22
시간대
거래
비율
(%
)
As-Is On-line Workload To-Be On-line Workload
Peak Time 1시간의 최대 처리 량을 산출.
Peak Time을 모델링의 기반으로 정함.
모델링의 대상 Application 은 전체 부하량의
70% 영역
Peak
Step1) As-Is Peak Time 분석 Step2) As-Is Workload Model 정의 Step3)To-Be 시스템 거래 Mapping
거래량 70%
(부하테스트
대상거래 -50개)
거래량 30%
(부하테스트 대상 외 거래)
100% (As-Is TPS)
인터페이스
• Transaction frequency • Transaction priority • Transaction type
To-Be Model 반영요건
거래 Mapping (125개)
거래 비율 조정
거래량 증가율
성능 중요도 신규업무 및 사용자추가
Group 2
Group 1
Group 1
Group 1
Group 2
Group 3
Group 2
Group 3
성능 테스트 대상 Group(93개
성능테스트 1
차
성능테스트 2
차
• 선정 업무는 12월에 설계,분석 착수 관계로 TO-BE 요건이 반영되는 3차 성능테스트에 적용키로 함.
성능 검증 방법론 - 설계
Type ID R/W C R U D 빈도수
A 01O010 고객등록 W 3 10 1 37A 02O020 계정등록(2) W 2 12 1 25A 03O010 서비스등록/개통(3) W 13 55 6 47ZA STRCA LL01 고객조회-Order 등록(3) W 21 580 48 5 45
A 03O030 번호선택 R 6 86
A 05O010 번호변경(2) W 4 40 2 1 51H01O010 청구분 수납 조회 R 24 122H01O010 청구분 수납 조회 및 처리(2) W 12 55 12 2 61A 05O570 변경이력조회 R 18 130L03O020 미납상답조회(상담이력조회 포함) R 47 30
L03O021 미납상담조회-미납상담처리(2) W 6 25 6 32L60O050 계정주석정보 관리 R 4 31A 05O250 번호별고객이력조회 R 8 159A 05O270 서비스 변경이력 조회 R 13 144A 07O020 이동전화부가서비스 관리 R 21 135A 08O010 자동납부관리 R 17 75H01O090 계정수납이력 조회 R 11 52
1263S01O010 상담정보조회 R 50 324S01O020 상담정보조회-상담정보저장 W 2 81ZA STRCA LL02 고객조회-SR 등록(2) W 13 170 40
445
1708
4540
1623EXT 소계
JSP
Total
Forms
E-STD 소계
소계(CICS)
소계(DRDA )
STD 소계
Forms
Read80%
Write20%
Forms80%
JSP20%
Extension
95%
E-Standard
2%
Standard
3%
성능 검증 방법론 – 이행
분석 의견
• TPS 만족하지 못하고 결과적으로 대략 2700 TPS 가 현재 임계 상황임. • PT 서버 CPU 사용률이 평균 92% 로 높게 나타남. PT 서버의 CPU 자원의 병목으로 더 이상 AP,DB 로 부하를 주지 못하는 임계상황임.
• 응답시간의 편차가 크게 나타남. • DB3( Billing ) 서버 CPU 사용률이 80%이상 올라감.
차수 (테스트 일)
적용 내역 TPS
Response Time CPU %
조회 (99%) 등록 (99%) PT AP BT DB
3차 (7/15) • 주시스템 3000 TPS + SGA(55G) 2676 1.83 (5.76) 2.79 (9.00) 92 82 25 50 (37/47/67)
주시스템 TPS/ 응답시간 주시스템 CPU 사용률 TPS
성능 검증 방법론 – 이행
TOP 11 거래 응답 시간 청구 정보 조회
분석 의견
• 3차 연장 통합 테스트와 비교하면 평균 응답시간이 거의 2배가 좋아졌고 99%는 비슷한 수준임. 여전히 목표 응답시간을 상회하는 결과임.
• APP 파티션 통합환경이기 때문에 DB 경합, RAC Overhead 응답시간이 줄은 것으로 나타남. • 11개 거래중 등록거래 7개가 해당되며 고객정보 및 청구일 조회(hotbill) 가 응답시간이 가장 길게 나타남.
순위 Application 명 (서비스 수) 단위 평균 응답
3차 연장 (통합테스트)
통합 1차 (통합테스트)
평균 99% 평균 99%
1 고객정보 및 청구일 조회(1) 3.39 5.2 7.04 2.88 8.64
2 기본 요금제 변경 처리 (4) 1.18 6.53 9.01 2.49 6.32
3 부가 요금제 가입(4) 1.61 6.39 8.32 2.31 4.24
4 부가서비스 가입(5) 1.5 6.18 8.62 2.18 5.86
5 미납상담 대상 서비스 조회(3) 1.59 3.43 4.51 1.88 3.47
6 단말기 변경 서비스조회(4) 0.83 3.52 4.88 1.23 3.80
7 자동납부신청등록-해지(2) 0.31 1.85 3.03 1.22 2.48
8 부가요금제 해지(4) 1.47 5.55 7.86 1.21 4.34
9 자동납부신청등록-신청(2) 0.35 1.82 2.61 1.21 3.50
10 수납단말기기본및 할부정보조회(3) 0.6 1.85 2.66 1.05 2.19
11 청구정보변경(3) 0.66 2.12 3.04 1.04 6.41
성능 검증 방법론 – 평가
DB(2)
DB(1)
DB(3)
분석 의견 - AP4 에서 Queue 발생 비율이 AP1, AP2, AP3 에서 Queue 발생 비율의 5배임. - Queue 발생의 주요원인은 DB 의 경합의 의하여 발생함.
AP(1)
AP(2)
AP(3)
AP(4)
DB(Batch)
A
c
¾ Order
A
B
C
C
a
b B ¾ Billing
¾ etc
¼ Order
¼ Billing
¼ etc
c
a b
1
1
1
15
경합
DB 에서 발생하는 경합 관련 주요 이벤트 •gc cr grant congested •gc cr grant 2-way •gc buffer busy •DFS lock handle
•AP4
•AP1 •AP2 •AP3
Queue Rate AP Server DB Server Queue 모니터링
AP1
업무처리 순서
AP2 AP3 AP4 AP1 AP2 AP3 AP4
DB Cluster 경합 발생
* 기호
DB 2 DB 1 DB 2 DB 1
목차
성능 검증 방법 1 성능 검증 방법
2 성능 검증 도입 기대 효과
성능 검증 방법 – 통합 성능
System Usage
70 %
Ramp up
Steady State Usage
통합 성능 검증
모든 대상 Application의 성능 테스트
테스트 시나리오 테스트 항목 점검항목 테스트 조건
Workload Modeling에 의해 선정된 Application들에 대해 목표부하(CPU 70%)에서 Online Target TPS에 도달하는지 여부와 Application들의 응답시간을 측정한다. L4 스위치의 부하 분산이 PR 서버로 균일하게 나뉘는지 상황과 Network Zone별로 적정하게 정상적으로 사용하는지 여부를 측정한다.
1. TPS 2. 응답시간 3. 시스템 사용 율 4. 거래비율 5. Zone별 NW 사용 율
6. L4 부하분산 여부
30분 Ramp-Up 1시간 Steady Time 유지 CPU Utilization < 70% 거래 정상 처리율 > 95% Response Time -Read ≤ 2 sec -Write ≤ 3 sec
AP(1)
DB(1)
DB(2)
DB(3)
AP(2)
AP(3)
Least Connection
Directed by Responsibility Setup
Online Load
: Established Port Count Monitor
WEB(3)
WEB(4)
WEB(5)
WEB(2)
WEB(6)
WEB(1)
측정구간 60분
AP Layer DB Layer UI Layer
성능 검증 방법 – 통합 성능 결과
대상 A ppl icat ion 거래 성공률 전체전수(성공/에러)
TPS (=초당처리건수) 응답 시간 User NUM 측정치 평균 99%
50 개 A ppl icat ion 999,999,99/100 2091.848TPS 0.478 1.23 1,000
A P Server Resource DB Server Resource A P CPU A P Memory DB CPU DB2 Memory
70% 30% 50% 45%
TPS
응답시간
측정구간
Memory 사용율
CPU 사용율
측정구간
측정구간
응답시간 - 1시간 동안 평균 응답시간을 확인하며, 99%의 응답시간을 고려하여 고른 안정성을 판단한다. 성능 ( TPS ) - 평균 TPS 가 목표 TPS 에 도달 하는지 확인 시스템 - 시스템 사용율 및 메모리 사용률 기타 프로세스 사용율 , 큐잉값등을 확인한다
■ 측정 항목
TPS 응답시간 System Resource
성능 검증 방법– 혼합 (온라인 & Batch)
TPS
배치 Process
TPS AP CPU
AP Mem
DB CPU
DB Mem
Res AVE
Res 99%
3 3010 88.618 21.433 87.056 35.636 1.022
3.029
12 3000 88.543 21.75 90.75 36.136 2.024
4.033
24 2980 87.019 21.93 91.907 36.205 3.026
6.122
유저 3,000 User
응답시간
DB CPU
■ 배치수행 영향도
시사점
• 3,000 TPS 부하 환경에서 배치 프로세스가 증가 할 수록 수행시간이 길어짐.
• 배치 프로세스 수행 중 온라인 영향보다 배치 수행의 영향이 더 높음.
• 영향의 Resource은 CPU 자원임.
배치 3개
System Resource
배치 3개
배치 3개
AP CPU
배치 12개
배치 12개
배치 12개
배치 24개
배치 24개
배치 24개
배치 Process 수행시간(M:SS) 최대 수행 시간
3 5:10,6:30,8:10 8:10
12 5:10,6:30,8:10, 5:10,6:30,8:10, 5:10,6:30,8:10, 5:10,6:30,10:10
10:10
24 5:10,6:30,8:10, 5:10,6:30,8:10, 5:10,6:30,8:10, 5:10,6:30,10:105:10,6:30,8:10, 11:10,6:30,8:10, 5:10,6:30,8:10, 5:10,6:30,10:10
11:10
성능 검증 방법 - 임계 성능
임계 성능
테스트 일시 /대상 A ppl icat ion 거래 성공률 전체전수(성공/에러)
TPS (=초당처리건수) 응답 시간
측정치 평균 99%
06.9.26 09:38:00 ~ 06.09.26 10:38:00 25개 업무 9,999,999/1,000 4055 TPS (Max : 4115) 4 7
A P Server Resource DB Server Resource A P CPU A P Memory DB CPU DB2 Memory
99.15% 30.192% 99.962% 23.092%
TPS
응답시간 Memory 사용율
CPU 사용율
분석 의견 - 시스템 사용률이 A P: DB 99% 도달함 - 임계의 부하 상황에서도 장애는 발생 하지 않았으며, 에러는 1,000건 발생함
성능 검증 방법 – Fail Over
CASE TPS AP CPU DB1 CPU
DB2 CPU
Res AVE
Res 99%
장애 전 2000 80 81 1 0.2 0.5
장애시 회복 시간 : 3분 20초, Fail Transaction : 1,000
장애 후 2002 84 1 80 0.19 0.7
User Num 3,000
■ DB 시스템 장애 Fail over
시사점 • 장애후 정상 회복 시간이 3분 20초 소요 되었음
• 총 Fail 건수는 1,000 개 임.
응답 시간
TPS
0.2
AP1 (16)
(배치 업무 전용)
DB1(18)
환경
0.19
정상 회복 시간 3분20 초
2000 2002
Fail Transaction Number : 1,000
DB2(20)
시스템 장애 유발
성능 검증 방법 - 횡적
TPS
NODE TPS AP CPU% DB
CPU Res AVE
Res 99% Each AVE
AP 1 Node
(1,000 User) 1,000 70 70 20 0.1 0.2
AP 2 Node
(2,000 User) 2,000
71 71 40 0.2 0.4
71
AP 3 Node
(3,000 User) 3,000
72
72 60 0.3 0.6 72
72
AP 4 Node
(4,000 User) 4,000
73
73 78 0.4 0.8 73
73
73
■ AP NODE 확장성 테스트
0.1
응답 시간
1,000
System Resouce
2,000
3,000
4,000
0.2 0.35 0.4
AP1: 70%
DB : 20 %
AP2: 71 % AP3: 72 % AP4: 73%
DB : 40.826 %
DB : 60.149 %
DB : 78 %
AP 별로 단계별 부하 증가
시사점
• Node 가 증가 할수록 성능이 증가하며 이때 성능은 확장성 1이 보장됨
• 응답시간은 Node 가 추가 될때 마다 증가하며 99% 응답시간과 편차도 커짐
성능 검증 방법 – 장애 유발
응답시간
시작
(수행시간)
완료
(수행시간)
총소요시간
(MM :SS)
최대 응답시간
1차 네트웍 카드 장착 20:21 22:46 02:25 5.448 sec
2차 네트웍 카드 장착 49:02 50:20 01:19 2.513 Sec
기본 응답 시간 0.021 Sec
User Number 2,000 user
1차 네트웍 카드 장착 ■ 수행결과
네트웍카드제거
2차 네트웍 카드 장착
네트웍카드 장착
스토리지 카드 제거 스토리지 카드
장착
네트웍카드제거 네트웍카드 장착
성능 검증 도입 기대 효과
• LoadRunner 도입시 다음과 같은 기대 효과가 있습니다.
• Deployment Risks 사전 제거
-LoadRunner로 성능 테스트된 Applications은 업무 성능 요건 충족 을 객관적으로 검증 개선할 수 있다.
• 성능 테스트 프로세스의 자동화
-최소한의 인력과 시간으로 많은 어플리케이션의 실질적인 성능 부하 테스트 수행을 자동화한다.
• 성능 품질 향상
-어플리케이션의 성능과 서비스 품질을 개선하도록 효과적인 성능 테스트와 결과 분석
• 신속한 ROI 제공
-능동적인 성능 테스트와 테스트 자동화는 테스팅 프로세스 기간동안 또는 후에 시스템 운영시 발생하는 문제를 사전 개선함으로써 IT 비용 절감
$
[email protected] ) 02-583-3766 02-583-3767 010-7703-4852
㈜엔씨아이 [email protected]
김용준 대리
감사합니다
Email : Tel : Fax : H P :