[ADsP] 과목3. 데이터 분석 기획
Index
- 1. 데이터 분석 기획의 이해
- 2장 분석 마스터 플랜
1. 데이터 분석 기획의 이해
- 데이터분석 기획 이해
- 데이터분석 수행 방법론 이해
- 데이터분석 수행 방법론 활용한 분석과제 도출
- 데이터분석 마스터플랜 이해
1.1 분석 기획
- Value = Analyst + Analytics Model + Data
- 분석과제 정의 및 관리방안 계획하는 중요한 사전작업
- Why(목표) - What(데이터) - How(수행방식) 계획하는 작업
- 목표
- 단기목표: 분석과제 도출
- 중장기목표: 마스터플랜 수행/수립
분석 기획의 구성
- 분야 전문 지식 (Domain Knowledge)
- 분석 역량: 수학/통계 지식
- 분석 도구: 데이터/IT기술
=> 도구/기술에 치우치지 않는 균형적인 역량/시각 필요
분석 주제 유형
분석방법 | 분석대상 | 분석주제유형 |
---|---|---|
known | known | 최적화 |
known | unknown | (대상) 통찰 |
unknown | known | 솔루션 (=방법탐색) |
unknown | unknown | 발견 Discovery |
ex) “최적화” 분석주제로 문제접근
-> 새로운 유형주제를 “발견”하거나 새로운 “솔루션” 도출
목표시점별 분석기획 방안
- 과제중심적 접근
- 단기적 Quick-Win 과제 해결
- 1차목적: Speed & Test
- 최종목적: 분석의 가치 증명 및 공감대 형성
- 마스터플랜
- 장기적 분석과제 도출/정의
- 1차목적: Accuracy & Deploy
- 최종목적: 지속적 분석 문화 내재화 (가장 바람직)
분석가의 수행역량
- 전문성/분석기술/IT기술
- 프로젝트 관리역량
- 의사소통/리더십 역량
분석 기획 고려사항
1) 가용 데이터 (Available Data)
- 데이터의 존재 유무
-
데이터 유형 파악
데이터유형 예시 정형
Structuredex) DB, ERP/CRM 이력 반정형
Semi-ex) 머신/센서 데이터, 로그, 위치, 설문, 날씨 비정형
Un-ex) IoT, GPS, ITS, 이메일, SNS, 통화녹취
2) 적절한 유스케이스 (Bus. Use Case)
- 가치 창출되는 적절한 활용방안
- 활용가능한 유스케이스
ex) 유사 시나리오/솔루션 => 고객의 공감 증대
3) 분석과제 수행 장애요소 (Barrier of Execution)
장애요소 | 내용 |
---|---|
비용 Cost | 정확도 높여 시간/자원 절감 |
간결함 Simplicity | 결과 간결해야 이해 쉬움 |
성능 Perfomance | 실제 환경에서 성능 다를 수도 |
문화 Culture | 조직 역량으로 내재화하려면 교육/관리 필요 |
1.2 분석 방법론
데이터 분석/활용과 기업경쟁력
- 고정관념/편향/프레이밍 효과(framing effect)
=> 비합리적 의사결정 - 분석 방법론 -> 분석 정착 -> 기업문화 변화, 업무 프로세스 개선
=> 데이터 기반 의사결정
데이터 분석 방법론의 필요성
- 체계화된 절차/방법 정리
=> 데이터분석 효과적으로 정착 - 일정한 산출물 품질 + 프로젝트 성공 가능성 확보/제시 가능
=> 개인역량/우연한 성공의 한계 극복 가능
데이터 분석 방법론의 구성
- 절차 (Procedure)
- 방법 (Methods)
- 도구 & 기법 (Tools & Techniques)
- 템플릿 & 산출물 (Templates Outputs)
=> 어느 정도 지식만 있으면 활용 가능
방법론 생성과정
1) 형식화 (암묵지 -> 형식지) 2) 체계화 (형식지 -> 방법론) 3) 내재화 (방법론 -> 암묵지)
=> 위 과정 반복
방법론의 대표모델
: 분석과제/조직 역량에 따라 적절한 모델 선택
- 폭포수 모델 (Waterfall Model)
- 하나씩 완료하는 순차적 진행
- 하향식(Topdown) + 피드백
- 나선형 모델 (Spiral Model)
- 반복하며 점증적 개발
- 처음 시도하는 프로젝트 진행에 용이
- 반복관리 체계 없으면 복잡도 늘어나 진행 어려움
- 프로토타입 모델
- 빠르게 결과 제작 후, 결과 토대로 수행 반복
계층 프로세스 모델 (Stepwised Process Model)
: 일반적인 방법론 구성 모델
- 단계(Phase)
- 기준선(baseline) 설정해 관리
- 프로세스 그룹 통해 산출물 생성
- 버전관리(config mng) 등으로 통제
- 태스크(Task)
- 단계의 물리/논리적 구성단위
- 품질검토 항목으로 이용 가능
- 스텝(Step)
- 단위 프로세스(Unit Process) = 입력자료 + 처리/도구 + 출력자료
- WBS(Work Breakdown Struct)의 Work Pkg
KDD 분석 방법론 (Knowledge Discovery in DB)
단계 | 산출물 | 내용 |
---|---|---|
데이터셋 선택 Selection |
목표 데이터 Target Data |
도메인 이해, 목표설정 => 필요시 반복 |
데이터 전처리 Preprocessing |
정제 데이터 | 잡음/이상치/결측치 제거 (Noise/Outlier/Missing Value) |
데이터 변환 Transformation |
분석용 데이터셋 |
변수선택, 데이터차원 축소 |
데이터 마이닝 Data Mining |
패턴 Patterns |
데이터분류/예측, 패턴 탐색 => 필요시 전처리/변환 병행 |
마이닝 결과 평가 Interpret Evaluation |
지식 Knowledge |
결과 해석, 목적 일치성 평가 |
CRISP-DM 분석 방법론
(Cross Industry Standard Process for Data Mining)
- EU에서 발표한 4레벨/6단계의 분석 방법론
- 단계간 피드백 지향 (폭포수 모델X) => 단계별 완성도 상승
- 4레벨
- 단계 (Phase)
- 일반 태스크 (Generic Task)
- 세분화 태스크 (Specialized Task)
- 프로세스 실행 (Process Instances)
- 6단계
- 업무이해
- 업무목적/상황 파악
- 목표/계획 수립
- 데이터 이해
- 데이터 수집/탐색/품질 확인
- 데이터 준비
- 데이터셋 선택/정제/편성
- 데이터 통합/포맷팅
- 모델링
- 모델링 기법/알고리즘 선택
- 모델 작성/평가
- 평가 (Evaluation)
- 분석결과 평가
- 모델링과정/모델적용성 평가
- 전개 (Deployment)
- 평가 통과 모델 => 적용/유지보수 계획수립
- 종료보고서 작성 & 리뷰
- 업무이해
빅데이터 분석 방법론
1) 분석 계획 단계
태스크 | 스텝 | 산출물 |
---|---|---|
비즈니스 이해 & 범위 설정 |
비즈니스 이해 프로젝트 범위 설정 |
- 비즈니스 이해 + 도메인문제점 - SO(프로젝트 범위 정의서) |
프로젝트 정의 & 계획 수립 |
데이터분석 프로젝트 정의 프로젝트 수행계획 수립 |
- 프로젝트 정의서 - 모델운영 이미지/평가기준 - 프로젝트 수행계획서 + WBS |
프로젝트 위험계획 수립 |
데이터분석 위험 식별 위험 대응계획 수립 |
- 식별된 위험 목록 - 위험관리계획서 |
- ** SOW(Statement of Work)
- 범위 명확히 하고, 모든 참여 관계자 이해 일치시키기 위해 작성
- ** WBS (Work Breakdown Structure)
- 산출물 위주로 작성해 범위 명확화
- ** 위험대응 4구분
- 회피, 전이(Transfer), 완화(Mitigate), 수용
2) 데이터 준비 단계
태스크 | 스텝 | 산출물 |
---|---|---|
필요 데이터 정의 | 데이터 정의 데이터 획득 방안 수립 |
- 데이터 정의서 - 데이터 획득 계획서 |
데이터 스토어 설계 | 비/정형 데이터 스토어 설계 | - 비/정형 데이터스토어 설계서 - 데이터 매핑 정의서 |
데이터 수집 & 정합성 점검 | 데이터 수집 & 저장 데이터 정합성 점검 |
- 수집된 분석용 데이터 - 데이터 정합성 점검 보고서 |
3) 데이터 분석 단계
태스크 | 스텝 | 산출물 |
---|---|---|
분석용 데이터 준비 | 비즈니스 룰 확인 분석용 데이터셋 준비 |
- 비즈니스 룰 + 필요 데이터 범위 - 분석용데이터셋 |
텍스트 분석 | 텍스트 데이터 확인 & 추출 텍스트 데이터 분석 |
- 분석용 테스트 데이터 - 텍스트 분석 보고서 |
탐색적 분석 | 탐색적 데이터 분석 (EDA) 데이터 시각화 |
- 데이터 탐색 보고서 - 데이터시각화 보고서 |
모델링 | 데이터 분할 데이터 모델링 모델 적용 & 운영방안 |
- 훈련/테스트용 데이터 - 모델링 결과보고서 알고리즘 설명서 + 모니터링 방안 |
모델 평가 & 검증 | 모델 평가 모델 검증 |
- 모델 평가 보고서 - 모델 검증 보고서 |
- ** EDA (Exploratory Data Analysis)
- 시각화 활용해 데이터 가독성 증대, 데이터 형상/분포 등 파악
- ** 데이터 시각화 활용
- 향후에 모델링/시스템 구현 위한 사용자 인터페이스나 프로토타입으로 활용 가능
4) 시스템 구현 단계
태스크 | 스텝 | 산출물 |
---|---|---|
설계 & 구현 | 시스템 분석 & 설계 시스템 구현 |
- 시스템 분석 및 설계서 - 구현 시스템 |
시스템 테스트 & 운영 | 시스템 테스트 시스템 운영 계획 |
- 시스템 테스트 결과보고서 - 운영자/사용자 매뉴얼 - 시스템 운영계획서 |
** 시스템 구현 방식
신규 시스템 => BI 패키지 활용해 구축
가동 중 시스템 => 커스터마이징 등으로 모델 구현
- ** 시스템 테스트
- 단위/통합/시스템 테스트 등 실시 => 객관성/완전성 확보
5) 평가 및 전개 단계
태스크 | 스텝 | 산출물 |
---|---|---|
모델 발전계획 수립 | 모델 발전 계획 | 모델발전 계획서 |
프로젝트 평가 & 보고 | 프로젝트 성과평가 프로젝트 종료 |
- 프로젝트 성과평가서 - 프로젝트 최종보고서 => 지식자산화 |
- ** 모델 발전계획
- 모델 생명주기 설정해 주기적 평가/개선 => 모델의 계속성 확보
1.3 분석 과제 발굴
분석과제 도출방식
분석대상 | 과제도출방식 | 상세 |
---|---|---|
known | 하향식 접근 Top-Down |
주어진 문제 답 탐색 Problem Solving |
unknown | 상향식 접근 Bottom-Up |
데이터로 인사이트 도출 + 시행착오 Problem Creation |
** 빠르게 변하는 기업환경 => 문제 자체가 변화 => 상향식 접근 방식이 유용
디자인 사고 프로세스 (IDEO)
: [발산-> 수렴 -> 발산 -> 수렴] 반복
=> 상호 보완되어 동적인 환경에서 분석가치 증가 => 최적의 의사결정
-
- 발산(Diverge) 단계
- 가능한 옵션 도출하는 상향식 접근
-
- 수렴(Coverge) 단계
- 도출된 옵션 분석 & 검증하는 하향식 접근
하향식 접근법 (분석과제 도출)
: 문제탐색 -> 문제정의 -> 해결방안 도출 -> 타당성 평가 -> 분석과제 도출
1) 문제탐색 단계
-
비즈니스 모델 기반 문제 탐색
영역 주제 예시 업무 내부 운영 프로세스
주요 자원 관련ex) 공정 최적화, 재고 최소화 제품 제품/서비스 개선 관련 ex) 제품기능개선
모니터링 지표 도출고객 사용자/고객/채널 관련 ex) 고객 대기시간 최소화
점포위치 최적화규제 & 감사 제품생산/전달 시의
발생 규제/보안 관련ex) 품질이상 징후 관리
새로운 규제 해당 제품 추출지원 인프라
(IT/HR)분석 시스템
운영/관리 인력 관련ex) EDW 최적화
적정 운영인력 도출혁신 거시적 관점, 경쟁자
시장니즈, 역량 재해석혁신 관점 분석기회
1) 거시적 메가트렌드
영역 분석기회 & 주제 예시 사회 사회/문화/트렌드 기반 ex) 노령화, 저출산
밀레니얼 세대기술 최신기술 등장/변화 따른
필요 역량/제품ex) 나노/융합/로봇기술
기존 제품 스마트화경제 산업/금융/경제구조 변화 ex) 원자재 가격
환율/금리에 따른 구매전략환경 정부/단체/시민사회의
환경 관련 관심/규제 동향ex) 탄소배출규제/거래시장 정치 정책/정세/지정학적 동향 ex) 대북관계 변화로
자재 구매선 다변화2) 경쟁자 동향
영역 분석기회 & 주제 예시 대체재 융합적 경쟁환경의
제품/서비스 대체재 동향ex) 온라인 확장 시
영향/위협 탐색경쟁자 주요 경쟁자 동향 ex) 카탈로그/전략 분석 신규진입자 향후 파괴적 역할 가능한
신규진입자 동향ex) 크라우드 소싱 제품
(킥스타터, 텀블벅)3) 시장니즈 탐색
영역 분석기회 & 주제 예시 고객 구매 동향/컨텍스트 분석
=>제품/서비스 개선ex) 구매기업/산업 동향
거래선 경영 현황채널 자체 채널
최종고객 전달 경로의 채널ex)온라인 채널 대응전략 영향자들
Influencer주주/협회 등 이해관계자의
주요 관심사항ex) 기업인수 기회 4) 역량 재해석/변화
영역 분석기회 & 주제 예시 내부역량
Competency지적재산권/기술력
노하우(지식/기술/스킬)
인프라적 유형자산ex) 소유 부동산활용 파트너
& 네트워크관계사/공급사 역량활용 ex) 수출입/통관 노하우 -
- 외부 참조 모델 기반 문제 탐색
- 산업/서비스별 분석주제 풀(pool)로 유사/동종사례 벤치마킹
=> 평상시 지속적 사례 조사 & 정리
- 퀵& 이지 방식으로 분석기회 아이디어 도출
- 브레이스토밍 워크숍으로 분석테마 빠르게 도출
-
- 분석 유즈 케이스 정의
- 데이터 분석 문제로의 전환 & 적합성 평가에 활용
- 풀어야 할 문제에 대한 상세설명
- 문제 해결 시 발생 효과 명시
ex) 구매최적화: 유형별 실적 비교/분석해 구매방안 도출 => 구매비용 절감효과
2) 문제 정의 단계
- 식별된 비즈니스 문제를 데이터 문제로 변환 & 정의
- 필요 데이터 & 기법 정의 (How)의 문제
- 분석 수행 당사자 + 최종사용자(End User) 관점에서 정의
- 3) 해결방안 탐색 단계
- 정의된 데이터분석 문제에 따라 해결방안 다각도로 고려
분석역량 확보 분석역량 미확보 기존 기법 & 시스템 기존시스템 개선활용 교육/채용으로 역량확보 신규 기법 & 시스템 시스템 고도화 전무업체 아웃소싱 - 4) 타당성 검토 단계 (Feasibility Study)
- 다각적 타당성 분석 (분석문제/가설의 대안 과제화) => 가장 우월한 도출 대안 선택
- 경제적 타당성
- 비용 대비 편익 분석
- 데이터 & 기술적 타당성
- 데이터 존재여부
- 분석 시스템 환경
- 분석 역량 (특히 중요 => 확보방안 사전 수립)
- 경제적 타당성
상향식 접근법 (분석과제 도출)
: 경험적인 과거 데이터 무작정 결합하여 정보/지식을 상향적으로 얻는 방식
=> 상관관계 분석해 문제 도출/재정의
- 디자인 사고 접근법
-
- Empathize
- 현장/데이터 관찰 + 감정이입 => 대상 관점으로 전환
(why -> what : 답 내지 말고 있는 그대로 인식)
- Define
- Ideate
- Prototype
- Test
-
-
- 비지도 학습 수행 (Unsupervised Learning)
- 데이터 자체만으로 결합/연관성/유사성 도출 => 해석 어렵지만 새로운 인사이트
ex) 장바구니 분석, 군집분석, 기술통계<-> 분류, 예측, 추측, 최적화 (지도학습)
-
- 시행착오 통한 문제 해결
- 빠르게 결과 내고, 결과 토대로 반복 수행 (동적인 환경에 유용)
- 문제/요구 이해 & 구체화
- 필요 데이터 협의 & 확인
- 데이터 사용목적 가변성 활용 (사용목적/범위 확대)
** 인과관계(know-why) <-> 상관관계(know-affinity)
프로토타이핑 프로세스
- 가설의 생성
- 디자인에 대한 실험
- 실제 환경에서의 테스트
- 테스트 결과로 통찰 도출 & 가설확인
분석 과제 정의
: 도출한 분석과제 상세하게 정의
- 분석 방법
- 필요 소스 데이터
ex) 내/외부 비정형 데이터, 소설/오픈 데이터 등 - 데이터 입수/분석 난이도
- 분석수행 주기 & 상세과정
- 분석결과 검증 오너십 (owner)
1.4 분석 프로젝트 관리 방안
분석과제 주요 특성 관리영역 (5 Analytic Dimension)
1) 데이터 사이즈
: 분석 데이터량 고려한 관리 방안
2) 데이터 복잡성
: 실제 시스템의 산재된 데이터 확보/통합 등 고려
3) 속도
: 시나리오 측면에서 고려
> ex) 일/주단위 실적 (배치), 사기탐지/개인화 (실시간)
4) 모델 복잡도
: 복잡할 수록 해석 난이도/정확도 증가 (trade off 관계)
5) 모델 정확도
- Accuracy: 모델과 실제 값 사이의 오차 정도 => 분석의 활용성
- Percision: 모델 반복 시 편차 일관성 => 분석의 안정성
분석 프로젝트의 특성
- 데이터 영역과 비즈니스 영역 조율 필요
=> 조정자로서 관리방안 & 관리 포인트 숙지해 협업 도모 -
프로토타이핑 방식의 어자일(Agile) 프로젝트 관리 고려
=> 지속적 반복/개선/변경 염두한 관리방안 수립<-> 폭포수 방식 (waterfall)과 반대방식
분석 프로젝트 주요 관리항목 10가지
1) 범위
- 투입 자원 / 데이터 범위
2) 시간
- 모델도출까지 시간 대량 소모가능
=> 타임박싱 기법 일정관리 (전제: 결과품질 보장)
3) 원가
- 외부데이터 / 툴 사용료
4) 품질
- 품질목표 사전수립
- QC / QA 나누어 수행
- QC: 품질통제 (Quality Control)
- QA: 품질보증 (Quality Assurance)
5) 통합
- 통합적으로 프로세스 운영/관리
6) 조달 (Procurement)
- 외부 소싱
- 클라우드 등 (PoC 프로젝트 경우)
7) 자원
- 인력/전문가 선확보 (보통 공급부족)
8) 리스크
- 데이터 미확보 위험 식별 & 대응방안
- 데이터/알고리즘 한계 의한 품질문제 대응방안
9) 의사소통
- 모든 이해관계자가 분석결과 공유 가능해야
- 다양한 소통체계 마련
10) 이해관계자
- 다양한 전문가 참여
=> 이해관계자 식별/관리 필요
- ** PoC (Proof of Concept)
- 신기술/제품 도입 전 효과/타당성 검증 프로젝트
- ** Time Boxing 기법
- 작업 나누고 시간추정 후 작업이 반드시 한 iteration에 담기도록 배치
=> 반복형(iteration) 개발방식 프로젝트에 주로 사용
2장 분석 마스터 플랜
- 데이터분석 마스터플랜 수립 이해
- 데이터분석 거버넌스 체계 이해
2.1 분석 마스터 플랜 수립
분석 마스터 플랜 수립 프레임워크
- 적용 우선순위 설정
- 전략적 중요도 고려
- 비즈니스 성과/ROI 고려
- 실행 용이성 고려
- 데이터 분석 실행 로드맵 수립
- 업무내재화/적용수준 고려
- 분석데이터 적용수준 고려
- 기술 적용수준 고려
ISP (Info Strategy Planning) 활용
: 기업/공공기관의 중장기 로드맵(마스터플랜) 정의방식
- 내/외부 환경 분석 -> 기회/문제점 도출
- 사용자 요구사항 분석 -> 시스템 구축 우선순위 결정
=> 분석과제 도출 후 과제 우선순위 결정 + 중장기 계획 수립
분석 과제 도출 & 우선순위 평가
- 과제 우선순위 평가기준 수립
- 분석과제 우선순위 평가
- 과제 수행 선후관계 분석
- 분석과제 우선순위 정련
빅데이터 4V의 ROI 요소
- Investment 투자비용 요소
- Volume
: 데이터 규모/양 - Variety
: 데이터 종류/유형 - Velocity
: 데이터 생성/처리 속도
- Volume
- Return 비즈니스 효과
- Value
: 분석결과 활용/실행 통한 비즈니스 가치
- Value
분석과제 우선순위 평가기준
- 난이도
- 데이터 획득/저장/가공 비용
- 분석 적용 비용
- 분석 수준 (난이도)
- 시급성
- 전략적 중요도
- 목표가치 (KPI)
분석과제 우선순위 선정 매트릭스
난이도 | 시급성 | 사분면 | 중요도 | 시행시점 |
---|---|---|---|---|
어려움 | 현재 | 1 | 전략적 중요 & 시급 | 바로 적용 어려움 |
어려움 | 미래 | 2 | 현재는 중요도 낮지만 중장기적으로 추진 필요 |
바로 적용 어려움 |
쉬움 | 현재 | 3 | 현재 시점에 중요도 높음 | 우선적으로 바로 적용 |
쉬움 | 미래 | 4 | 전략적 중요도 낮음 | 바로 적용 가능하나 중장기적 추진이 바람직 |
=> 경영진/실무담당의 의사결정이나 기술요소에 따라 난이도/시급성 조정 가능
** 시급성 우선: 3 -> 4-> 2
** 난이도 우선: 3 -> 1 -> 2
이행계획 수립
- 1) 로드맵 수립
- 최종 실행 우선순위 결정 후 단계적 구현 로드맵 수립
- 단계별 추진 목표 정의
- 단계별 추진 내용 정렬 (과제별 선/후행 관계 고려)
2) 세부 이행계획 수립
-
- 반복적 정련과정
- 프로젝트 완성도 높이는 방식 주로 사용
-
- 혼합형
- 데이터 수집/준비 (순차적) + 모델링 (반복)
2.2 분석 거버넌스 체계 수립
거버넌스 체계 구성
- 분석기획 & 관리 조직 (Organization)
- 과제기획 & 운영 프로세스(Process)
- 시스템
- 데이터
- 교육 & 육성 체계 (HR)
분석 준비도 (Readiness)
: 데이터분석 도입 수준 진단방법
- 일정 수준 이상 충족 => 분석업무 도입
- 충족 실패 => 분석환경 조성
1) 분석 업무 파악
- 발생한 사실 분석 업무
- 예측 분석 업무
- 시뮬레이션 분석 업무
- 최적화 분서업무
- 분석 업무 정기적 개선
2) 인력 & 조직
- 분석전문가 직무 존재
- 분석전문가 교육훈련 프로그램
- 분석업무 전사총괄 조직 존재
- 관리자들의 기본 분석력
- 경영진 분석업무 이해력
3) 분석 기법
- 업무별 적합 분석기법 사용
- 분석업무 도입 방법론
- 분석기법 라이브러리
- 분석기법 효과성 평가
- 분석기법 정기적 개선
4) 분석 데이터
- 분석업무용 데이터 충분성
- 분석업무용 데이터 신뢰성
- 분석업무용 데이터 적시성
- 비구조적 데이터 관리
- 외부 데이터 활용체계
- 기준 데이터 관리 (MDM)
5) 분석 문화
- 사실에 근거한 의사결정
- 관리자의 데이터 중시
- 회의 등에 데이터 활용
- 경영진 직관보다 데이터 중시
- 데이터 공유 & 협업 문화
6) IT 인프라
- 운영시스템 데이터 통합
- 데이터 유통체계 (EAI, ETL)
- 분석 전용 서버 & 저장소
- 빅데이터 분석환경
- 통계 분석환경
- 비쥬얼 분석환경
** MDM: Master Data Management
분석 성숙도 (Maturity)
: 분석능력 & 결과활용에 대한 조직성숙도 평가모델 (CMMI 모델 기반)
성숙단계 | 상세 |
---|---|
도입단계 | 분석 시작해 환경/시스템 구축 |
활용단계 | 분석결과를 실제 업무에 적용 |
확산단계 | 전사차원에서 분석 관리 & 공유 |
최적화단계 | 분석 진화시켜 혁신 & 성과 향상에 기여 |
** CMMI: Capability Maturity Model Integration 업무 프로세스 성숙도 모델
1) 비즈니스 부문
단계 | 예시 |
---|---|
도입 | 실적분석 & 통계, 정기보고, 운영 데이터 기반 |
활용 | 미래결과 예측, 시뮬레이션, 운영 데이터 기반 |
확산 | 전사 성과 실시간 분석, 프로세스 혁신 3.0, 분석규칙/이벤트 관리 |
최적화 | 외부 환경분석, 업무 최적화, 실시간 분석, 비즈니스 모델 진화 |
2) 조직/역량 부문
단계 | 예시 |
---|---|
도입 | 일부 부서에서 수행, 담당자 역량에 의존 |
활용 | 전문 부서에서 담당, 분석기법 도입, 관리자가 분석 수행 |
확산 | 전사 모든 부서에서 수행, 분석 COE 조직 운영, 데이터 과학자 확보 |
최적화 | 데이터 사이언스 그룹, 경영진 분석활용, 전략연계 |
3) IT 부문
단계 | 예시 |
---|---|
도입 | 데이터 웨어하우스/마트, ETL/EAI, OLAP |
활용 | 실시간 대시보드, 통계 분석환경 |
확산 | 빅데이터 관리환경, 시뮬레이션/최적화, 비주얼 분석, 분석전용 서버 |
최적화 | 분석 협업환경, 분석 샌드박스, 프로세스 내재화, 빅데이터 분석 |
분석수준 진단 결과
유형 | 준비도 | 성숙도 | 상태 | 개선방안 |
---|---|---|---|---|
준비형 | 낮음 | 낮음 | 데이터/조직/기법 등 적용 안 됨 | 사전준비필요 |
정착형 | 낮음 | 높음 | 낮은 준비도 분석인력/기법 등 제한적으로 사용 |
분석 정착 필요 |
도입형 | 높음 | 낮음 | 분석업무/기법 부족 조직/인력 등 준비도 높음 |
분석 바로 도입 |
확산형 | 높음 | 높음 | 분석구성요소 모두 갖춤 분석 부분적으로 도입 |
지속적 확산 |
=> 유관업종/경쟁사 분석수준과 비교해 분석경쟁력 확보/강화 목표 설정
분석 지원 인프라 방안 수립
- 분석과제단위 개별시스템
- 시스템간 자체적 데이터 교환
- 시스템별 데이터 관리
- 확장 시 시스템 간 인터페이스 폭증 => 관리 복잡도 + 비용 증대
- 플랫폼 구조
- 분석플랫폼 활용 공동기능 활용
- 중앙집중적 데이터 관리
- 시스템간 인터페이스 최소화
데이터 거버넌스 체계 수립
- 전사차원의 모든 데이터에 대해 정책/지침 표준화
- 운영조직 & 책임 등의 표준화된 관리체계 수립
- 운영위한 프레임워크 & 저장소(Repository) 구축
- 마스터 데이터/메타 데이터/데이터 사전 구축
=> 데이터 가용성/유용성/통합성/보안성/안전성 확보 가능
=> 빅데이터 프로젝트 성공 기반
데이터 거버넌스 구성요소
- 원칙
- 데이터 유지/관리 지침 & 가이드
- 보안, 품질기준, 변경 관리
- 조직
- 데이터 관리 조직의 역할 & 책임
- 데이터 관리자, DB 관리자, 데이터 아키텍트
- 프로세스
- 데이터 관리 활동/체계
- 작업절차
- 모니터링/측정 활동
1) 데이터 표준화
- 데이터 표준 용어 설정 (표준단어사전/도메인 사전/코드 등)
=> 사전간 상호검증 가능해야 - 명명규칙 수립
: 필요시 언어별 작성해 매핑상태 유지 - 메타데이터 구축
=> 메타 엔티티 관계 다이어그램 - 데이터 사전 구축
=> 데이터 구조 체계
2) 데이터 관리체계
- 표준 데이터/메타데이터/ 데이터사전 관리 원칙 수립
ex) 담당자, 조직별 역할/책임 등 - 데이터 생명주기 관리 방안 수립
=> 데이터 가용성/관리비용 문제 방지
3) 데이터 저장소 관리
- 메타데이터&표준 데이터 관리 저장소 구성 (전사차원)
- 워트플로우 & 관리 소프트웨어 지원 필요
- 데이터구조 변경에 따른 사전 영향평가 필요
4) 표준화 활동
- 표준 준수 여부 주기적 점검/모니터링
- 지속적 데이터 표준화 개선 활동
데이터 조직 & 인력방안 수립
: 데이터의 효과적 분석/활용 위해 전문 분석조직(기획/운영/관리 전담) 필요
분석조직 개요
- 목표
- 비즈니스 질문/가치 찾고 비즈니스 최적화
- 기업경쟁력 확보
- 역할
- 전사/부서의 분석업무 발굴
- 전문기법/분석도구로 빅데이터 인사이트 탐색/전파/활용
- 구성
- 기초통계학/분석방법에 대한 지식 + 분석경험 있는 인력
- 전사나 부서 내 조직으로 구성해 운영
분석조직 구조
1) 집중형 조직구조
- 독립적 분석 전담조직
- 모든 분석업무를 전담조직이 담당
- 분석과제 우선순위 선정해 추진 (전략적 중요도 고려)
=> 업무 이중화/이원화 가능성
2) 기능 중심 조직 구조
- 각 업무부서에서 직접 분석
- 전사적 관점의 핵심 분석 어려움
=> 특정 업무 국한된 분석
=> 일부 분석업무 중복 가능성
3) 분산된 조직구조
- 분석 조직 인력을 현업부서에 배치
- 전사 차원의 분석 우선순위 선정 가능
- 분석결과 신속하게 실무 적용 가능
- 베스트 프랙티스 공유가능
=> 부서 분석업무와 역할분담 명확히 해야
분석 조직 예시
- 비즈니스 인력
- IT 기술인력
=> 기술 동향 파악 & 기술 아키텍처 수립 - 분석전문 이력
=> 통계/모델링 - 변화관리 인력 (겸직가능)
=> 경영층 대상 분석문화 확산 - 교육담당 인력 (겸직가능)
분석과제 관리 프로세스 수립
- 과제발굴
- 분석 아이디어 발굴
- 분석과제 후보 제안
- 분석과제 확정
- 팀구성
- 과제수행
- 분석과제 실행
- 분석과제 진행관리
- 결과 공유/개선
: 지속적/체계적 분석과제 관리 프로세스 수행 필요
=> 조직 내 분석 문화 내재화 & 경쟁력 확보 가능
=> 시사점 & 결과물 축적/관리해 시행착오 최소화 + 효율적 진행 가능
분석교육 & 변화 관리
- 준비기
- 분석중심 문화 미도입
- 균형상태
- 막연한 불안감
- 도입기
- 기존 행태로 돌아가려는 경향 (포기 잦은 단계)
- 성공시 강한 탄성으로 변화 가속화
- 안정추진기
- 분석활용 일상화
- 균형상태
=> 데이터기반 의사결정 문화 정착 변화관리 지속적 수행 필요
분석 교육
- 창의적 사고 & 문제해결을 위한 체계적 접근법
- 데이터 분석기회 발굴 & 과제 정의 방법 이해
- 빅데이터 분석기법 활용
- 빅데이터 개념 & 관련 기술 습득
=> 툴 사용법이 아닌 분석역량 확보/강화에 초점 맞춰야
=> 구성원 모두에게 분석기반 업무 정착
=> 분석적 사고/관점/활용 등 기업 문화로 확대