기본 콘텐츠로 건너뛰기

1.3 실무에서 쓰이는 통계분석

1.3 실무에서 쓰이는 통계분석

실무에서 쓰이는 통계학은 학문적으로 쓰이는 통계학과는 꽤나 다른 성격을 띄고 있습니다. 한 마디로 요약하면 논문에서는 그렇게 자주 쓰이는 회귀분석이 실무에서의 활용도는 글쎄? 라고 할 수 있습니다. 물론 이글도 데이터 분석을 주 업무로 하는 기업 및 직무는 해당사항이 적습니다. 하지만 해당될 수도 있습니다.

이유는 다음과 같습니다.

  1. 부장님 실장님들이 통계학을 잘 모르셔서 설득시키기가 어렵다. 또한 통계분석 모델링의 필요성을 크게 못느끼는 경우가 많다.

  2. 애초에 회귀분석으로 현상을 설명하고 예측하기에는 현실이 너무 복잡하다.

  3. 단순한 BI 화면, 보고서만으로도 충분히 일이 돌아가고 있는 상황이다.

    • 물론 자세히 까보면 그냥 대충 덮어놓고 진행하고 있는 경우가 많을 수도 있다.
  4. 데이터 수집체계가 제대로 정리되지 않은 곳이 생각보다 많다.

    • 무엇을 하고 싶어도, 제대로 하지 못하는 경우가 존재합니다.

어차피 실무는 공부 및 연구하는 곳이 아니라, 돈을 벌어야 하는 곳이기 때문에 이런 사항들이 생기기도 합니다. 회의 도중에 "통계학의 어떤 이론에 따르면..." 이런 식으로 회의를 진행하면, 데이터 분석에 큰 관심이 없거나, 잘 모르는 사람들은 이런 생각을 합니다. '여기가 직장이지 학술회인가?' 이런 관계로 실무에서의 통계학은 동료 직원들 및 상사들에게 공감을 이끌어 낼 수 있는 통계분석이 진행되어야 합니다.

공감을 이끌어 낼 수 있는 통계분석은 무엇일까요? 쉽게 말하면 딱 보기 좋은 시각화 자료입니다. 시각적으로 이쁘고, 이해하기 쉬운 그래프들로 구성된 대시보드를 작성하는 것이야 말로, 모두에게 공감을 이끌어 낼 수 있습니다.

실무에서는 크게 데이터 분석이 2가지로 나뉜다고 생각합니다.

  1. 현황분석을 해주는 통계자료 보고서 작업
  2. 홈페이지에 분석 플랫폼을 만들어, 사용자들이 원할때마다 이를 볼수 있도록 하는 시스템 구축 작업

1번의 경우에는 그래도 그나마 나은 경우입니다. 수집된 데이터를 그대로 긁어와서, 결과자료로 보여주면 됩니다. 또한 이제까지 선행되어있던 작업들이 존재하기 때문에 어려움은 크게 덜한 경우가 많습니다.

2번의 경우에는 머리가 좀 많이 아파집니다. 분석만 아니라, 많은 것을 고려해야되는 상황이 오기때문입니다. 1번과 2번의 차이를 비교하자면, 1번 작업은 요리를 하는 것과 비교할 수 있고, 2번의 경우에는 건물을 짓는 것이랑 비교할 수 있습니다.

1번

요리 : 재료 공수 => 재료 손질 => 요리 => 시식 (맛 평가)

분석 : 데이터 수집 => 데이터 전처리 => 분석 => 결론(검증)

음식은 맛을 보고나면 끝나듯이 보고서도 한번 만들면 끝입니다. 이런 경우엔 어찌 됐든 완성만 되면, 일단 주어진 일은 끝난 경우입니다.

2번

건설 : 설계도 작성 => 건설 => 입주 => 유지 보수 시작

구축 : 완성도안 작성 => 구축 => 운영 => 유지 보수 시작

시스템 구축은 정말 많은 단계들이 내포되어 있는데, 데이터 분석 파트만 다루었을 때만 얘기를 해보겠습니다. 건물은 다 지었다고 끝나는게 아닙니다. 건물을 지었는데, 제대로 공사가 안 된 곳이 있다면, 보수 작업을 다시해야 됩니다. 시스템 구축도 마찬가지입니다.

물론 기업마다 상황은 다 다르겠지만, 신경써야 할 부분은 다음과 같습니다.

  1. 시스템 운영 컴퓨터의 운영체제를 파악해야 됩니다.

    • 저희가 주로 작업하는 로컬 컴퓨터에서는 암만 잘 돌아가도, 운영 컴퓨터에서 돌아가지 않으면 말짱 도루묵입니다. 로컬에서는 잘 돌아가는데...' 이런 변명은 통하지 않습니다. 무조건 운영 컴퓨터에서 돌아갈 수 있도록 해야합니다.
    • 운영 컴퓨터는 사내 폐쇄망일 확률이 농후합니다. 사설 인턴넷망으로 접속하는 것이 불가능합니다. 이 말은 무엇이냐면, R, python등의 패키지들을 평소에는 쉽게 설치할 수 있지만, 사내 폐쇄망일 경우에는.... 음 이것또한 어떻게든 되게 만들어야 합니다. 그래도 R은 시스템 운영체제에 크게 영향을 받지는 않아서 패키지들을 운영 컴퓨터로 잘 옮기면 무리없이 돌아가는 편입니다.
  2. SQL을 필수적으로 알아야 됩니다.

    • 기업의 대부분 데이터는 SQL DATA BASE를 통해 저장되어 있습니다. 데이터 분석 프로그램으로 R, python 그 어떤 것을 쓴다해도, 기본적으로 SQL단에서 대부분의 전처리 작업을 해결하고 와야 운영체제에서의 작업이 원할해집니다.

    • 상황에 따라 다르지만, SQL => R, python => SQL => 시각화(대시보드) Tool [자바는 항상 필수]로 넘어가도록 되어 있습니다.

      • 이 때문에, 최대한 코드가 충돌하지 않도록 잘 구성해야 됩니다. 코드가 충돌하거나 혹은 꼬이기 시작하면 문제가 걷잡을 수 없이 커질 수가 있습니다. 이는 우리의 풍부한 야근 시간을 보장해주며, 혹시라도 사업 기간이 늦어지기라도 하면 누구 하나 멱살잡혀도 전혀 이상하지 않는 상황이 만들어 집니다.
      • 또한 단계별로 코드가 너무 복잡하면 운영서버에서는 무조건 버그가 생기길 마련입니다.
      • 단계가 복잡하기 때문에, 시스템 구동시간도 고려해야됩니다. 잘 짜여있다해도, 시스템이 켜질 때까지 오래걸린다면, 그것도 다시 해야 됩니다.
  3. 시간이 촉박합니다.

    • 시스템 구축 사업은 보통 기간을 정해두고 진행되기 때문에, 시간에 매우 쫓기게 되어있습니다.
    • 그냥 어떤 문제가 발생할지 모릅니다.

이런 관계로, 실무에서의 통계학 및 데이터 분석은 이론에 집중하기 보다는 지금 당장 결과물로 내놓을 수 있는 기술에 집중을 해서 학습을 하는 것이 더 효과가 좋습니다. 물론 고급 분석모형을 실무에 적용시킬려면, 탄탄한 통게학 지식 및 데이터 분석 기술이 필요한 것은 당연합니다.

요즘 데이터 분석직이 뜨고 있지만, 이 직무에 관심을 가지시는 분들께 한마디만 드리자면, 이 직무도 상당한 노가다 작업이 함께되는 직무임은 틀림 없습니다.

 

이 블로그의 인기 게시물

6.1.2 고수들이 자주 쓰는 R코드 소개 2편 [중복 데이터 제거 방법]

Ch2. 중복데이터 제거하기 및 데이터 프레임 정렬 Ch2. 중복데이터 제거하기 및 데이터 프레임 정렬 흔하지는 않지만, 중복으로 입력되는 데이터 셋을 마주치는 일이 생기기 마련입니다. 보통 중복데이터는 데이터 수집단계에서 많이 발생합니다. 하지만 이를 하나하나 엑셀로 처리하는 것은 한계가 있기때문에, R에서 처리하는 방법에 대해 다루어 보고자 합니다. 1차원 벡터, 리스트에서의 중복 제거 A = rep(1:10, each = 2) # 1 ~ 10까지 2번씩 반복 print(A) ## [1] 1 1 2 2 3 3 4 4 5 5 6 6 7 7 8 8 9 9 10 10 # 중복 제거 unique(A) ## [1] 1 2 3 4 5 6 7 8 9 10 데이터 프레임에서의 중복 제거 다음과 같은 데이터 프레임을 예시로 삼겠습니다. 변수 설명 OBS : 번호 NAME : 환자 이름 ID : 환자 고유번호 DATE : 검사 날짜 BTW : Body total water 먼저, 환자 이름이 있고, 그 환자의 고유 ID가 있습니다. 세상에 동명이인은 많기 때문에 항상 고유 ID를 기록해둡니다. # 데이터 불러오기 DUPLICATE = read.csv("C:/R/DUPLICATED.csv") DUPLICATE ## OBS NAME ID DATE BTW ## 1 1 A A10153 2018-11-30 1 ## 2 2 A A10153 2018-11-30 3 ## 3 3 B B15432 2018-11-30 4 ## 4 4 A A15853 2018-11-29 5 ## 5 5 C C54652 2018-11-28 5 ## 6 6 C C54652 2018-11-27 6 ## 7 7 D D14

4.4.1 R 문자열(TEXT) 데이터 처리하기 1

Ch4. 문자열 데이터 다루기 1 데이터 다운로드 링크: https://www.kaggle.com/PromptCloudHQ/imdb-data # 데이터 불러오기 DATA=read.csv("C:\\R/IMDB-Movie-Data.csv") Ch4. 문자열 데이터 다루기 1 이번에는 문자열 데이터를 처리하는 방법에 대해 다루겠습니다. 문자열을 다룰 때 기본적으로 숙지하고 있어야 하는 명령어는 다음과 같습니다. 문자열 대체 : gsub() 문자열 분리 : strsplit() 문자열 합치기 : paste() 문자열 추출 : substr() 텍스트마이닝 함수: Corpus() & tm_map(), & tdm() # 문자열 추출 substr(DATA$Actors[1],1,5) # 첫번째 obs의 Actors변수에서 1 ~ 5번째에 해당하는 문자열 추출 ## [1] "Chris" # 문자열 붙이기 paste(DATA$Actors[1],"_",'A') # 첫번째 obs의 Actors변수에서 _ A 붙이기, 기본적으로 띄어쓰기르 구분 ## [1] "Chris Pratt, Vin Diesel, Bradley Cooper, Zoe Saldana _ A" paste(DATA$Actors[1],"_",'A',sep="") # 띄어쓰기 없이 붙이기 ## [1] "Chris Pratt, Vin Diesel, Bradley Cooper, Zoe Saldana_A" paste(DATA$Actors[1],"_","Example",sep="|") # |로 붙이기 ## [1] "Chris Pratt, Vin Diesel, Bradley Cooper, Zoe Saldana|

3. Resampling 방법론(Leave one out , Cross Validation)

Ch4. Resampling 방법론 이전 챕터에서는 앙상블에 대해 다루었습니다. 앙상블을 요약하자면, Training Set을 Resampling할 때 마다, 가중치를 조정할 것인지 말 것인지를 다루는 내용이었습니다. 이번에는 구체적으로 Resampling 방법들에 대해 다루어 보고자 합니다. 1. Resampling의 목적과 접근 방식 모형의 변동성(Variability)을 계산하기 위해서 입니다. Training Set으로 모형을 만들고, Test Set으로 Error rate를 계산하며, 이를 반복합니다. 각 실행 별, Error Rate 값이 계산이 될 것이며, 해당 Error rate의 분포를 보고 모형의 성능을 평가할 수 있습니다. Model Selection : 모형의 성능을 Resampling 방법론을 통해 평가한다면, 모델링 과정에서 어떤 변수를 넣어야 하고, 혹은 모형의 유연성(Flexibility)을 어느정도로 조절하는 것이 적당한지 결정을 할 수 있기 때문에 매우 중요한 방법론 중 하나입니다. 모형의 유연성에 대해서는 다음 챕터에서 설명하도록 하겠습니다. 2. Leave-One-Out Cross Validation(LOOCV) LOOCV는 n개의 데이터에서 1개를 Test Set으로 정하고 나머지 n-1개의 데이터로 모델링을 하는 방법을 의미합니다. LOOCV 방법은 데이터 수 n이 크다면, n번의 모델링을 진행해야되기 때문에, 시간이 오래 걸립니다. 회귀, 로지스틱, 분류모형 등에 다양하게 적용할 수 있습니다. 3. K - Fold Cross - Validation 연산시간이 오래걸린 다는 것은 곧, 작업시간이 길어진다는 의미이며 이는 곧 야근을 해야된다는 소리와 다를게 없어집니다. 그래서 시간이 오래걸리는 LOOCV를 대채하기 위하여 K-Fold Cross - Validation이 존재합니다. 위 그림은 데이터 셋을 총 4개의 Set로 구성하였습니다. Cross -

4. 통계적 추정(점추정,구간추정)

Ch1. 점추정 추정량은 우리가 알고 싶어하는 모수를 표본들을 이용하여 단 하나의 점으로 추측하는 통계량입니다. 그 과정을 점추정(Point estimation)이라고 하며, 그렇게 얻어진 통계량을 점주청량(Point estimator)라고 합니다. 점추정량은 다양한 방식으로 구할 수 있습니다. 모평균을 추정하기 위한 표본평균 계산 각 끝의 일정 부분씩은 무시하고 나머지 표본들의 평균 계산(절삭 평균, Trimmed Mean) 등의 방법들이 있습니다. 하지만 가장 많이 쓰는 척도는 표본평균입니다. 그 이유는 대표적으로 수리적인 확장성과 표본평균의 분포를 비교적 쉽게 알 수 있다는 점을 들 수 있습니다. 점추정은 단순히 모평균을 추정하는 것만이 아닌, 회귀식을 추정하였을 때의 회귀계수도 점추정이라고 할 수 있습니다. (회귀분석은 후에 다룰 예정입니다.) 다만, 이런 점추정에도 몇 가지의 장점과 단점이 있습니다. 점추정의 장점 점추정량은 지극히 직관적이다. 통계를 모르는 누군가가 한국의 30대 여성의 평균 수입을 묻는다면 점추정량으로 즉각적인 답을 줄 수 있을 것입니다. 점추정량은 매우 직관적이며 합리적입니다. 점추정량은 우리가 원하는 수치를 대체할 구체적인 값을 제시해준다. 우리가 통계적인 모델링 혹은 함수를 작성하기 위해 30대 여성 수입의 평균치가 필요하나 모평균을 알 수 없을 때 점추정량으로 간단히 대체할 수 있습니다. 사실상 이는 대부분에 통계이론을 전개하는데 가장 중요한 역할을 합니다. 간단한 예를 말씀드리자면 모분산을 추정하기 위해서는 평균이 필요하기 때문에 표본평균을 이용합니다. 여기서 분산은 각 개별 값들이 평균에서 얼만큼 멀리 떨어져있는지에 대한 척도입니다. 그런데 우리는 '진짜 평균'을 알 수 없으니 아래 식과 같이 표본들의 평균으로 대체하는 것입니다. 여기서 평균 값을 표본평균으로 대체하였기에 표본분산은 n이 아닌 n-1으로 나누어 주게 됩니다. 이해를 돕기 위해 자유도에 대한 개념을 잠깐 다루도록 하

3.2.3 R 시각화[ggplot2] 2편 (히스토그램, 밀도글래프, 박스플롯, 산점도)

R 데이터 시각화 2편 R 데이터 시각화 2편 데이터 다운로드 링크: https://www.kaggle.com/liujiaqi/hr-comma-sepcsv # 시각화 이전에 처리 되어 있어야 하는 시각화 DATA = read.csv('C:/R/HR_comma_sep.csv') DATA$left = as.factor(DATA$left) DATA$Work_accident = as.factor(DATA$Work_accident) DATA$promotion_last_5years = as.factor(DATA$promotion_last_5years) 히스토그램(Histogram) [연속형 변수 하나를 집계 내는 그래프, 1차원] 히스토그램은 연속형변수를 일정 범위로 구간을 만들어, x축으로 설정하고 y축은 집계된 값(Counting)을 나타내는 그래프입니다. library(ggplot2) # 기본 ggplot(DATA,aes(x=satisfaction_level))+ geom_histogram() ## `stat_bin()` using `bins = 30`. Pick better value with `binwidth`. # 구간 수정 및 색 입히기 ggplot(DATA,aes(x=satisfaction_level))+ geom_histogram(binwidth = 0.01,col='red',fill='royalblue') # col은 테두리, fill은 채우기 밀도그래프(Density Plot)[연속형 변수 하나를 집계 내는 그래프, 1차원] 밀도그래프는 연속형변수를 일정 범위로 구간을 만들어, x축으로 설정하고 y축은 집계된 값(percentage)을 나타내는 그래프입니다. # 기본 ggplot(DATA,aes(x=satisfaction_level))+ geom_density() # 색 입히기 ggplot(DATA,a