통계학

 




[image]
1. 개요
2. 용어
2.1. 공통
2.2. 대푯값
2.3. 산포도
2.4. 기술 통계학
2.5. 추론 통계학
3. 다른 학문과의 관계
3.1. 사회과학
3.2. 자연과학과 공학
3.3. 의학, 약학
3.4. 수학
4. 세부 분야
4.1. 기초 분야
4.2. 데이터의 형태에 따른 각론
4.3. 기타 각론
5. 관련 시험과 자격증
6. 관련 저널
7. 통계 소프트웨어
8. 각종 오해와 통념들
9. 관련 문서


1. 개요


/ Statistics
표준국어대사전에 따르면 사회 현상을 통계에 의하여 관찰ㆍ연구하는 학문. 수학의 한 분야이다.
한국 통계법에 의하면 통계작성기관이 정부정책의 수립·평가 또는 경제·사회현상의 연구·분석 등에 활용할 목적으로 산업·물가·인구·주택·문화·환경 등 특정 집단이나 대상 등에 관하여 직접 또는 다른 기관이나 법인, 단체 등에 위임 위탁하여 작성하는 수량적 정보(통계 법 제3조 제1호)로서 통계는 주로 숫자(numbers)를 의미하는 것으로 되어있다.
통계학에 대한 여러 정의가 있는데 모두 축약하면 '''자료를 연구하는 학문'''으로 압축할 수 있다.
왜 통계를 배워야 하는가?"에 대한 좋은 글이다..

2. 용어


기재 시 '''가나다''' 순으로 정렬하고, 항목화 해주시기 바랍니다. 나무위키에서 순환링크는 금지입니다.

2.1. 공통


  • 모집단(population)은 관측 대상이 되는 전체 집단이다.
  • 표본(sample)은 모 집단에서 일부만 조사한 것이다.
  • 모 평균(population mean) μ는 모 집단의 평균이다. 모두 더한 후 전체 데이터 수 n으로 나눈다. 확률 변수기댓값이다.
  • 표본 평균(sample mean) $$ \bar{X} $$는 표본의 평균이다. 모두 더한 후 n으로 나눈다.
  • 모 분산(population variance) σ2은 모집단의 분산이다. 관측값에서 모 평균을 빼고 그것을 제곱한 값을 모두 더하여 전체 데이터 수 n으로 나눈 것이다.
  • 표본 분산(sample variance) s2은 표본의 분산이다. 관측값에서 표본 평균을 빼고 제곱한 값을 모두 더한 것을 n-1로 나눈 것이다.
  • 모 표준 편차(population standard deviation) σ는 모 집단의 표준 편차이다. 모 분산 σ2에 제곱근을 씌워서 구한다.
  • 표본 표준 편차(sample standard deviation) s는 표본의 표준 편차이다. 표본 분산 s2에 제곱근을 씌워서 구한다.
  • 평균 절대 편차(average absolute deviation 또는 mean absolute deviation)는 관측값에서 평균을 빼고, 그 차이값에 절대값을 취하고, 그 값들을 모두 더하여 전체 데이터 갯수로 나눠준 것이다. 절대값 편차의 평균이라고 생각하면 된다.
  • 중앙값 절대 편차(median absolute deviation)는 관측값에서 중앙값을 빼고, 그 차이에 절댓값을 취한 값들의 중앙값을 구한다.
  • 최소 절대 편차(least absolute deviation)는 회귀 분석(regression analysis)에 사용된다.
  • 공분산(covariance): 2개의 확률 변수의 상관정도를 나타내는 값이다. 확률 변수 X의 증감에 따른 확률 변수 Y의 증감의 경향에 대한 측도이다.
  • 상관 계수(correlation coefficient): 두 변인간의 관계를 나타내는 측도이다. 피어슨 상관 계수(Pearson correlation coefficient 또는 Pearson's r)를 가장 많이 사용한다. 공분산은 X와 Y의 단위에 의존하는 양이므로 단위와는 무관한 측도를 얻기 위하여 공분산을 X와 Y의 표준 편차의 곱으로 나누어서 얻은 값이 상관 계수이다. 상관 계수 X와 Y의 선형 관계의 강도에 대한 측도이다.
  • 왜도(skewness) 또는 왜곡도: 그래프가 왼쪽이나 오른쪽으로 치우친 정도이다.
  • 첨도(kurtosis): 그래프가 위로 뾰족한 정도이다.
  • 확률 변수(random variable): 표본 공간에서 정의된 실수 값 함수이다.
  • 확률 분포(probability distribution): 확률 변수 X의 발생 가능성의 정도이다. 이산 확률 분포연속 확률 분포가 있다.
  • 이산 확률 변수(random variable of discrete type): 확률 변수 X가 취할 수 있는 모든 값을 x1, x2, x3, ... 처럼 셀 수 있을 때 X를 이산 확률 변수라고 한다.
  • 확률 질량 함수(probability mass function): 이산 확률 변수 X가 취할 수 있는 값 x1, x2, x3, ... 의 각각에 대해서 확률 P(X=x1), P(X=x2), P(X=x3), ... 을 대응시켜주는 관계이다.
  • 연속 확률 변수(random variable of continuous type): 적절한 구간 내의 모든 값을 취하는 확률 변수이다.
  • 확률 밀도 함수(probability density function): 연속 확률 변수 X에 관한 확률을 결정하는 함수 f(x)이다.
  • 표본 분포(sampling distribution 또는 finite-sample distribution): 크기 n의 확률 표본(random sample)의 확률 변수(random variable)의 분포(distribution)이다.
  • 기댓값(expected value)은 통계에서는 평균과 같다고 생각하면 된다. 가능한 값마다 확률을 곱해서 모두 더한 것이다. 확률 변수 X의 평균으로 보통 E(X)라고 쓴다.
  • 자유도(degrees of freedom): "변인의 수 빼기 제약"이다.
  • 베이즈 정리(Bayes' theorem): 이미 알려진 확률(사전 확률)을 통해, 알고 싶은 다른 확률(사후 확률)을 예측할 때 쓴다.

2.2. 대푯값


  • 대푯값(representative value)은 어떤 데이터를 대표하는 값이다. 평균, 중앙값, 최빈값, 백분위수, 사분위수, 절사평균 등이 있다.
  • 평균(mean)은 데이터를 모두 더한 후 데이터의 갯수로 나눈 값이다.
  • 중앙값(median)은 전체 데이터 중 가운데에 있는 수이다. 직원이 100명인 회사에서 직원들 연봉 평균은 5천만원인데 사장의 연봉이 100억인 경우, 회사 전체의 연봉 평균은 1억 4,851만원이 된다. 이처럼 극단적인 값이 있는 경우 중앙값이 평균값보다 유용하다.
  • 최빈값(mode)은 가장 자주 나오는 값이다.
  • 사분위수(quartile): 자료를 크기순으로 나열했을 때 4등분하는 관측값이다.
  • 백분위수(percentile): 자료를 크기순으로 나열했을 때 x%인 관측값을 말한다.
  • 이상점(극단값, outlier): 다른 자료와는 극단적으로 다른 값. 너무 크거나 작다.
  • 절사 평균(trimmed mean): 관측값의 양쪽에서 일정 비율 α의 이상점을 버리고, 나머지 관측값들만으로 낸 평균을 100α% 절사 평균이라고 한다.

2.3. 산포도


  • 산포도(degree of scattering)는 자료가 흩어져 있는 정도를 나타낸다.
  • 범위(range): 최대값에서 최소값을 뺀 것이다.
  • 사분위간 범위(interquartile range): 3 사분위수(quartile)에서 1 사분위수를 뺀 값이다.
  • 편차(deviation)는 관측값에서 평균 또는 중앙값을 뺀 것이다. 즉, 자료값들이 특정값으로부터 떨어진 정도를 나타내는 수치이다.
  • 분산(variance)은 관측값에서 평균을 뺀 값을 제곱하고, 그것을 모두 더한 후 전체 갯수로 나눠서 구한다. 즉, 차이값의 제곱의 평균이다. 관측값에서 평균을 뺀 값인 편차를 모두 더하면 0이 나오므로 제곱해서 더한다. 확률 분포의 흩어진 정도를 말하며 확률 변수 X의 평균을 μ라고 할 때 X의 분포가 중심 위치의 측도인 μ로부터 떨어진 정도를 나타낸다.
  • 표준 편차(standard deviation)는 분산을 제곱근한 것이다. 제곱해서 값이 뻥튀기 된 분산을 제곱근해서 다시 원래 크기로 만들어준다.
  • 절대 편차(absolute deviation)는 관측값에서 평균 또는 중앙값을 빼고, 그 차이에 절대값을 취하고 그 값들의 대푯값을 구한 것이다.

2.4. 기술 통계학


  • 기술 통계학(descriptive statistics): 자료를 수집하고 정리해서 , 도표를 만들거나 요약하여 변동의 크기나 대푯값, 분산, 평균 등을 구하는 것이다.
  • 히스토그램(histogram): 자료를 구간별로 나누어서 구간별로 상대 도수에 해당되는 만큼 막대를 그린 도표이다.
  • 도수 분포표(frequency table): 계급 구간별로 도수(갯수)가 몇개인가 적은 이다.
  • 줄기 잎 그림(stem-and-leaf plot, stem-and-leaf display): 히스토그램과 비슷하지만 도수만 쓰는 게 아니라 자료값도 입력하여 정보의 손실이 없다.
  • 다섯 숫자 요약(five-number summary): 최소값, 제1사분위수(Q1), 중앙값, 제3사분위수(Q3), 최대값으로 전체 자료를 요약한 것이다.
  • 상자 수염 그림(box-and-whisker plot, box-and-whisker diagram) 또는 상자 그림(box plot, boxplot)은 다섯 숫자 요약으로 그린, 자료의 특성을 요약하는 그래프이다.

2.5. 추론 통계학


  • 추론 통계학(inferential statistics 또는 inductive statistics) 또는 추측 통계학 또는 통계적 추론(statistical inference): 자료에 내포되어 있는 정보를 분석해서 불확실한 사실에 대해서 추론하여 검정, 추정, 예측 등을 하는 것이다.
  • 모수(parameter): 모 평균, 모 분산, 모 표준 편차모집단(population)의 데이터이다.
  • 통계량(statistic): 표본 평균, 표본 분산, 표본 표준 편차표본(sample)에서 나온 데이터이다.
  • 점 추정(point estimation): 표본의 통계량으로 모수를 추정하는 것이다.
  • 구간 추정(interval estimation): 점 추정만으로는 모수가 얼마나 정확하게 추정되었는지 모르므로 모 평균이 존재할 구간을 확률적으로 추정하는 것이다.
  • 유의 수준(significance level): 제1종 오류를 범할 확률의 최대 허용 한계이다. 보통 α로 표시한다. 95%의 신뢰도를 기준으로 하면 1-0.95인 0.05가 유의 수준 값이다. 제2종 오류를 범할 확률의 최대 허용 한계는 β라고 한다.
  • 신뢰 구간(confidence interval, CI): 실제로 모수가 존재할 것으로 예측되는 구간이다. 보통 신뢰도 95%의 신뢰 구간을 쓰지만 99%도 많이 쓰고, 가끔 90%도 쓴다. (a, b)라고 써놓으면 a는 구간의 시작, b는 구간의 끝을 의미한다. 100(1-α)%의 신뢰 구간이라고 부른다. 반복적으로 모 평균 μ에 대한 구간 추정을 시행하면 이들 중 95%에 해당하는 신뢰 구간이 참값 μ를 포함한다는 의미이다.
  • 신뢰 수준(confidence interval level) 또는 신뢰도(reliability): 신뢰 수준이 95% 라면 H0 가설이 참인데 기각할 확률이 5% 이다. 1-α나 100(1-α)%로 적는다. '신뢰도 95%의 신뢰 구간'과 같은 식으로 쓴다.
  • p-값(p-value, probability value) 또는 유의 확률(significance probability, asymptotic significance): 귀무 가설 H0를 기각할 수 있는 최소한의 유의 수준(α)이다. 제1종 오류가 발생할 확률이다. 즉, H1을 선택했을 때 틀릴 확률이다.
  • 임계 값(critical value, threshold value): 검정 통계량의 분포에서 유의 수준 α에 해당하는 선 위의 값이다.
  • 확률(probability): 모집단으로부터 특정 표본이 관측될 가능성이다.
  • 우도(likelihood):
  • 독립 변수(independent variable) 또는 설명 변수(explanatory variable): 다른 변수에 영향을 주는 변수이다.
  • 종속 변수(dependent variable) 또는 반응 변수(responsible variable): 다른 변수에 의해 영향을 받는 변수이다.
  • 교란변수 또는 혼란변수(confounder): 인과관계상관관계를 혼동시킬 수 잇는 변수이다. 교회가 많으면 범죄율도 높지만 그건 교회 숫자가 원인이고 범죄율이 결과가 아니라 인구가 많으면 교회도 많고, 범죄율도 높다는 의미이다.
  • 교호작용(interaction): 독립변수 사이에 상호 작용을 하여 서로의 작용에 영향을 주는 것을 말한다.
  • 연속 확률 분포(continuous probability distribution): z-분포, t-분포, 카이-제곱 분포, F-분포 등.
  • 표준 정규 분포(z-분포, standard normal distribution): σ2을 아는 경우 μ를 구할 때 사용한다.
  • 스튜던츠 t-분포(t-분포, Student's t-distribution): σ2을 모를 때 표본 분산 s2으로 대체하여 μ를 구할 때 사용한다. 즉, 모 평균 검정에 사용한다. z-분포t-분포에서 귀무 가설 H0는 μ=0이나 μ12 등이고, 대립 가설 H1은 μ≠0나 μ1≠μ2같은 것이다. μ12처럼 변수가 2개인 경우 μ12=0으로 바꾸고 μ12를 d로 치환하면 d=0과 같은 변수가 하나인 식으로 바꿀 수 있다.
  • 카이-제곱 분포2 분포, chi-squared distribution): σ2을 구할 때 사용한다. 모 분산 검정, 적합도 검정, 독립성/동질성 검정 등에 사용한다. 귀무 가설 H0는 σ2=1같은 것이고, 대립 가설 H1은 σ2≠1같은 것이다. 또는 H0는 μ12이고, H1은 μ1≠μ2와 같은 것으로 H0는 "μ1과 μ2의 약효가 비슷하다", H1은 "μ1과 μ2의 약효에 차이가 있다"와 같은 것이다.
  • F-분포(F-distribution): σ12 / σ22 을 구할 때 사용한다. 카이-제곱 분포를 따르는 두 확률 변수들의 비를 구한다. 분산 비 검정, 분산 분석, 회귀 분석 등에 사용한다.
  • 분산 분석: 분산 분석의 귀무 가설 H0는 "μ123"같은 것이고, 대립 가설 H1은 "H0가 아니다"와 같은 것이다. 구체적인 예를 들자면, H0는 "약품 세 가지가 효과 차이가 없다"와 같은 것이고, H1은 "효과 차이가 있다"와 같은 것이다.
  • 회귀 분석: 회귀 분석의 귀무 가설 H0는 "기울기 β1=0이다"같은 것이고, 대립 가설 H1은 "기울기 β1≠0이다"와 같은 것이다. 구체적인 예를 들자면, H0는 "약이 효과가 있다"이고, H1은 "약이 효과가 없다"이다. 회귀 분석에서 절편은 β0라고 하고, 기울기는 β1이라고 한다.

3. 다른 학문과의 관계



3.1. 사회과학


대규모의 자료를 다루어야 하는 '''사회과학은 통계학에 의존하지 않고 존재할 수 없다.''' 통계학의 탄생 자체가 사회과학의 방대한 데이터를 분석하기 위해 만들어낸 학문이다. 영어이름부터가 State의 학문으로, 국가에 관한 특성을 연구하기 위해 만들어졌다. 몇천만에서 몇십억을 다루는 통계를 연구하는 통계학은 태생적으로 사회과학과 떼어놓을 수 없다.
실험분석이나 자료해석이 필요한 연구분야에서 논문을 쓰려면 통계 지식이 필요하다. 대부분의 논문은 통계 분석을 거쳐 논문의 결론을 제시하는 구조다. 따라서 대학원 진학시에는 기본적인 테이블 결과 해석 정도는 할 줄 알아야 하며, 최소한 기초통계학과 회귀분석에 대한 지식을 마련하는 것이 연구에 직/간접적인 도움이 될 것이다. 또한 자기 연구에 통계를 직접 써먹고 싶다면 SPSS, SAS, Stata, R, MATLAB 등 통계 분석 프로그램을 다루는 법도 배울 필요가 있다. 엑셀 함수(trend, slope, linest 등) 및 데이터분석 메뉴에서 다중회귀분석을 지원한다.
특히 경제학에선 통계학이 빠질 수 없다. 학술적인 분야에서도 많이 쓰이지만, 실무에서는 '''필수적이다.''' 경제학 전반에서 통계를 사용하는데, 이중에서도 통계학을 집중적으로 다루는 분야가 두가지 있다. 경제통계학계량경제학(Econometrics)이다.

3.2. 자연과학과 공학


복잡계, 카오스 이론, 네트워크, 머신러닝, 빅 데이터 등의 용어가 사용된다면 통계학과 연관된 분야다. 현대 자연과학은 정적인 연구주제가 고갈되었기 때문에 동적이고 예측불가능한 연구주제를 파고있다. 이런 문제들을 해결하기 위해 쓰이는 도구가 바로 통계학이다. 현대 자연과학은 전통적인 실험에서 벗어나, 통계학으로 대량의 데이터를 분석해 근사치를 구한 뒤, 이것을 수학적으로 추론하는 방식을 취한다.

3.3. 의학, 약학


의학제약회사약학에서도 통계학이 필수적이다.

3.4. 수학


  • "통계교육 연구의 역사와 한국의 통계교육 - 탁경주, 이경화"를 참고했음.
통계학과 수학이 같은 분야이냐 아니냐에 대해선 많은 논쟁이 있었다.
통계학의 학문적 독립성을 역설했던 Moore는 “통계학은 수학이 아니라 경험과학에서 비롯된 수리과학”으로 규정하였다. 동시에 다음과 같은 근거를 제시한 바 있다.
  • 통계학은 수학과 다른 독자적인 주제를 다루고 있다.
  • 역사적으로 통계학은 수학과 별개의 학문으로 발생하였다.
  • 통계학의 실제는 수학적이지 않다.
  • 통계학은 학문적 정체성을 다루는 철학적 이슈가 다르다.
  • 통계학은 수학적 아이디어를 사용하나, 수학은 통계적 아이디어를 수용하지 않는다.
대개 학문적 독립성은 연구 대상, 연구 내용, 연구 방법에 의해 설명된다 [18, p. 495]. 통계학은 불확실성을 내포한 경험적 자료(data)가 연구 대상이며 연구 내용은 맥락에 의존하는 경험과학의 성격을 띠고 있다. 반면, 수학은 수학 그 자체가 연구 대상이자 동시에 연구 방법인 형식과학이다.
반면 이안 해킹은 통계학의 논리적 확률론적 기반을 마련하면서 다른 결론을 내렸다. 그는 1960년대에 Logic of Statistical Inference (1965)를, 그리고 70년대에는 The Emergence of Probability (1975)를, 이어 90년대에는 The Taming of Chance (1990)를 낸 바 있다. 또한 그는 확률과 귀납 논리에 대한 책(Hacking, 2001)을 내는 등, 과학철학과 과학사 양쪽을 넘나들며 통계학과 확률을 지속적으로 연구해왔다. 해킹의 화두는 모든 일에는 그 일을 일어나게 할 수밖에 없는 조건들이 미리 존재하기 마련이라는 ‘결정론’(determinism)이다. 그 중에서도 그는 모든 물리적인 일들의 미래를 결정해주는 법칙이 존재한다는 물리법칙적 결정론(physical-law determinism)과 확률의 관계를 주목하였다. 즉, 그의 관점에서 통계는 확률을 도출해내는 방법으로, 수학의 연장이다.

4. 세부 분야


수리적인 견지에서 통계학을 연구하는 수리통계학은 확률분포의 성질, 통계량의 충분성(sufficient statistics), 통계검정의 효용성(most powerful test) 등에 대한 증명, 확률과정(stochastic process)의 수리적 성질에 초점을 맞추는 반면, 응용통계학적인 견지에서는 통계적 모형에 대한 추정방법 개발과 구현, 분석결과의 해석 등에 방점이 놓여있다.

4.1. 기초 분야


아래의 분야들은 어느 대학을 가든 '통계이론', '응용통계' 등의 이름으로 묶여 학부의 경우 전공 필수로 지정되고, 대학원의 경우 1년차에 수강을 마치는 것이 필수로 되어 있는 경우가 대부분이다. 이후 각론으로 들어가기 위한 기초를 공부한다.
  • 수리통계학(이론통계)
'수리통계학'이라는 이름과 '이론통계'라는 이름이 혼용되는 경우가 많다. 확률변수의 분포, 조건부 확률과 독립성, 몇 가지의 특수한 분포(정규분포, 이항분포, 다항분포, 감마분포, 카이 제곱 분포, 포아송 분포, 다변량 정규분포), 확률변수의 함수 분포, 중심극한정리를 포함한 극한분포, 추정, 통계적 가설과 검정, 비모수적인 방법을 이용한 검정과 각종 통계량 등을 배운다.[1] 요약하면 통계학의 기초개념을 수리적인 관점에서 포괄적으로 다루는 분야.
  • 통계계산
컴퓨터 기술이 발달하면서 통계적 자료분석 방법은 점차 고도화되고 복잡해졌다. 특히 최근에는 분석해야할 데이터가 매우 커지고 방대해짐에 따라, 어떻게 하면 더 빠른 알고리즘을 이용하여 분석할 수 있을 지가 중요한 문제로 대두되었다. 이 분야에서는 통계에 사용되는 계산 방법, 즉 컴퓨팅 기술을 주로 다루며, 빅 데이터 프로세싱, 이미지 및 영상 처리, 기계학습(머신 러닝) 등에 요긴하게 응용된다.
  • 실험계획법
어떤 주장을 통계적으로 검증하기 위해 자료를 수집할 때, 어떤 단계를 통하여 자료를 모을 지 실험을 계획하여야 한다. 이와 같은 실험을 계획하고 결과를 분석하는 법을 다룬다. 일반적으로 t-검정, 분산 분석(analysis of variance; ANOVA)이라 불리는 기법이 이 맥락에서 다뤄진다.

4.2. 데이터의 형태에 따른 각론


다루게 되는 데이터의 형태에 따라, 여기에 접근하기 위한 이론적 관점이나 통계적 기법 등이 달라지게 된다.
  • 다변량자료분석
둘 이상의 측정 변수(다변량 자료)를 다루는 분야이다. 예를 들어 단순히 각 사람들의 키만을 조사해 분석하는 게 아니라, 각 사람들의 키, 몸무게, 허리둘레, 성별 등등 많은 변수를 조사하여, 그 변수들이 가지고 있는 분포를 종합적으로 고려하여 데이터를 분석하기 위한 방법이다. 변수가 많기 때문에 시각화가 어렵고, 많은 변수를 한 번에 다루기 위해 행렬 이론 등이 많이 사용된다. 차원을 줄이고 정보를 요약하는 방법을 많이 다룬다. 학부 수준에서는 몇 개의 주성분을 뽑아내어 차원을 축소하는 주성분 분석, 숨겨진 요인을 찾는 요인 분석(인자분석), 자료를 분류 및 군집화하는 판별분석 및 군집분석 등을 다룬다.
  • 범주형자료분석
우리가 관심 대상으로 하는 자료는 키, 몸무게 등 수치적, 연속적으로 나오는 자료도 있지만, 성별 등 범주가 나누어져 있는 자료들이 있다. 이러한 범주형 자료를 분석하는 방법을 다룬다.
불완전한 데이터 중 특수한 형태를 다루는 분야이다. 예를 들어 어떤 병에 대한 신약의 효과를 검증하기 위해 환자들을 모아 그 수명 시간을 조사하고자 하는 상황을 생각해보자. 이 때, 병이 악화되어 이미 수명이 다 한 사람은 수명을 정확히 알고 있지만, 아직 생존한 환자는 그 수명을 정확히 알지 못하고 '현 시점보다는 오래 산다'는 사실만 알게 되며 따라서 데이터가 불완전해진다. 이와 같은 불완전 자료를 분석하는 방법을 다루며 의학통계에 주로 응용된다.
  • 확률과정론
많은 현상은 이전의 상태가 이후의 상태에 영향을 미치며, 그 상태가 결정되어있지 않고 랜덤하다. 따라서 이를 시간에 대한 함수로서의 확률변수열이라고 생각할 수 있는데, 이를 확률 과정(stochastic process)이라고 한다. 쉽게 말하면 매 시간마다 그 상태가 랜덤한 확률 변수라는 것이다. 확률과정론은 현상을 확률 과정으로 해석하여 모형을 세우고, 그 확률 과정의 여러 성질을 연구하는 분야이다.
시계열 자료, 즉 시간이 흐르며 관측된 자료를 다루는 분야이다. 주가 지수, 물가 지수, 월별/연별 강수량 등의 자료가 모두 시계열자료이다. 이러한 시계열자료의 두드러지는 특징은 한 시점에 여러 개의 데이터를 얻기 힘들다는 점과(시간이 흘러 버리므로), 관측치끼리 서로 연관이 있다(예를 들어, 오늘의 주가 지수는 어제의 주가 지수에 영향을 받을 수밖에 없다)는 점이다. 실생활의 수많은 자료가 시계열자료이므로 자료를 분석하고자 할 때 매우 중요한 분야 중 하나이다.

4.3. 기타 각론


'비모수(nonparametric)'는 기본적으로는 통계적인 추론을 모수(parameter)에 의존하지 않는다는 뜻이다. 모수는 우리가 가지고 있는 자료를 통해 추정하고자 하는 모집단(population)의 특징을 표현하는 대표값을 말한다. 만약 어떤 집단의 특징이 정규 분포를 따른다고 가정된다면, 그 집단의 특성은 정규 분포의 두 가지 모수인 평균과 표준편차로 표현되는 식이다.
  • 베이즈 통계학 (베이지언 통계학, 베이지안 통계학)
토머스 베이즈베이즈 정리에 바탕을 두고 정립된 통계학의 흐름.
소위 '빈도주의(frequentist)'라 불리는 전통적인 통계학의 관점에서는, 모수를 상수이지만 알려져 있지 않은 것으로 보고, 값이 알려져 있지만 랜덤한 확률변수인 관측치를 이용하여 모수를 추정하는 데에 초점이 맞춰져 있었다. 그러나 베이즈주의자(Bayesian)의 관점은 약간 다르다. 우리가 모수를 직접 알지 못하므로, 이 불확실성을 확률분포로 표현하여, 모수가 어떤 확률분포에서 얻어진 값인 것으로 여긴다.
이러한 관점에서는 확률 역시 사건에 대한 믿음의 정도로 해석되고, 자료를 관찰하기 전의 '믿음의 정도'는 자료를 관찰한 후 이 자료에 따라 업데이트된다고 본다. 즉, 자료를 관찰하기 전에 가지고 있었던 모수에 대한 불확실성(=정보, 믿음의 부족)은 자료를 관찰함으로써 업데이트되게 되고, 이 업데이트의 과정은 베이즈 정리에 의해 이루어지게 된다.
여기서 데이터를 관찰하기 전에 가지고 있던 '불확실성에 대한 믿음'을 사전분포(prior distribution)라 하며, 이는 사전에 내가 알고 있는 정보에 의해 결정된다. 이후 관측치를 얻어 관측치를 보고 모수에 대해 알고 있는 정보를 업데이트하는데, 데이터로부터 오는 모수에 대한 정보를 가능도 또는 우도(likelihood)라고 부른다. 결과적으로 사전분포와 가능도를 모두 고려하여 모수에 대한 새로운 분포를 계산하게 되는데, 이를 사후분포(posterior distribution)라 한다.[2]
모든 것을 손으로 계산해야 했던 시절에서는 사전분포와 사후분포의 관계를 깔끔하게 도출할 수 있는 문제가 제한적이었기 때문에, 그다지 많이 사용되지 못했다. 그러나 컴퓨터 기술의 발달로 인하여, 특히 마코프 체인 몬테 카를로 방법의 개발에 의해 사후분포를 도출할 수 있는 방법이 개발되면서 급성장하게 되었다.

5. 관련 시험과 자격증



6. 관련 저널


4대 저널로는 JASA(Journal of the American Statistical Association), JRSSB(Journal of the Royal Statistical Society: Series B), Biometrika, The Annals of Statistics이 있다.

7. 통계 소프트웨어


[image]
[image]
  • 상용 소프트웨어: 스프레드 시트를 제외한 통계처리용 소프트웨어의 경우, 그 가격이 매우 비싸 개인이 구매하기는 쉽지 않다. 대학교, 연구기관, 회사 등에 있는 경우 해당 기관에 소속되어 있다는 것을 전제로 발급되는 라이센스를 이용하여 쓰게 되는 경우가 많다.
  • 오픈 소스 소프트웨어
    • R: 'S'라는 통계 프로그래밍 언어의 발전형.(#) 오픈 소스 소프트웨어이기 때문에 무료로 이용이 가능하고, 통계 연구자들이 '라이브러리(library)'라 불리는 확장기능을 끊임없이 개발, 발표하고 있어 폭넓은 용도로 활용이 가능하다. 초기에는 '오픈 소스 소프트웨어를 어떻게 신뢰하느냐' 하는 불안감으로 인해 사용을 꺼리는 곳도 있었지만, 반대로 회사의 이익 때문에 소스 코드를 공개하지 않는 상용 소프트웨어에 비하면 투명한 개발/유지 보수가 가능하다는 이해방식도 널리 퍼지고 있다.
    • Julia: 과학계산에 특화된 LLVM에 기반한 컴파일 언어. 컴파일 언어이기에 R, Python에 비해 매우 빠른 속도를 보인다.
    • Python: 엄밀히 말하면 통계 소프트웨어가 아니라 범용 프로그래밍 언어이다. 하지만 pandas, NumPy, StatsModels, scikit-learn 등의 패키지를 이용한 통계 분석이 가능하다.
    • JASP: SPSS를 대체할 목적으로 만들어진 무료 오픈 소스 소프트웨어로, 베이즈 통계학에 기반을 둔 분석을 SPSS와 유사한 인터페이스를 통해 수행할 수 있도록 만든 것이 최대의 특징이다.
    • PSPP: SPSS를 대체할 목적으로 GNU에서 만든 무료 오픈 소스 소프트웨어
    • gretl: 무료 오픈 소스 소프트웨어이며 회귀 분석, 계량경제학, 시계열 분석에 특화되어있는 라이브러리이다. Eviews라는 시계열 특화 계량경제 프로그램이 있는데 그 프로그램의 대용으로 적절하다.
    • ROOT: 입자물리학에서 널리 쓰이는 소프트웨어인데, GUI나 3D 등 별의별 것들을 다 담고 있지만 그 중에서도 입자물리를 하기 위해 필요한 수많은 통계 도구들을 갖추고 있다는 것이 이 프로그램의 특징이다. 예를 들어 가우스 분포는 물론이고 Landau 분포, crystal ball 분포, Breit-Wigner 분포 등 입자물리에서 자주 등장하는 다양한 분포들을 기본 패키지로 다룬다. 또한 회귀 분석, 가설 검정은 당연히 포함되어 있고 ML (maximal likelihood)을 활용한 전반적인 것들, unfolding, TMVA (Toolkit for Multivariate Data Analysis)[3] 등 입자물리학자들의 데이터 통계 분석을 위한 다양한 분석 툴 또한 갖추고 있다. LGPL (최소) 2.1 라이선스를 따르기 때문에 누구나 부담없이 사용 가능하다.

8. 각종 오해와 통념들



  • 천몇백 명 표본으로 통계를 내는 각종 조사들은 신뢰할 수 없다. 대한민국 5천만 국민의 의견을 제대로 반영하려면 최소한 십만 명은 표본으로 삼아야 할 것이다.
    • 물론 표본의 크기가 커질수록 더 신뢰할 수 있는 데이터가 되기는 한다. 그러나 사회과학의 추론통계 기법에 따르면, 대한민국 5천만 국민의 의견을 95% 정도의 신뢰수준으로 추정하려면 천몇백 명으로도 충분하다.
  • 1,000명 조사에 응답률 10%이면 사실은 100명의 응답만으로 결론을 도출한 것이다.
    • 10,000명에게 전화를 걸어서 1,000명이 응답했다는 뜻이다.
    • 일반적으로 낮은 응답률은 여론조사에 걸리는 시간과 비용의 증가로 이어져서, 영세한 조사업체의 결과를 왜곡시킬 가능성을 높인다. 단, 사회 데이터를 분석할 때에는 응답률이 낮다는 사실 자체가 하나의 의미 있는(meaningful) 신호일 수 있음도 고려해야 한다. 응답하기를 거부한 사람들이 갖고 있는 생각이 조사결과에 반영될 리 없고, 이는 결국 응답률이 낮을수록 조사에 응하기로 한 소수의 "특별한" 사람들의 생각만을 반영했다는 의미가 되기 때문이다.
  • 세상에는 세 가지 거짓말이 있다. 그냥 거짓말, 새빨간 거짓말, 그리고 통계.
    • 사실 이 유명 어록은 "모든 통계는 무조건 거짓말이다!" 가 아니라 "통계도 얼마든지 조작이 가능하니까 믿기 전에 한번 의심해 봐라" 정도의 의미로 받아들이는 게 더 바람직하다. 통계학에 이해가 깊으면 깊을수록, 아주 사소한 표본추출 방식만을 가지고도 어지간히 교육받은 사람들까지도 맘껏 농락하는 게 가능하다. 그러니까 오히려 이 어록은 통계학에 대해서 기초적으로라도 배워 놓으라는 뜻일 수 있다.[4]
      특히 사회과학에서는 꼭 조작이 아니더라도 동일 주제를 놓고 서로 다른 기관에서 조사를 하면 서로 다른 결과가 나오기도 한다. 이는 각 통계마다 조사방법론에 차이가 있기 때문이다. 예를 들어 전세계의 행복순위를 확인하기 위해서 각국 국민들을 설문조사하는데, 각국마다 100명씩 표본을 추출한다면 당장 리히텐슈타인의 표본과 중국의 표본 간의 대표성에는 차이가 있을 것이다. 또한 "전반적으로 당신은 행복하십니까?" 라고 묻는 것과, "당신은 하루 중 몇 번 정도 행복을 느끼십니까?" 로 묻는 것은 분명히 다르다.[5] 이런 차이를 알면 알수록, 알지 못하는 일반인들을 교묘하게 속이는 것은 쉬워진다.
  • 빈도주의 (Frequentist) 추론 통계학에서, 모평균을 추정하기 위해 95% 확률에서 신뢰수준과 오차범위를 활용할 경우, 이는 실제 모평균이 95% 확률로 신뢰구간 내에 존재하고 있다는 뜻이다.
    • 사실 이는 수많은 표본평균들 중의 95%에 달하는 표본평균들이 해당 오차범위 내에 놓인다는 뜻이다.[6] # (26:00부터)

  • p-값이 0.05보다 작다(p<0.05)는 것은 주어진 가설이 참일 확률은 95% 이상이라는 것을 의미한다.
    • 그렇지 않다. 미국통계학회에 따르면 영가설이 참이고 다른 모든 가정들이 타당할 경우 관찰된 결과 이상으로 극단적인 결과를 얻을 확률이 5% 이하임을 의미한다. 이는 현직 과학자들도 자주 틀리는 개념이며, 이에 대한 학계 내부의 반성의 목소리도 많다.
  • 통계분석에 있어서 상관관계가 나오는 것만이 좋은 데이터다.
    • 꼭 그렇지만은 않아서, 연구주제에 따라서는 두 변인 간에 아무런 유의미한 관계가 없다고 밝혀지는 것이 중요한 경우도 있다. 실제 한 연구를 예로 들면, NGO에 고용되어 일하는 직원들의 근속년수와 임금수준 간에는 상관관계가 사실상 존재하지 않는다고 한다. 상관계수는 0에 극히 가깝게 나왔지만 그 자체로 논의거리가 나오니 좋은 연구로 취급된 사례다.
      영가설을 기각하지 못하는 것이 연구자가 바라는 바인 경우도 있다. 예컨대 통계모형 제작에 필요한 요인분석 과정에서 Goodness-of-fit 검정을 하는 경우에는 p-값이 0.05 이상으로 크게 나오지 않으면 전체 분석을 다시 해야 한다.


9. 관련 문서



[1] 서울대학교 통계학과 홈페이지[2] 사전에 알고 있는 정보를 사전분포라는 이름으로 분석에 활용하기 때문에, 아무런 자료가 없는 경우에는 자료를 분석하는 사람이 생각하는 '주관적 확률' 역시도 필요한 경우에는 분석에 포함시킬 수 있다. 물론 이런 경우는 있을 수 있는 모든 경우의 수에 대해 동일하거나 아주 미세한 차이만 있는 사전분포를 사용하여, 모든 가능성이 동등하게 고려될 수 있도록 한다. 만약 특정한 경향성을 가지고 있는 '주관적 확률'을 사용하고자 한다면, 여기에 대해서 정당화를 할 수 있어야 한다.[3] 입자물리학자들이 쓰는 다양한 기계학습 방식을 간편하게 쓸 수 있는 라이브러리이다.[4] 이 맥락에서 정반대로 "통계학을 모르는 사람은 고등교육을 받은 사람이 아니다" 라는 어록도 있다.[5] 극명한 사례를 들자면, 대한민국의 양성평등 순위는 세계에서 몇 등일까? 세계경제포럼(WEF)에 따르면 우리나라는 2013년 기준으로 136개국 중 111위로 최하위권이다. 그런데 유엔개발계획(UNDP)의 성불평등지수(GII)에 따르면 우리나라는 2011년 기준 146개국 중 11위로 최상위권에 속한다! 이렇게 엄청난 차이가 나타나는 것도 가능하다. #관련기사[6] 위 고정관념의 표현이 애매한 것 같아 원문을 옮긴다. "VERY COMMON ERROR : The confidence interval IS NOT the probability that the population mean lies within the interval."

분류