핵심은 do-operator로 Treatment에 영향을 주는 모든 요인을 이론적으로 차단하는 행위이다.
이론적인 관점이기 때문에 계산을 따로하지 못한다.
comfounder가 있어 treatment에 영향을 주어 보이는 확률이나 분포를 interventional probabilities 혹은 interventional distribution이라고 하는데 do-operator를 사용해 comfounder의 영향을 모두 제거하여 순수한 conditional probability로 만들 수 있고 이런 과정을 identification이라고 한다.
backdoor criterion: causal association 혹은 causal relationship(X -> Y) 를 제외한 모든 backdoor path를 막는 변수들의 집합 (예를 들면, compounder는 막고, collider는 막지 않는것)
backdoor adjustment: 모든 변수를 condition하거나 control 하는것
frontdoor adjustment
만약 comfounder가 관찰하기 어려운거라면?
(1) M = a + bT (alpha)
(2) Y = beta1 + beta2M + beta3T (beta)
(3) chain rule 적용으로 casual effect계산
이론적인 structural model이 있어야 분석이 가능하고 실제 적용 사례들이 많지는 않다는게 현재 상태이다.
흄은 인과관계를 원인에 대한 필연적 결과가 아닌 이전의 경험과 아이디어로부터 결과가 연속적으로 발생한다는 관념에 불과하다라고 정의(necessary connection) 인과율 회의론 혹은 인과율 부정: 어떤게 진짜 인과관계인가?
실증주의: 검증가능한 법칙에 의해 세상이 돌아간다. => 인과관계가 필요하다. 관념적인 연결고리가 아닌 과학적인 방법으로 검증할 수 있는 수단이 필요함 => 인과관계 프레임워크의 필요성 (공통의 이해틀이 필요함)
인과관계에 대한 다양한 접근
1. theory based hypothetical causation - logical imperative 2. Statistics based approach - population에서 샘플링 한것들의 인과추론 결과가 bias 없이 - seeking unbiasedness 3. Design based - control/ treatment 를 나누는 방식으로 인과관계 정의 - removing selection bias 4. Structure based - 얽혀있는 구조를 들어내기 - estimating causal structures
강점 단점
Statistics ~ Endogeneity? 수학적으로 계산 가능하다는 점이 강점 여러 통계 모형이 있을때 endogeneity를 얼마나 줄일 수 있는가 비교가 가능하다 (instrumental variable: 고부변수 ~ confounding variable을 상쇄시키는 변수) 데이터 분석전략에 대해 구체적인 가이드를 주지 못한다는 것이 단점
Design based approach 
1-2
Potential outcomes framework
Rubin: treatment를 정의할 수 없다면 potential outcomes 을 수행할 수 없음 연구자가 적절한 디자인을 설정해야한다. => 리서치
counterfactual은 potential outcome framework 에서 가장 중요한 개념 문제점? 동일한 사람의 개인이 treatment를 받고 안받고를 동시에 경험할 수 없는 현실적 문제가 있음 그렇기때문에 결과에 대한 정확한 정의가 필요한 counterfactual은 현실에서 얻을 수 없고 갖고 있는 데이터는 control 그룹뿐이다.
Potential outcome framework에서 가장 방해가 되는 요인은 selection bias이다. 애초에 treatment가 없는 상황에서도 treated와 untreated간의 차이가 있다면 인과추론결과를 보는데 방해가 될것이다. Selection bias를 줄여 우리가 관측하는 observed effect와 causal effect가 같아질 수 있다. Ceteris paribus 원칙(라틴어: 모든것이 동등하다면): reatment가 없는 상황에서도 control과 treatment의 변수들이 평균적으로 비슷하도록 디자인 조정하는것이 중요하다. 라는 결론
1-3 Comparable control group 찾는 사례 이전에 경제성장은 개인의 자금과 내부 발전으로 이루어진다는 endogenous growth model에 기반했지만 개발도상국과 선진국간의 차이가 좁혀지지 않음이 제도에 있다라고 보는 신제도학
예시 맥시코의 노갈래스, 에리조나의 노갈래스 쌍둥이 도시 (북한, 남한은 애초에 비교 대상이안됨) 종교, 문화, 지리적 요인이 비교가능하고 비슷한 상태 하지만 절반은 미국, 절반은 맥시코의 제도하에 있게되었고 미국이 3-4배 이상 잘산다
1995년 시카고 폭염참사 폭염이 사회적인 대응이 필요한 인식이란 개념이 없었던 시절 Causal mindset의 훌륭한 연구사례
인구커뮤니티의 성향차이로 폭염을 이겨낼 수 있었다 없었다의 인과추론 mindset을 볼 수 있음 인과추론을 가능하게 하는건 어떤 테크닉이나 통계적인 모델이 아님, 중요한건 리서치 디자인이다 비교 가능한 데이터를 수집하는 것이 중요하다는 사례
Control variable(통제변수): 탐구하기를 원치 않는 변수
같은 신장(거의 counterfactual인)을 기증해도 받는 사람의 행동을 학습한 observation learning 이론이 있다. 이 observation learning 이론을 뒷받침하는 인과추론 디자인으로 창의적인 사례였다.
2-1. 
단일 방법론 중 가장 신뢰도가 높은건 RCT Meta analysis는 반복적인 여러 인과관계 증거를 종합하여 명확하게 추론하는 방법
2-2 샘플수가 클수록 그룹의 법칙이 이론과 가까워진다. Random assignment~ 큰수의 법칙과 동일 Sample 수가 충분하다면 무작위배정으로 두 그룹이 평균적으로 비슷하게 구성할 수 있다. 우리가 모르는 다른 요인을 충분히 제거해야 한다. 예를 들어, 순서가 들어간 경우
Random assignment를 거의 완벽하게 수행한다면 복잡한 통계모형 없이 인과관계 추론이 가능하다는 장점이 있다. 애초에 비교가능하지 않은 대상을 가지고 비교분석을 하면 인과적추론이 어렵다. 예시) 이가탄 연구 회사에서는 A/B test가 RCT이다.
2-3. Quasi-experiment : random assignment를 할수 없어 실험과 비슷한 상황을 찾아 분석하는 것
실험연구와 달리 독립변수가 종속변수의 원인이다. 라는 결론에 도달할수는 없지만 원인들 중 하나일것이다. 라는 결론을 내릴 수 있다. 다른 변수의 영향을 무시할 수 없기 때문에
Causal inference flow chart 1. 연구목적이 인과추론인 경우인가? 2. Random assigment가 가능한가? 3. treatment가 무엇이고 control과 treatment group 구분할수있는지? => quasi experiment가 가능해지는 시점 4. 전후 데이터가 모두 있는지?
Quasi experiment의 방법 3가지: Self-selection(연구 대상자가 treatment를 받을지 말지), exogenous shock(의도하지 않은 외부 shock에 의한 구분 ~ 자연재해, 정치적 변동, 금융위기 등, natural experiment라고 부른다), discontinuity(어떤 threshold로 나눈 상황)
Exogenous shock은 DID + matching분석법, discontinuity는 RD로 분석
근데 만약? 전후 데이터가 충분하지 않으면? treatment를 예측할 수 있지만, error항과 연관이 없는지? 그러면 instrumental variable을 이용할 수 있음
regression같은 경우는 선형적인 관계가 있다는 가정하에 통제변수와 종속변수간의 관계를 찾아내고 matching은 sample수가 줄어들 수는 있지만 control과 treatment군을 평균적으로 비슷하게 matching하여 연구하는 것
RCT와 quasi-experiment의 차이는 control과 treatment군을 어떻게 배정하는지의 차이
우리가 주의해야하는 것: treatment 없이도 어떻게 control그룹이 treatment그룹과 유사할 수 있을까?
Exogenous shock 예시) 미국의 shale boom이 생긴 지역과 아닌 지역이 local finance에 영향이 있다, 없다 Shale이 묻혀있을지 예상하지 못한 상황에서 지역별로 경제상황이 크게 영향을 줄 것이 없다고 가정하고 분석하는 상황이다. 그렇기 때문에 Natural experiment는 RCT와 가장 유사한 효과를 내는 quasi experiment다.
Self selection 예시) sns에서의 활동이 기업을 방문하는데 영향이 있는지? sns활동은 참가자의 자발적인 행위 두 집단이 비교 가능한지에 대해서는 natural experiment에 비해서 엄밀하게 citrus paribus를 검증할 필요가 있음
Discontinuity 예시) 음주의 영향 미국에서 19세를 기준으로 음주에 의한 사망에 영향이 있는지 등을 분석가능 어떤 threshold 값의 직전후로 treatment와 control 그룹을 나눔
2-4) 이중차분법 DID

여기서 control그룹이 counterfactual과 가깝다면 control 그룹을 통해서 countfacutal을 유추할 수 있지 않을까?
T’a - Tb = treatment를 받지 않았을때 시간에 따른 자연스러운 변화 (관찰할 수 없는 값) Ca - Cb = treatment를 받지 않는 그룹이 treatment를 받았을때의 변화량 아래껄로 위를 대체함으로써 Counterfactual에 가까운값을 추정할 수 있지 않을까? 원래는 Ta - T’a를 추정하는데 T’a를 치환하여 분석할 수 있음 DID는 시간에 따른 변화량만! 컨트롤 그룹으로 치환한다.
시간에 따른 변화량이 일정하다: parallel trends assumption Research design에서 선택편향을 없앨 수 있는 가정을 identification assumption이라고 부름 시간에 따른 변화량이 비슷해야한다. 평행하게 변화해야한다.
예시) Apple-nbc battle 
그럼 만약 comparable control group을 찾을 수 없다면 quasi-experiment를 사용할 수 없는가? No matching은 control과 treatment의 각 변수의 평균으로 둘으 최대한 유사하게 만들어주는 목적
1. Propensity score matching (propensity score: treatment group에 속할 확률) ⁃ 단점: 변수가 많다면 balance가 잘 안맞을 수 있다 2. Coarsened Exact Matching ⁃ 모든 변수가 같은 값인 sample들을 매칭 ⁃ 동일한 구간에 속한 값들은 같다고 보고 matching ⁃ https://bigdaheta.tistory.com/62
생존 시간의 예측 정확도를 알고싶을때는, MSE를 사용하고 사망여부를 고려한 생존시간 예측정확도를 알고 싶다면 C-index를 사용한다.
C-index란?
1) 샘플들의 생존 시간을 오름차순으로 나열하고, 사건이 관찰된 각 샘플들보다 오래 생존한 샘플들의 개수를 모두 더한 총합
2) 샘플들을 예측된 생존시간의 오름차순으로 나열하고, 사건이 관찰된 각 샘플들보다 오래 생존할 것으로 올바르게 예측된 샘플들의 개수를 모두 더한 총합
1과 2의 비율로 나타난다.
c-index는 0.0~1.0 사이의 값을 갖는다. 1.0에 가까울수록 정확히 예측한다고 해석하고, 0.5에 가까울수록 무작위로 예측한다고 평가한다. 해석이 AUROC(Area Under Receiver Operating Characteristic curve)와 비슷하여, c-index를 AUROC의 회귀분석용으로 확장한 것이라는 이야기도 있다.
예를 들어, 극단적으로 대조군의 n수가 실험군보다 30배 많다고 가정한다면, 대조군에서 실험군 수만큼 random sampling해서 군을 형성하는게 옳은 방법일까요?
이럴때, 두 군간의 변수들간의 차이를 좁히고 n수를 맞추기 위해 사용하는 propensity score matching을 소개하려고 합니다.
성별, 연령, 동반질환 유무 등등 1:1 혹은 최대 1:5까지 PSM을 수행한 뒤 univariate cox PH regression (보정변수 없이 분석하는 => 이미 PSM으로 주요 변수 이외에 나머지 변수들의 특성을 맞추어 놓았기 때문에 univariate을 사용합니다.) 으로 분석해주는 방법을 시도하려고 합니다.
실험군이 1일때, 비교군을 1~5배수까지 놓고 cox PH regression의 결과의 robustness를 확인하여야합니다. 일종에 sensitivity analysis라고 말할 수 있습니다.
Cox proportional hazard regression은 여러 변인들에 의해 생준율의 영향을 설명할 수 있고 여러 변수를 추가하여 설명할 수 있는 모형이다. 여러 Survival 분석 중 하나의 비모수적 방법이다. 주로 의학에서 자주 사용되고 임상실험에 대한 분석을 할 때 믿음직스럽게 사용된다. 생존분석은 사건이 발생까지의 시간과 사건의수로 사건발생률을 계산한다.
Hazard function
일단, Hazard function(위험함수)에 대해서 짚고 넘어간다.
hazard는 위험률을 말하는데 어느 시점에 대상이 탈락가능성이 높은지 평가하는 비율이다.
위 함수에서 확률부분은 t시점까지 살아남은 대상이 다음 델타t시간안에 죽을 조건부확률이다. 이를
델타t로 나누면 단위시간당 죽을 확률이된다. 이에 극한개념을 대입하면, 특정 t에서
순간 위험률함수를 나타낼 수 있다. 이것이 hazard function, h(t)이다.
생존함수는 대상이 얼마나 오래 살아있는가를 나타내는 반면,
위험률함수는 특정 시점에 죽을 가능성을 나타낸다.
따라서, 어떤 event가 발생할 위험률 함수로 쓰이며, 생존분석에서 통계모형을 나타내는 다양한 용도로 쓰인다.
그것들 중 Cox PH model에 대해서 알아본다.
Cox PH model
여기서 각 변수앞에 붙은 계수들은 당연히 변수와 관계가 있다.
이때 위험률 비를 구하면, 두군에 대해서 각각 위험률 함수를구하고 이를 나누면 hazard ratio라고 한다.
Hazard ratio
예를들어 담배가 X변수이고 암이 event라고 했을 때,
담배를 피지 않는 집단 X =0 과 담배를 피는 집단 X=1 의 hazard ratio를 각각 구해 둘을 나눈 비를
hazard ratio라고 한다.
예를 들어 이 값이 2.8이라고 하면,
직관적인 해석으로는 '담배를 피는 사람은 피지 않는 사람에 비해 2.8배 위험성이 높다는 것'이다.
각각 X1에 의한 hazard function은 아래와 같고
이로부터 hazard ratio를 구하면 다음과 같이 된다.
이때, h0(t)는 나누면서 사라지기 때문에 베타를 해석하는데 아무런 영향을 주지 않는다.
또한 시간은 h0(t)에만 영향을 미치기 때문에, 시간이 흘러도 hazard ratio는 변하지 않는다.