Analise Bayesiana

Jacques Wainer

15/4/20

Análise Bayesiana

Teorema de Bayes

P(AB)P(A|B) é a probabilidade de AA dado que BB aconteceu. Ou a probabilidade condicional de A dado B

Como obter P(AB)P(A|B) de P(BA)P(B|A)!

P(AB)=P(BA)P(A)P(B) P(A|B) = \frac{P(B|A) P(A)}{P(B)}

“Antes” voce tinha apenas o A, com probabilidade de P(A) - o prior.

Ai aconteceu B (nova evidência) e voce passa a ter P(A|B) - o posterior.

Outras versões do teorema de Bayes

Outras versões:

P(A,B)=P(AB)P(B)=P(BA)P(A)P(A,B) = P(A|B) P(B) = P(B|A) P(A)

Essa é mais fácil de lembrar - P(A,B)P(A,B) a joint probability de A e B (a probabilidade de A e B acontecerem)

Variáveis aleatórias

Considere A e B como variáveis aleatórias que pode assumir alguns valores distintos.

P(A=aB=b)=P(B=bA=a)P(A=a)P(B=b)P(A=a|B=b) = \frac{P(B=b|A=a) P(A=a)}{P(B=b)}

Ou A e B podem assumir qualquer valores real, e então P(A) é uma distribuição de probabilidade. O teorema de Bayes funciona para distribuições de probabilidades

p(ab)=p(ba)p(a)p(b) p(a|b) = \frac{p(b|a) p(a)}{p(b)}

Outra versão com uma condição fixa

P(AB,C)=P(BA,C)P(AC)P(BC) P(A|B,C) = \frac{P(B|A,C) P(A|C)}{P(B|C)}

neste caso há uma pressuposição ou condição CC que se mantem

Uma regra importante

P(A)=xP(A,B=x)=xP(AB=x)P(B=x)P(A) = \sum_x P(A,B=x) =\sum_x P(A|B=x) P(B=x)

Assim, varias vezes a evidencia P(B)P(B) é expressa como

P(B)=xP(BA=x)P(A=x)P(B) = \sum_x P(B|A=x) P(A=x)

P(A=aB=b)=P(B=bA=a)P(A=a)xP(B=bA=x)P(A=a|B=b) = \frac{P(B=b|A=a) P(A=a)}{\sum_x P(B=b|A=x)}

Finalmente se P(AB)P(A|B) é uma distribuição (algum do AA ou BB é uma variável), então o termo de evidencia P(B)P(B) pode ser pensado apenas como uma constante para garantir que a distribuição de probabilidade P(AB)P(A|B) some (ou de integral) = 1.

P(A=aB=x)=KP(B=xA=a)P(A=a)P(A=a|B=x) = K P(B=x|A=a) P(A=a)

desde que xP(A=aB=x)\sum_x P(A=a|B=x) ou P(A=aB=x)dx\int P(A=a|B=x) dx seja = 1

Ideia central da análise bayesiana

P(hd)=P(dh)P(h)P(d) P(h|d) = \frac{P(d|h) P(h)}{P(d)}

Próximo passo da analise bayesiana

Na verdade em analise bayesiana nós definimos um modelo (M) para a geração dos dados que tem parâmetros θ\theta, e não apenas uma hipótese. O que queremos é obter os parâmetros no modelo dado os dados DD Exemplo: imagem

P(θD,M)=P(Dθ,M)P(θM)P(DM)P(\theta|D,M) =\frac{ P(D|\theta,M) P(\theta|M)}{P(D|M)}

Diferentes modelos (M) propostos

MCMC

Outras Inferências possíveis da joint distribution

BF=P(h1D)P(h2D)=P(Dh1)P(Dh2)P(h1)P(h2)BF = \frac{P(h1|D)}{P(h2|D)} = \frac{P(D|h1)}{P(D|h2)}\frac{P(h1)}{P(h2)}

Mais sobre Analise bayesiana