Analise Bayesiana

Jacques Wainer

15/4/20

Análise Bayesiana

Teorema de Bayes

\(P(A|B)\) é a probabilidade de \(A\) dado que \(B\) aconteceu. Ou a probabilidade condicional de A dado B

Como obter \(P(A|B)\) de \(P(B|A)\)!

\[ P(A|B) = \frac{P(B|A) P(A)}{P(B)}\]

“Antes” voce tinha apenas o A, com probabilidade de P(A) - o prior.

Ai aconteceu B (nova evidência) e voce passa a ter P(A|B) - o posterior.

Outras versões do teorema de Bayes

Outras versões:

\[P(A,B) = P(A|B) P(B) = P(B|A) P(A)\]

Essa é mais fácil de lembrar - \(P(A,B)\) a joint probability de A e B (a probabilidade de A e B acontecerem)

Variáveis aleatórias

Considere A e B como variáveis aleatórias que pode assumir alguns valores distintos.

\[P(A=a|B=b) = \frac{P(B=b|A=a) P(A=a)}{P(B=b)}\]

Ou A e B podem assumir qualquer valores real, e então P(A) é uma distribuição de probabilidade. O teorema de Bayes funciona para distribuições de probabilidades

\[ p(a|b) = \frac{p(b|a) p(a)}{p(b)}\]

Outra versão com uma condição fixa

\[ P(A|B,C) = \frac{P(B|A,C) P(A|C)}{P(B|C)}\]

neste caso há uma pressuposição ou condição \(C\) que se mantem

Uma regra importante

\[P(A) = \sum_x P(A,B=x) =\sum_x P(A|B=x) P(B=x)\]

Assim, varias vezes a evidencia \(P(B)\) é expressa como

\[P(B) = \sum_x P(B|A=x) P(A=x)\]

\[P(A=a|B=b) = \frac{P(B=b|A=a) P(A=a)}{\sum_x P(B=b|A=x)}\]

Finalmente se \(P(A|B)\) é uma distribuição (algum do \(A\) ou \(B\) é uma variável), então o termo de evidencia \(P(B)\) pode ser pensado apenas como uma constante para garantir que a distribuição de probabilidade \(P(A|B)\) some (ou de integral) = 1.

\[P(A=a|B=x) = K P(B=x|A=a) P(A=a)\]

desde que \(\sum_x P(A=a|B=x)\) ou \(\int P(A=a|B=x) dx\) seja = 1

Ideia central da análise bayesiana

\[ P(h|d) = \frac{P(d|h) P(h)}{P(d)}\]

Próximo passo da analise bayesiana

Na verdade em analise bayesiana nós definimos um modelo (M) para a geração dos dados que tem parâmetros \(\theta\), e não apenas uma hipótese. O que queremos é obter os parâmetros no modelo dado os dados \(D\) Exemplo: imagem

\[P(\theta|D,M) =\frac{ P(D|\theta,M) P(\theta|M)}{P(D|M)}\]

Diferentes modelos (M) propostos

MCMC

Outras Inferências possíveis da joint distribution

\[BF = \frac{P(h1|D)}{P(h2|D)} = \frac{P(D|h1)}{P(D|h2)}\frac{P(h1)}{P(h2)}\]

Mais sobre Analise bayesiana