Teorema de bayes – wikipédia, a enciclopédia livre gas bloating nausea

##########

Em teoria das probabilidades e estatística, o teorema de Bayes (alternativamente, a lei gas x coupon 2014 de Bayes ou a regra de Bayes) descreve a probabilidade de um evento, baseado em um conhecimento a priori que pode estar relacionado ao evento. O teorema mostra como alterar as probabilidades a priori tendo em vista novas evidências para obter probabilidades a posteriori. [1 ] Por exemplo, o teorema de Bayes pode ser aplicado ao jogo das três portas (também conhecido como problema de Monty Hall). [2 ]

Uma das muitas aplicações do teorema de Bayes é a inferência bayesiana, uma abordagem particular da inferência estatística. Quando aplicado, as probabilidade envolvidas no teorema de Bayes podem ter diferentes interpretações de probabilidade. Com a interpretação bayesiana de probabilidade, o teorema expressa como a probabilidade de um evento (ou o grau de crença na ocorrência de um evento) deve ser alterada após considerar evidências sobre a ocorrência deste evento. A inferência bayesiana é fundamental para a estatística bayesiana. [3 ]

O teorema de Bayes recebe este nome devido ao pastor e matemático inglês Thomas Bayes (1701 – 1761), que foi o primeiro a fornecer uma equação que permitiria que novas evidências atualizassem a probabilidade de um evento a partir do conhecimento a priori (ou a crença inicial na ocorrência de um evento). O teorema de Bayes foi mais tarde desenvolvido por Pierre-Simon Laplace, que foi o primeiro a publicar uma formulação moderna em 1812 em seu livro Teoria Analítica de Probabilidade, na tradução do francês. Harold Jeffreys colocou o algoritmo de Bayes youtube gas station karaoke e a formulação de Laplace em uma base axiomática. Jeffreys escreveu que o teorema de Bayes é para a teoria da probabilidade o que o teorema de Pitágoras é para a geometria. [4 ]

O teorema de Bayes recebe este nome devido ao pastor e matemático inglês Thomas Bayes (1701 – 1761), que estudou como calcular a distribuição para o parâmetro de probabilidade de uma distribuição binomial (terminologia moderna). O manuscrito não publicado de Bayes foi editado significativamente por Richard Price antes de ser lido postumamente na Royal Society. Price editou o principal trabalho de Bayes An Essay towards Solving a Problem in the Doctrine of Chances (1763), [5 ] que aparece em Philosophical Transactions [6 ] e contém o teorema gas smoker recipes de Bayes. Price escreveu uma introdução para o artigo, que fornece algumas das bases filosóficas da estatística bayesiana. Em 1765, Price foi eleito membro da Royal Society em reconhecimento ao seu trabalho sobre o legado de Bayes. [7 ]

O matemático francês Pierre-Simon Laplace reproduziu e estendeu os resultados de Bayes em 1774, aparentemente sem ter conhecimento do trabalho de Bayes. [8 ] [9 ] [10 ] A interpretação bayesiana da probabilidade foi desenvolvida principalmente por Laplace. [11 ] Stephen Stigler sugeriu em 1983 que o teorema de Bayes foi descoberto pelo matemático inglês cego Nicholas Saunderson pouco antes de Bayes. [12 ] [13 ] Entretanto, esta interpretação tem sido contestada. [14 ] Martyn Hooper [15 ] e Sharon McGrayne [16 ] argumentaram que a contribuição de Richard Price foi substancial:

Seja um teste de drogas 99% sensível e 99% específico. Isto é, o teste produzirá 99% de resultados verdadeiros positivos when was gas 99 cents in california para usuários de drogas e 99% de resultados verdadeiros negativos para não-usuários de drogas. Suponha que 0,5% das pessoas são usuárias de drogas. Se um indivíduo selecionado aleatoriamente testar positivo, qual a probabilidade de ele ser usuário de drogas? Isto é, qual a probabilidade de não se cometer um falso positivo? [20 ]

P ( usuário ∣ + ) = P ( + ∣ usuário ) P ( usuário ) P ( + ) = P ( + ∣ usuário ) P ( usuário ) P ( + ∣ usuário ) P ( usuário ) + P ( + ∣ não usuário ) P ( não usuário ) = 0 , 99 × 0 , 005 0 , 99 × 0 , 005 + 0 , 01 × 0 , 995 ≈ 33 , 2 % {\displaystyle {\begin{aligned}P({\text{usuário}}\mid {\text{+}})={\frac {P({\text{+}}\mid {\text{usuário}})P({\text{usuário electricity lesson plans year 6}})}{P(+)}}\\={\frac {P({\text{+}}\mid {\text{usuário}})P({\text{usuário}})}{P({\text{+}}\mid {\text{usuário}})P({\text{usuário}})+P({\text{+}}\mid {\text{não usuário}})P({\text{não usuário}})}}\\[8pt]={\frac {0,99\times 0,005}{0,99\times 0,005+0,01\times 0,995}}\\[8pt]\approx 33,2\%\end{aligned}}}

Mesmo com a aparente precisão do teste, se um indivíduo testar positivo, é mais provável que ele não seja do que ele seja usuário de drogas. Isto electricity invented timeline porque o número de não-usuários é muito maior que o número de usuários de drogas. Então, o número de falsos positivos supera o número de positivos verdadeiros. Para usar números concretos, se 1000 indivíduos forem testados, espera–se que 995 não sejam usuários e 5 sejam usuários de drogas. Para os 995 não-usuários de drogas, são esperados 0 , 01 × 995 ≈ 10 {\displaystyle 0,01\times 995\approx 10} falsos positivos. Para os 5 usuários de drogas, são esperados 0 , 99 × 5 ≈ 5 {\displaystyle 0,99\times 5\approx 5} positivos verdadeiros. Isto é, dos 15 resultados positivos, apenas 5 (ou 33%) são genuínos. Isto ilustra a importância da probabilidade condicional e como políticas podem ser equivocadas se as probabilidades condicionais forem negligenciadas. [21 ] [20 ]

A importância da especificidade pode ser observada calculando–se que, mesmo se a sensibilidade for aumentada para 100% e a especificidade permanecer em 99%, a probabilidade do indivíduo ser um usuário de drogas subirá apenas de 33,2% para 33,4%. Entretanto, se a sensibilidade for mantida em 99% e a especificidade for aumentada para 99,5%, então a probabilidade do indivíduo ser um usuário de droga sobe para cerca de 49,9%. [20 ] Interpretações [ editar | editar código-fonte ]

Visualização geométrica do teorema gas 4 less manhattan ks de Bayes. Na tabela, os valores 2, 3, 6 e 9 fornecem os pesos relativos de cada caso e condição correspondente. As imagens mostram as células da tabela envolvidas em cada métrica, sendo a probabilidade a fração de cada figura que está sombreada. Isto mostra que: P ( A ∣ B ) × P ( B ) = P ( B ∣ A ) × P ( A ) {\displaystyle P(A\mid electricity formulas grade 9 B)\times P(B)=P(B\mid A)\times P(A)} . Isto é: P ( A ∣ B ) = P ( B ∣ A ) × P ( A ) P ( B ) {\displaystyle P(A\mid B)={\frac {P(B\mid A)\times P(A)}{P(B)}}} . Um raciocínio semelhante mostra que: P ( A ¯ ∣ B ) = P ( B ∣ A ¯ ) × P ( A ¯ ) P ( B ) {\displaystyle P({\bar {A}}\mid B)={\frac {P(B\mid {\bar {A}})\times P({\bar {A}})}{P(B)}}} .

Na interpretação bayesiana (ou epistemológica), a probabilidade mede o grau de crença. O teorema de Bayes liga o grau de crença em uma posição antes e depois de se considerar as evidências. Por exemplo, acredita–se com 50% de certeza que uma moeda tem o dobro de probabilidade de cair cara. Se a moeda for jogada várias vezes, o grau de crença pode aumentar, diminuir ou se manter igual dependendo dos resultados observados (ver inferência bayesiana). [22 ]

Por exemplo, um entomologista vê o que poderia ser uma rara subespécie de besouro devido a um padrão em suas costas. Nas subespécies raras, 98% dos indivíduos tem o padrão. Isto gas near me open now é, P ( padrão ∣ raro ) = 98 % {\displaystyle P({\text{padrão}}\mid {\text{raro}})=98\%} . Nas subespécies comuns, 5% dos indivíduos tem o padrão. Estas subespécies raras correspondem a apenas 0,1% da população. Então, qual a probabilidade do besouro com padrão ser raro? Em outras palavras, qual o valor de P ( raro ∣ padrão ) {\displaystyle P({\text{raro}}\mid {\text{padrão}})} ? [24 ]

P ( raro ∣ padrão ) = P ( padrão ∣ raro ) P ( raro ) P ( padrão ∣ raro ) P ( raro ) + P ( padrão ∣ comum ) P ( comum ) = 0 , 98 × 0 , 001 0 , 98 × 0 , 001 + 0 , 05 × 0 , 999 ≈ 1 , 9 % {\displaystyle {\begin{aligned}P({\text{raro}}\mid {\text{padrão}})={\frac {P({\text{padrão}}\mid {\text{raro}})P({\text{raro}})}{P({\text{padrão}}\mid {\text{raro}})P({\text{raro}})+P({\text{padrão}}\mid {\text{comum}})P({\text{comum}})}}\\[8pt]={\frac {0,98\times 0,001}{0,98\times 0,001+0,05\times 0,999}}\\[8pt]\approx 1,9\%\end v lab electricity{aligned}}}

Na inferência bayesiana, deseja-se saber o grau de crença em um evento (ou conjunto de eventos) A {\displaystyle A} , condicionalmente à ocorrência de um evento (ou conjunto de eventos) B {\displaystyle B} fixado (quantidade que é conhecida como distribuição a posteriori). O teorema de Bayes mostra que a distribuição a posteriori é proporcional à probabilidade de B {\displaystyle B} dado A {\displaystyle A} (que corresponde à função de verossimilhança da amostra) vezes a probabilidade de A (chamada de probabilidade a priori ou grau de crença antes da coleta de evidências):