5  Probabilidades

5.1 Introdução

Após finalizarmos as principais ideias sobre a Estatística Descritiva, Capítulos a , iniciamos o assunto de probabilidade, como passos iniciais para a tomada de decisão por meio dos dados. Para isto, usaremos a Estatística Inferencial (Teoria da Estimação e Teoria da decisão), assuntos vistos nos Capítulos e . Contudo, é imprescindível uma fundamentação teórica sobre a probabilidade, base para a tomada de decisão.

A probabilidade vem aparecer como ramo da matemática no século XV, embora tenha surgido antes desse período. Entretanto, somente no século XVI, é que a teoria da probabilidade passa a ser estudada com profundidade, quando Jerónimo Cardano (1501-1576) passa a estudar problemas com os jogos de azar: cartas, dados, etc. Os jogadores de cassinos, tentavam encontrar meios de obter chances maiores de, por exemplo, ganhar um jogo, acertar um número ou uma carta. Daí surge a probabilidade para resolver esses problemas por meio dos matemáticos.

Já a estatística inicialmente, tentava identificar determinados problemas do Estado, como o número de nascidos e de mortos, determinação do número de pessoas do sexo masculino e feminino, etc. Entretanto, apenas no início do século XX é que a probabilidade e a estatística passam a ser interligadas, isto é, a estatística agora necessita de técnicas probabilísticas para o estudo de dados.

Hoje, a Estatística tem como um dos objetivos entender características atribuíveis a população de estudo. Com um subconjunto (amostra) da população, a estatística tenta se aproximar dessas características (parâmetros) por meio da inferência, através dos estimadores (características atribuíveis a amostra). Entretanto, se basear numa amostra para entender a população, gera uma incerteza. E essa incerteza é medida por meio da teoria da probabilidade, pela qual toda a estatística é desenvolvida.

Inicialmente, faremos uma revisão sobre Teoria de conjuntos, já usando termos específicos dentro da probabilidade, como por exemplo, a definição de um Experimento aleatório, dentre outras. Isso porque se faz necessário o entendimento sobre o agrupamento de elementos, e a chance com que esses elementos podem ocorrer em um experimento.

5.2 Introdução à teoria de conjuntos no contexto probabilístico

Quando desejamos compreender algum fenômeno da natureza, tentamos estudá-lo por meio de um processo de observação chamado experimento. Para isso, definimos um experimento aleatório, Definição 5.1, a seguir.

Definição 5.1: Experimento Aleatório
Todo experimento cujo resultado não pode ser previsto antes de sua execução, é chamado de experimento aleatório.

Vejamos os Exemplos 5.1, 5.2 e 5.3 para exemplificar um experimento aleatório.

Exemplo 5.1
Lançar um dado equilibrado e observar o resultado obtido na face superior do dado.

Exemplo 5.2
Observar o número de chamadas telefônicas que chegam a uma central telefônica em um determinado intervalo de tempo.

Exemplo 5.3
Para a escolha ao acaso de uma lâmpada que acabou de sair do processo de fabricação, verificar o tempo de duração da lâmpada em funcionamento.

Em um contexto aplicado, podemos nos interessar em estudar a resistência de um fio de cobre a uma determinada corrente. Para isso, replicamos diversas vezes esse fenômeno e medimos a resistência. Este é um exemplo do que chamamos de experimento. Para que esse experimento não tenha resultados inconsistentes, usamos muitas vezes um laboratório para tentar controlar outras variáveis que possam perturbar o experimento, isto é, medimos a resistência do fio, de modo que a maior influência dessa variável para o experimento, seja devida a corrente aplicada ao final. Por mais que limitemos as condições externas do experimento, surgem sempre variáveis não controláveis ao sistema que foge do controle do pesquisador nesses casos, que são as variáveis não controláveis, . Por mais que repliquemos o experimento, em mesmas condições, veremos que a medida da resistência do fio não será igual, devido a essas variáveis não controláveis, e que isso reflete em um componente aleatório, e por consequência, dizemos que estes tipos de experimentos são chamados de experimentos aleatórios.

Figura 5.1: Componente aleatória de um experimento aleatório.

Baseado, nos exemplos anteriores, percebemos pelo Exemplo 5.1, que não sabemos de fato qual o número da face superior que ocorrerá após o lançamento do dado. Mas sabemos, quais os resultados possíveis, que são: 1, 2, 3, 4, 5 e 6. O conjunto de todos esses resultados, chamaremos de Espaço amostral, apresentado na Definição 5.2, a seguir.

Definição 5.2: Espaço amostral
O conjunto de todos os resultados possíveis de um experimento, denotado por Ω, é chamado de espaço amostral.

Cada um dos elementos do espaço amostral é representado por ω. Na Definição 5.5, apresentaremos o significado de evento. Contudo, podemos antecipar como um subconjunto de Ω. Assim, diremos que um determinado evento ocorrerá se o resultado do experimento estiver nesse evento. Existem duas relações entre eventos que usaremos constantemente ao longo do conteúdo, que são:

  • Continência: ABωAωB;
  • Equivalência: A=BAB e BA.

E que fique claro, a relação de elemento para conjunto é de pertinência, isto é, ωA. Significa que ω é um elemento pertencente (ou membro) de A. A relação entre conjuntos é uma relação de continência, isto é, AB, significando que todo elemento de A é também elemento de B.

De forma mais abrangente, poderíamos apresentar a relação da equivalência da seguinte forma:

  • Continência: AB.

Esta representa difere da situação anterior da seguinte forma:

  • dizemos que AB, implica que A é um subconjunto estrito de B, e que B contém pelo menos um elemento ω que não pertence a A, logo A não pode ser igual B;
  • dizemos que AB, implica que A é um subconjunto de B, podendo A ser igual ou não B, isto é, todos os elementos de A podem pertencer a B ou B pode ter elementos adicionais que não pertencem a A, e daí A pode não ser igual a B.

Retornando a Definição 5.2, podemos apresentar um outro espaço amostral, para o experimento dado no Exemplo 5.4, a seguir.

Exemplo 5.4
Um experimento lança três moedas honestas, e desejamos verificar a face superior dessas moedas. Sabemos que cada moeda apresenta duas faces: cara (H) e coroa (T). Dessa forma, o espaço amostral é dado por: Ω={(H,H,H),(H,H,T),(H,T,H),(H,T,T),(T,H,H),(T,H,T),(T,T,H),(T,T,T)}.

Contudo, como apresentamos a natureza das variáveis no , definimos também a natureza dos espaços amostrais de acordo os seus resultados, do qual podemos apresentá-la na Definição 5.3.

Definição 5.3: Espaços amostrais discretos e contínuos
Um espaço amostral é discreto se o conjunto dos possíveis resultados são finito ou infinito contável (ou enumerável). Um espaço amostral é dito contínuo se o conjunto dos possíveis resultados são infinitos não contável (ou não enumerável) .

Vejamos o Exemplo 5.5, retirado de Montgomery e Runger (), para distinguir espaços amostrais discretos e contínuos, apresentado a seguir.

Exemplo 5.5: Câmera Flash
Considere um experimento em que é selecionado uma câmera de telefone celular e se registra o tempo de recarga de um flash. Os resultados possíveis para o tempo dependem da resolução do temporizador e dos tempos máximo e mínimo de recarga. Entretanto, podemos definir inicialmente o espaço amostral em termos da reta real positiva (R+), isto é, Ω=R+={x : x>0}. Se soubermos que os tempos de recarga estão entre 1,5 e 5 segundos, podemos definir o espaço amostral da seguinte forma: Ω={x : 1,5x5}. Caso, consideremos o tempo de recarga como baixo, médio ou alto, reescrevemos o espaço amostral como: Ω={baixo, médio, alto}. Por fim, podemos considerar apenas o fato da câmera satisfazer ou não as especificações do tempo de recarga mínimo, e assim, podemos assumir como resultados para esse espaço amostral: sim ou não, isto é, Ω={sim, não}. Para as duas primeiras situações, temos exemplos de espaços amostrais contínuos, e nos dois últimos, exemplos de espaços amostrais discretos.

Entretanto, também podemos ter um conjunto qualquer A, que contém parte do elementos de Ω, isto é, AΩ, e que A passa a ser chamado de subconjunto de Ω, apresentado na Definição 5.4.

Definição 5.4: Subconjunto
Se todo elemento do conjunto A é também elemento do conjunto B, então A é definido como um subconjunto de B, sendo representado AB ou BA (A está contido em B ou B contém A), em notação dizemos que: ABAB e AB.

Essa definição pode ser aplicada também a subconjuntos de Ω, como apresentado no Exemplo 5.6, a seguir.

Exemplo 5.6
Sejam os subconjuntos de Ω do experimento aleatório apresentado no Exemplo 5.1, dos quais temos: B={1,2,3,4} e A={1,2,3}, então A é um subconjunto de B, pois, os elementos que contém em A, também contém em B.

Definição 5.5: Evento
Todo subconjunto do espaço amostral (Ω), representado por letras latinas em maiúsculo, A, B, , é chamado de evento.

Vejamos o Exemplo 5.7, para um entendimento inicial sobre um evento, apresentado a seguir.

Exemplo 5.7
Um evento retirado do espaço amostral do Exemplo 5.4 seria A={(H,H,H), (H,H,T), (H,T,T)}, ou seja, o evento em que dos três arremessos de moedas, tenha saído “cara” na primeira moeda.

Um outro exemplo abordado em James (), pode exemplificar um evento dentro do círculo unitário, apresentado no Exemplo 5.8, a seguir.

Exemplo 5.8

Escolher ao acaso um ponto no círculo de raio 1 centrado na origem. Então Ω=círculo unitário ={(x,y)R2: x2+y21}. Vejamos alguns eventos para esse exemplo: A=“distância entre o ponto escolhido e a origem é” 1/2B=“distância entre o ponto escolhido e a origem é” 15C=“1ª Coordenada do ponto escolhido é maior que a 2ª. Se ω=(x,y) for um resultado do experimento, então ω pertencerá a A se, e somente se, x2+y21/4. Pertencerá ao evento C se, e somente se, x>y. Nenhum ponto ω pertencerá a B, como pode ser observado pela . Logo, temos: A={(x,y)Ω: x2+y21/2},B==conjunto vazio,A={(x,y)Ω: x>y}. Então, todo evento associado a este experimento pode ser identificado por um subconjunto do espaço amostral.

(a) Evento A
(b) Evento B
Figura 5.2: Escolha do ponto em um círculo unitário.

Diante, do que falamos sobre a definição de evento, podemos apresentar três eventos básicos: o evento certo, impossível e o elementar, apresentados na Definição 5.6, a seguir.

Definição 5.6: Evento certo, impossível e elementar
Seja Ω o espaço amostral do experimento. Então dizemos que Ω é o evento certo, e é o evento impossível, e o evento {ω} é dito elementar.

Uma outra forma de definir o evento impossível é representá-lo como um conjunto vazio, apresentado na Definição 5.7, a seguir.

Definição 5.7: Conjunto Vazio
Se o conjunto A não contém nenhum elemento, então A é chamado de conjunto nulo ou conjunto vazio, ou seja, A= ou A={ }, isto é, (5.1)A={ωΩ:ωω}.

Podemos perceber que todo conjunto vazio é um subconjunto de qualquer evento não vazio do espaço amostral, como pode ser apresentado no Teorema 5.1.

Teorema 5.1
Considere o conjunto vazio, , e um evento não vazio, A, definido no espaço amostral, Ω. Então A.

Prova
Vamos realizar a prova por contradição. Supomos que A. Isso significa que ω:ω e ωA, porém ω é um absurdo, logo A, o que conclui a prova.

E ainda podemos concluir que se existe um conjunto vazio, ele é único, como pode ser apresentado no Corolário 5.1.

Corolário 5.1
Existe somente um conjunto vazio.

Prova
Suponha que exista dois conjuntos vazios, 1 e 2. Pelo Teorema 5.1, sabemos que 12, uma vez que 1 é um conjunto vazio. Mas, também sabemos que 21, uma vez que 2 é um conjunto vazio. Logo, pela equivalência de conjuntos (eventos), Definição 5.12, 1=2, o que conclui a prova.

Em algumas situações, podemos apresentar alguns eventos a partir da combinação de outros eventos. Dessa forma, se faz necessário apresentar algumas operações elementares de conjuntos e suas consequências, tais como a união, interseção, complemento, dentre outras definições abordadas a seguir. Inicialmente, apresentamos na Definição 5.8, a união de dois eventos.

Definição 5.8: União de dois eventos
Sejam A e B, dois eventos quaisquer de Ω, então o conjunto de todos os elementos que estão em A ou B ou em ambos, é definido como o conjunto união de A e B, denotado por AB, tal que, (5.2)AB={ωΩ: ωA ou ωB}.

Vejamos o Exemplo 5.9, sobre a união de dois eventos, a seguir.

Exemplo 5.9
Sejam os conjuntos: A={1,2,3} e B={3,4,5,6}, então AB={1,2,3,4,5,6}.

A Definição 5.9 apresenta a próxima propriedade de conjuntos, que é a interseção de de eventos, apresentada a seguir.

Definição 5.9: Interseção de dois eventos
Sejam A e B, dois eventos quaisquer de Ω, então o conjunto que contém todos os elementos que estão em A e B, é definido como a interseção de A e B, denotado por AB ou AB, tal que, (5.3)AB={ωΩ: ωA e ωB}.

Do Exemplo 5.9, temos que a intersecção de AB={3}.

Definição 5.10: Eventos Disjuntos ou mutuamente exclusivos
Sejam A e B, dois eventos quaisquer de Ω, então estes são disjuntos ou mutuamente exclusivos quando não existir elementos em comum entre A e B, isto é, AB=.

Vejamos o Exemplo 5.10, para entendermos sobre eventos disjuntos, apresentado a seguir.

Exemplo 5.10
Sejam os eventos A={1,2,3,4} e B={5,6}, então AB=

Em seguida, apresentamos mais duas definições interessantes, que são os eventos coletivamente exaustivos (Definição 5.11) e eventos equivalentes (Definição 5.12), apresentados na sequência.

Definição 5.11: Eventos coletivamente exaustivos
Considere um conjunto de eventos em Ω, se ao menos um evento ocorrer durante um dado experimento, dizemos que esses eventos são coletivamente exaustivos.

Na sequência, segue a definição sobre eventos equivalentes.

Definição 5.12: Eventos equivalentes
Dois eventos A e B são definidos equivalentes, ou iguais, se AB e BA.

Exemplo 5.11
Sejam os conjuntos: B={1,2,3} e A={1,2,3}, então A é igual a B, pois AB e BA.

Uma relação de eventos que será muito importante para o estudo da teoria da probabilidade, é a definição de complemento, abordado a seguir.

Definição 5.13: Evento Complementar
Seja A um evento de Ω. Então o complemento do evento A com respeito a Ω, denotado por A, Ac, ou ΩA, é o subconjunto dos elementos de Ω exceto os elementos do evento A, isto é, (5.4)Ac={ωΩ: ωA}.

Exemplo 5.12
Seja o espaço amostral Ω do experimento que consiste em arremessar três moedas honestas. Diremos que H consiste na face superior da moeda ser cara, e T coroa. Assim Ω={(H,H,H),(H,H,T),(H,T,H),(H,T,T),(T,H,H),(T,H,T),(T,T,H),(T,T,T)}. e um subconjunto de Ω, cujo evento será aparecer cara na primeira moeda, dado por A={(H,H,H),(H,H,T),(H,T,H),(H,T,T)}. Então o complemento de A será: A={(T,H,H),(T,H,T),(T,T,H),(T,T,T)}.

Definição 5.14: Diferença de dois eventos
Sejam A e B dois eventos de Ω. O conjunto de todos os elementos de A que não estão em B, serão denotados por AB ou AB, sendo definido por conjunto diferença, isto é, (5.5)AB={ωΩ: ωA e ωB}.

A Definição 5.14 pode ser confundida com a Definição 5.13, porém esta última se remete ao espaço amostral, e a diferença entre dois eventos se refere apenas a existência dos elementos de um evento que não estão em outro evento. Vejamos o Exemplo 5.13, e depois compare com o Exemplo 5.12, para elucidar essas duas definições.

Exemplo 5.13
Sejam os conjuntos A={1,2,3,4} e B={3,4}, então AB={1,2}.

Por fim, uma última definição é a partição de conjuntos, apresentado na Definição 5.15, a seguir.

Definição 5.15: Partição de A

Considerando uma sequência de eventos {Ai}i=1n, não vazios, é uma partição do evento A, se e somente se,

  1. A=i=1nAi;
  2. {Ai}i=1n são mutuamente disjuntos, tais que AiAj, ij.

Considerando que A=Ω, dizemos que temos uma . A seguir, apresentamos algumas leis importantes para a teoria de conjuntos, que estabelece algumas propriedades. Vejamos o Teorema 5.2.

Teorema 5.2

Considere três eventos A, B, e C definidos em Ω, então segue que:

  1. Lei comutativa: AB=BA e AB=BA;
  2. Lei associativa: A(BC)=(AB)C;
  3. Lei distributiva: A(BC)=(AB)(AC) e A(BC)=(AB)(AC);
  4. Lei DeMorgan: (AB)c=AcBc e (AB)c=AcBc.
Prova

Para provar que dois conjuntos são iguais, devemos demonstrar que todo elemento que está em um conjunto, também está no outro, e vice-versa.

  1. Supomos que ωAB, portanto, ωA ou ωB. Logo, ωBA. Da mesma forma, supomos que ωBA, portanto, ωB ou ωA. Logo, ωAB. De forma resumida, podemos expressar essa prova da seguinte forma: ωABωA ou ωBωBA; Para a outra parte da prova, supomos que ωAB, portanto, ωA e ωB. Logo, ωBA. Da mesma forma, supomos que ωBA, portanto, ωB e ωA. Logo, ωAB. De forma resumida, podemos expressar essa prova da seguinte forma: ωABωA e ωBωBA, o que finaliza a prova da Lei comutativa;
  2. Supomos que ωA(BC), portanto, ωA ou ωBC, e que isso implica em ωAB ou ωC. Logo, ω(AB)C. Da mesma forma, supomos que ω(AB)C, portanto, ωAB ou ωC, e que isso implica em ωA ou ωBC. Logo, ωA(BC). De forma resumida, podemos expressar essa prova da seguinte forma: ωA(BC) ωA  ou ωBC ωAB ou ωC ω(AB)C, o que finaliza a prova da Lei associativa;
  3. Supomos que ωA(BC), portanto, ωA ou ω(BC). Considerando que ωA, então ω(AB) e ω(AC), logo, ω(AB)(AC). Considerando que ω(BC), então ωB e ωC. Logo, ω(AB)(AC). Agora, assumimos que ω(AB)(AC), portanto, ω(AB) e ω(AC). Isso significa que, ou ωA ou ω(BC), logo, ωA(BC). Para a segunda parte, assumimos que ωA(BC). Isso implica que ωA e ω(BC). Como ωA, então ω(AB) e ω(AC). Logo, ω(AB)(AC). Agora, assumimos que ω(AB)(AC), portanto, ω(AB) ou ω(AC). Se ω(AB), então ω está em A e B. Como ωB, então ω(BC). Se ω(AC), então ω está em A e C. Como ωC, então ω(BC). Logo, ωA(BC), o que finaliza a prova da Lei distributiva.
  4. Supomos que ω(AB)c, então ω(AB), isto é, ωA ou ωB. Como ωA ou ωB, então ωAc e ωBc. Logo, ωAcBc. Agora, assumimos que ωAcBc. Isso implica que ωAc e ωBc, de modo que ou ωA ou ωB. Assim, ω(AB), e pela definição de evento complementar, concluímos que ω(AB)c. De forma resumida, podemos expressar essa prova da seguinte forma: ω(AB)c ωA ou ωBωAc e ωBcωAcBc. Na segunda parte, assumimos que ω(AB)c, então ω(AB). Assim, ωA e nem ωB. Como consequência, ωAc ou ωBc, logo ωAcBc. Da mesma forma, assumimos que ωAcBc, isto é, ωAc ou ωBc. Isso implica que ω(AB). Usando a definição de evento complementar, logo ω(AB)c, o que conclui a prova para a Lei DeMorgan. De forma resumida, podemos expressar essa prova da seguinte forma: ω(AB)cω(AB) ωA e ωBωAc ou ωBc ωAcBc.

Para finalizar, apresentamos pelo Teorema 5.3, algumas identidades que serão importantes na teoria de conjuntos para o estudo sobre a probabildade.

Teorema 5.3

Sejam os eventos A e B definidos no espaço amostral Ω, não vazio. Então, apresentamos as seguintes identidades:

  1. AAc=;
  2. AAc=Ω;
  3. Ωc=;
  4. c=Ω;
  5. (AC)C=(A)=A, em outras palavras, o complemento de A é igual a A;
  6. AΩ=A (Elemento neutro);
  7. AΩ=Ω;
  8. AA=A (Idempotência);
  9. A= (Elemento absorvente);
  10. A=A;
  11. AB=A(AB)=ABc;
  12. B=(BA)(BAc);
  13. BA=BAc;
  14. AB=A(BAc);
  15. AB=(AcB)(AB)(ABc).
Prova

Para provar que dois conjuntos são iguais, devemos demonstrar que todo elemento que está em um conjunto, também está no outro, e vice-versa.

  1. Vamos apresentar a prova por contradição. Suponha que ωAAc, então ωAAc:ωA e ωAc. Mas por definição Ac={ωΩ:ωA}, então a afirmação ωAAc:ωA e ωAc, é absurdo. Logo, AAc=. Vejamos a representação em diagrama de Venn, a seguir.
  1. ωAAcωA ou ωAcωA ou ωA ωΩ. Vejamos a representação em diagrama de Venn, a seguir.
  1. Vamos apresentar a prova por contradição. Supomos que Ωc. Isso significa que ω:ωΩc e ωΩ, e isso é absurdo, pois Ω representa o conjunto de todos os resultados possíveis em um experimento. Logo, Ωc=;

  2. Vamos provar por contradição. Supomos que cΩ. Isso implica que, ω:ωΩ e ωc. Então, isso implica que ω, que é absurdo. Logo, c=Ω. Uma outra forma de apresentar essa prova é usar a definição de evento complementar, isto é, Ac=ΩA. Considerando A=, então c=Ω. Logo, c=Ω;

  3. ω(Ac)cωAcωA;

  4. ωAΩωA e ωΩωA, como pode ser observado pelo diagrama a seguir.

  1. ωAΩωA ou ωΩωΩ, como pode ser visto no diagrama a seguir.
  1. ωAAωA e ωAωA, como pode ser observado no diagrama a seguir.
  1. Vamos apresentar a prova por contradição, isto é, vamos supor que A, então ω:ωA. Assim, ωA e ω. Porém, ω é falso. Então ωA é falso. Logo, A=;

  2. Considerando que ωA, então ou ωA ou ω. Mas ω é falso, logo ωA. Do mesmo modo se ωA, então ωA;

  3. ω(AB) ω A  e  ωB ωA e ω(AB)A(AB). Da mesma forma, ω(AB) ωA  e  ωBωA e ωBcωABc. Vejamos o diagrama a seguir.

  1. Considerando que ωB, então ou ωA ou ωAc. Se ωA, então ω(BA). Se ωAc, então ω(BAc). Logo, ω(BA)(BAc). Agora, considerando que ω(BA)(BAc), sabemos que ω(BA) ou ω(BAc). Se ω(BA), então ωB. Se ω(BAc), então ωB. Logo, ωB. Uma outra forma de provar mais facilmente essa identidade é usar a Lei distributiva (Teorema 5.2, III), isto é, (BA)(BAc)=B(AAc)=BΩ=B. Vejamos o diagrama de Venn para uma melhor elucidação, a seguir.
  1. Basta usar a propriedade VI desse teorema;
  2. ω(AB) ωA ou ωB ωA ou ω(BAc) ωA(BAc). Vejamos o diagrama a seguir.
  1. ωAB ωA ou ωB ω(AB) ou ω(AcB)(AB)prop. (XII) ω(AB)(AcB)(AB). Vejamos o diagrama a seguir.

Baseado em tudo o que foi estudado sobre uma introdução à teoria de conjuntos, iremos a partir da próxima seção, contextualizar todas essas informações com o estudo sobre a medida de probabilidade.

5.3 Definições de probabilidades

Após um contexto sobre a teoria de conjuntos, iniciamos o contexto probabilístico, com o interesse de saber a chance de determinado elemento de um evento ocorrer como resultado de um experimento, ao invés de estar interessado nesse resultado. Isso tem total importância prática, pois é dessa forma, por exemplo, que prevemos determinados resultados de um fenômeno de interesse. Consideremos um evento A contido no espaço amostral Ω, e desejamos associar ao evento A uma medida que assume valores entre 0 e 1, que chamamos de medida de probabilidade de A, denotada por P(A). Assim, diremos que P(A) é a probabilidade de que o evento A ocorra no espaço amostral Ω. De outro modo, a probabilidade do evento A representa a chance de ao menos um de seus elementos ocorrerem como resultado de um experimento. Voltando ao Exemplo 5.1, considerando que esse dado é equilibrado, e o evento AΩ, então poderemos atribuir uma probabilidade para A da seguinte forma: P(A)=#A6=número de resultados favoráveis a Anúmero de resultados possíveis.

Esta é a definição clássica de probabilidade quando Ω é finito. Entretanto, a probabilidade que o evento A ocorra no espaço amostral nem sempre é possível, devido a complexidade desses eventos. Retornando ao Exemplo 5.8, podemos interpretar a probabilidade de AΩ como: P(A)=área Aárea Ω=área Aπ, sendo a área de A bem definida. Segundo um teorema profundo da teoria da medida, não se pode definir P(A) para AΩ de modo que a área de A não esteja bem definida. A prova disso depende do Axioma da escolha. Um exemplo clássico desses eventos são os conjuntos de Vitali de R, os quais não podemos atribuir nenhuma medida quando ela generaliza o comprimento de intervalos de R. De fato é impossível atribuir comprimento a todos subconjuntos de R preservando a aditividade e invariância por translação.

Dessa forma, estaremos apenas interessados em eventos cuja área esteja bem definida, apresentada na Definição 5.16, a seguir.

Definição 5.16: Evento Aleatório
Todo evento de Ω que podemos atribuir uma probabilidade, chamamos de evento aleatório.

Definimos a medida de probabilidade apresentada na Definição 5.17, a seguir.

Definição 5.17: Medida de Probabilidade

Seja Ω o espaço amostral, então uma função P, tal que P:ΩR, é chamada de medida de probabilidade ou probabilidade, aos eventos do espaço amostral satisfazendo os seguintes axiomas de Kolmogorov:

  1. (Normalização). P(Ω)=1;
  2. (Não-negatividade). 0P(A)1,  AΩ;
  3. (Aditividade). P(A1A2)=P(A1)+P(A2), com A1A2=, para A1, A2Ω.

Assim como mencionado por Montgomery e Runger (), os axiomas não determinam probabilidades, mas capacitam a calcular facilmente as probabilidade de alguns eventos, a partir do conhecimento de outras probabilidades. Na realidade, a probabilidade se baseia no conhecimento do sistema em estudo.

Poderíamos ampliar o Axioma} [iii], Definição 5.17, da seguinte forma:

Axioma [iii]. (Aditividade finita). Se {Ai}i=1n é uma sequência disjunta dois a dois de eventos em Ω, então P(i=1nAi)=i=1nP(Ai).}

Para isso, basta considerarmos A2=i=1n1Ai. Para n, podemos generalizar esse Axioma da seguinte forma:

Axioma [iii]. (σ-Aditividade). Se {Ai}i1 é uma sequência disjunta dois a dois em Ω, então P(i=1Ai)=i=1P(Ai).}

Podemos verificar que o Axioma [iii] implica nos Axioma [iii] e [iii], apresentado no Teorema 5.4.

Teorema 5.4: σ-adivitividade implica em aditividade finita
O Axioma [iii] implica nos Axioma [iii] e [iii], isto é, se P é σ-aditiva, então é finitamente aditiva.

Prova
Supondo satisfeito o Axioma [iii], seja uma sequência de eventos {Ai}i=1nΩ, e que P()=0 (Teorema 5.6, ii), então

P(Ω)=P(Ω)=P(Ω)+P()+P()+.

Definimos Ai=, para i=n+1,n+2,. Como A1,A2, são disjuntos, então

P(i=1nAi)=P(i=1Ak)=i=1P(Ai)=i=1nP(Ai)+P()+P()+=i=1nP(Ai), o que conclui a prova.

Um quarto Axioma, pode ser complementado sobre a medida de probabilidade James (), que segue:

Axioma [iv]. (Continuidade do vazio). Se a sequência {Ai}i1, em que AiΩ iN+, decrescer para o vazio, então limiP(Ai)0.

Este axioma indica que se {Ai}i1 decrescer para o vazio, isto é Ai, significa que AiAi+1 iN+, ou seja, {Ai}i1 decresce, e i1Ai=.

Teorema 5.5: Equivalência dos Axiomas [iv] e [iii]
Dados os axiomas de Kolmogorov, Definição 5.17, o Axioma [iv] é equivalente ao Axioma [iii], isto é, uma probabilidade finitamente aditiva é uma probabilidade se, e somente se, é contínua no vazio.

Prova
  1. Supomos o Axioma [iii]. Seja uma sequência de eventos {Ai}i1Ω, tais que Ai. Vamos provar que limiP(Ai)0. Considere

A1=(A1A2)(A2A3)=i=1(AiAi+1), pelo diagrama:

As regiões AiAi+1 são disjuntas, uma vez que a sequência é decrescente. Considere também que Ω é fechado para diferenças. Pelo Axioma [iii], temos

P(A1)=P(i=1(AiAi+1))=i=1P(AiAi+1), portanto a série é convergente e i=1P(AiAi+1)=i=1n1P(AiAi+1)+P()+P()+P()+=i=1n1P(AiAi+1)n[]P(A1). Pela aditividade finita, P(AiAi+1)=P(Ai)P(Ai+1), e portanto, P(A1)=limni=1n1[P(Ai)P(Ai+1)]=limn{[P(A1)P(A2)]+[P(A2)P(A3)]++[P(An1)P(An)]}=limn[P(A1)P(A2)P(A2)+P(A2)P(A2)P(A3)P(A3)++P(An1)P(An1)P(An)]=limn[P(A1)P(An)], Logo, P(An)0.

  1. Supomos o Axioma [iv] e seja a sequência decrescente {Ai}i1 de eventos disjuntos. Vamos provar que P(i=1Ak)=i=1P(Ai). Seja A=i=1Ai, então

A=(i=1nAi)(i=n+1Ai) e como a σ-aditividade implica em aditividade finita, Teorema 5.4, temos que P(A)=i=1nP(Ai)+P(i=n+1Ai). Seja Bn=i=n+1Ai, então Bn e portanto P(Bn)0 (Pelo Axioma [iv]). Logo, i=1nP(Ai)n[]P(A), isto é, P(A)=i=1P(Ak), como queríamos demonstrar.

Por fim, o Corolário 5.2 apresenta as relações entre os Axiomas apresentados sobre a medida de probabilidade, a seguir.

Corolário 5.2

Os dois seguintes sistemas de axiomas são equivalentes:

Sistema I: Axiomas [i], [ii], [iii],
Sistema II: Axiomas [i], [ii], [iii] e [iv].

Prova
O sistema I é equivalente aos Axiomas [i], [ii], [iii] e [iii], pois já vimos que o Axiomas [iii] implica no Axiomas [iii], Teorema 5.4. Agora, usando o Teorema 5.5, provamos que o Axioma 3 implica no Axioma 4, e a prova é concluída.

Vejamos o Exemplo 5.14, para elucidar a definição de probabilidade, a seguir.

Exemplo 5.14: Montgomery e Runger (2016)
Uma peça moldada de injeção é igualmente provável de ser obtida, a partir de qualquer uma das oito cavidades de um molde.

  1. Qual é o espaço amostral?
  2. Qual é a probabilidade de a peça ser proveniente da cavidade 1 ou 2?
  3. Qual é a probabilidade de a peça não ser proveniente nem da cavidade 3 nem da 4?

Nesse caso, (a) o espaço amostral é Ω={1,2,3,4,5,6,7,8}. Como a peça moldada de injeção é igualmente provável, então (b) a probabilidade de a peça ser proveniente da cavidade 1 ou 2, é dada por: P({1}{2})=P({1})+P({2}),(Eventos disjuntos)=1/8+1/8=2/8. Por fim, (c) a probabilidade de a peça não ser proveniente nem da cavidade 3 nem da 4, é dada por: P({3}c{4}c)=P[({3}{4})c],(Lei DeMorgan=1P({3}{4}),(Evento complementar)=1[P({3})+P({4})],(Eventos disjuntos)=1[1/8+1/8]=12/8=6/8.

O ítem (c) do Exemplo 5.14 exigiria um conhecimento sobre algumas propriedades da medida de probabilidade como consequência das propriedades da teoria de conjuntos abordadas na seção anterior, mas que serão abordadas a seguir.

Apesar da definição formal sobre a probabilidade, há duas formas para atribuir probabilidades aos elementos do espaço amostral, que em algumas situações são aplicáveis, que seguem:

  1. A primeira delas, consiste na atribuição de probabilidades, baseando-se em características teóricas da realização do fenômeno, chamado de probabilidade clássica ou a priori; formalmente, se um experimento aleatório obtiver resultados mutuamente exclusivos e igualmente prováveis, e se nA desses resultados têm um atributo A, então, a probabilidade de acontecer A é a fração nA/n. Mais ainda, Laplace define a probabilidade de um acontecimento como sendo o quociente entre o número de casos favoráveis e o número de casos possíveis, supondo todos equiprováveis. A principal limitação é que os eventos tenham que ser igualmente prováveis.
  2. Uma outra maneira de obter probabilidades é através das frequências de ocorrências, também conhecida como probabilidade frequentista ou a posteriori, em que a probabilidade de um dado acontecimento pode ser medida observando a frequência relativa do mesmo acontecimento numa sucessão numerosa de provas ou experiências, idênticas e independentes. A principal limitação é que os eventos possam repetir-se indefinidamente nas mesmas circunstâncias.

Exemplo 5.15
Um lançamento de um dado, temos o espaço amostral Ω={1, 2, 3, 4, 5, 6}. Considere também que o dado foi construído de forma homogênea e com medidas rigorosamente simétricas, não havendo qualquer razão para privilegiar essa ou aquela face. Logo, podemos considerar P(X=1)=P(X=2)=P(X=3)==P(X=6)=1/6, fato que se enquadra na probabilidade clássica ou a priori.

Exemplo 5.16
Suponha que seja conhecida a frequência de cada possível elemento do espaço amostral, Ω. Se sorteamos aleatoriamente um elemento dessa população, a probabilidade de sortear esse ou aquele elemento será a sua respectiva frequência relativa, fato que se enquadra no tipo de probabilidade frequentista ou a posteriori.

5.3.1 Propriedades

Vejamos algumas propriedades da medida de probabilidade, consequências dos Teoremas 5.2 e 5.3, a seguir.

Teorema 5.6: Propriedades de P

Seja P uma medida de probabilidade associada a sequênia de eventos aleatórios AiΩ, iN. Então são válidas as seguintes propriedades:

  1. (Complemento) P(A)=1P(Ac);
  2. P()=0;
  3. P(B)=P(AB)+P(AcB);
  4. (Monotonicidade) Se AB, então P(A)P(B);
  5. P(AB)=P(A)+P(B)P(AB);
  6. (Limitante Superior) 0P(A)1;
  7. (Continuidade da probabilidade) Se AiA, então P(Ai)P(A). Se AiA, então P(Ai)P(A).
  8. (Desigualdade de Boole) P(i=1Ai)i=1P(Ai);
  9. (subaditividade) P(i=1nAi)i=1nP(Ai);
  10. (Desigualdade de Bonferroni) P(i=1nAi)1i=1nP(Aic)
  11. (Inclusão-Exclusão) P(i=1nAi) = i=1nP(Ai) i<jnP(AiAj) + i<j<knP(AiAjAk) +(1)n+1P(i=1nAn).
Prova
  1. Sabemos que AAc=Ω, Teorema 5.3 (i), e que estes eventos são disjuntos, então

P(AAc)=P(A)+P(Ac)1=P(A)+P(Ac)P(A)=1P(Ac);

  1. Sabemos que Ω e são eventos disjuntos. Assim, P(Ω)=P(Ω)+P()1=1+P()P()=0, o que conclui a prova;

  2. Podemos observar que B={AB}{AcB}, Teorema 5.3 (xii), e que {AB} e {AcB} são disjuntos. Portanto,

P(B)=P({AB}{AcB})=P(AB)+P(AcB), como esperado;

  1. Se AB, então AB=A. Usando (i), temos P(B)=P(AB)+P(AcB)=P(A)+P(AcB)P(A), como queríamos demonstrar.

  2. Observando a seguinte identidade encontrada no Teorema 5.3 (XV), isto é,

AB=(ABc)(AB)(AcB), união de eventos disjuntos, que pode ser observado pelo diagrama de Venn, então (5.6)P(AB)=P(ABc)+P(AB)+P(AcB).

Por (iii) sabemos que P(A)=P(BA)+P(BcA), assim (5.7)P(BcA)=P(A)P(BA). Ainda, temos que P(B)=P(AB)+P(AcB) o que implica (5.8)P(AcB)=P(B)P(AB). Portanto, substituindo () e () em (), obtemos P(AB)=P(A)+P(B)P(AB), o que conclui a prova;

  1. Pela Definição 5.17, usando o Axioma da Não-aditividade, a prova é imediata;

  2. Vamos supor que AiA, isto é, AiAi+1 e i1Ai=A. Então P(Ai)P(Ai+1) pelo item (iv), e (AiA)P(AiA)0 pela continuidade do vazio. Pela aditividade finita P(AiA)=P(Ai)P(A), e como {P(Ai)}iN é decrescente, logo P(Ai)P(A). Agora, se AiA, isto é, AiAi+1 e i1Ai=A, então AicAc, logo P(Aic)P(Ac)1P(Ai)1P(A). Portanto, P(Ai)P(A), como queríamos demonstrar;

  3. Vamos inicialmente criar uma sequência disjunta A1,A2,, com a propriedade i=1Ai=i=1Ai. Definimos A1=A1,Ai=Ai(j=1i1Aj)c,i=2,3,. É fácil perceber que P(i=1Ai)=P(i=1Ai)=i=1P(Ai), onde a última igualdade segue, pois Ai são disjuntos. Observemos que pela construção, AiAi, portanto, pela propriedade (iv), P(Ai)P(Ai), logo i=1P(Ai)i=1P(Ai). Concluindo a prova, P(i=1Ai)=i=1P(Ai)i=1P(Ai);

  4. Assumindo que An+i= para todo i=1,2,, então a propriedade (vii) implica na propriedade (viii), o que conclui a prova.

  5. Pela Lei DeMorgan, Teorema 5.2 (iv), podemos generalizar a equivalência: (i=1nAi)c=i=1nAic, e como consequência temos que i=1nAi=(i=1nAic)c (Teorema 5.3, v). Ainda pelo Teorema 5.3 (ii), Ω=(i=1nAic)(i=1nAic)c. Portanto, podemos afirmar que (5.9)P(Ω)=P(i=1nAic)+(i=1nAic)c(eventos disjuntos)1=P(i=1nAic)+(i=1nAic)c.(Def. 5.17, axioma i) Logo, pela expressão () e as equivalências apresentadas anteriormente, temos que (5.10)P(i=1nAi)=1P(i=1nAic). Pela subaditividade, propriedade (viii), observamos que (5.11)P(i=1nAic)i=1nP(Aic). Portanto, substituindo () em (), temos 1P(i=1nAi)i=1nP(Aic)P(i=1nAi)1+i=1nP(Aic)×(1)P(i=1nAi)1i=1nP(Aic), o que se conclui a prova;

  6. Vamos apresentar duas provas:

Primeira demonstração

  • Primeiro para n=2, temos a propriedade (iv) do Teorema 5.6, isto é, (5.12)P(A1A2)=P(A1)+P(A2)P(A1A2)

  • Para n=3, vamos considerar A={A1A2}, e que (5.13)P(A1A2A3)=P(AA3)=P(A)+P(A3)P(AA3).

Segue que P(A)=P(A1A2)=P(A1)+P(A2)P(A1A2) e que (5.14)P(AA3)=P[(A1A2)A3]=P[(A1A3)(A2A3)]=P(A1A3)+P(A2A3)P(A1A2A3)

Substituindo as expressões () e () em (), logo P(A1A2A3)=P(A1)+P(A2)+P(A3)P(A1A2)P(A1A3)P(A2A3)+P(A1A2A3).

  • Para n=4, já apresentando o resultado direto, temos (5.15)P(A1A2A3A4)=i=14P(Ai)1i<j4P(AiAj)++1i<j<k4P(AiAjAk)+P(i=14Ai).
  • Para n=5, já apresentando o resultado direto, temos (5.16)P(i=15Ai)=i=15P(Ai)1i<j5P(AiAj)++1i<j<k5P(AiAjAk)+1i<j<k<l5P(AiAjAkAl)++P(i=15Ai).

Observe que a última expressão para a união das probabilidades alterna o sinal à medida que n aumenta, isto é, quando n é par, a interseção de todos os eventos é subtraída. Quando n é ímpar, a interseção de todos os eventos é somada. Assim, para um n qualquer induzindo pela expressão (), temos

P(i=1nAi)=i=1nP(Ai)1i<jnP(AiAj)++1i<j<knP(AiAjAk)+(1)n+1P(i=1nAi).

Segunda demonstração

Para uma segunda demonstração, vamos provar para n1 eventos e induzir para n. Considere a probabilidade da união de eventos {Ai}i=1n, isto é, (5.17)P(i=1nAi)=P(i=1n1AiAn)=P(i=1n1Ai)+P(An)P(i=1n1AiAn)=[i=1n1P(Ai)1i<jn1P(AiAj)++1i<j<kn1P(AiAjAk)+(1)(n1)+1P(i=1n1Ai)]++P(An)P(i=1n1AiAn). Observe que (5.18)P(i=1n1AiAn)=i=1n1P(AiAn)1i<jn1P[(AiAn)(AjAn)]++(1)(n1)+1P(i=1n1(AiAn))=i=1n1P(AiAn)1i<jn1P(AiAjAn)++(1)n11i1<<in2n1P(j=1n2AijAn)++(1)(n1)+1P(i=1nAi). Então, a expressão P(i=1n1AiAn) recebe o sinal negativo, e portanto iremos substituir () em (), levando em consideração a substituição do sinal, que segue (5.19)P(i=1nAi)=[i=1n1P(Ai)1i<jn1P(AiAj)+1i<j<kn1P(AiAjAk)+(1)(n1)+1P(i=1n1Ai)]+P(An)[i=1n1P(AiAn)1i<jn1P(AiAjAn)++(1)n1××1i1<<in2n1P(j=1n2AijAn)+(1)(n1)+1P(i=1nAi)]=i=1n1P(Ai)+P(An)1i<jn1P(AiAj)i=1n1P(AiAn)++i<j<kn1P(AiAjAk)+1i<jn1P(AiAjAn)++(1)n11i1<<in2n1P(j=1n2AijAn)++(1)(n1)+1P(i=1n1Ai)+(1)(n1)+1P(i=1nAi)

Nesse momento, precisamos verificar algumas equivalências:

  • Primeira equivalência:

(5.20)i=1n1P(Ai)+P(An)=P(A1)++P(An1)+P(An)=i=1nP(Ai).

  • Segunda equivalência: (5.21)1i<jn1P(AiAj)+i=1n1P(AiAn)=[P(A1A2)++P(A1An1)++P(A2A3)++P(A2An1)++P(An2An1)]+[P(A1An)++P(A2An)++P(An1An)+]=1i<jnP(AiAj).

  • Terceira equivalência:

(5.22)i<j<kn1P(AiAjAk)+1i<jn1P(AiAjAn)=i<j<knP(AiAjAk)

  • Demais equivalências: os demais termos apresentados em () seguem as mesmas ideias das equivalências apresentadas anteriormente, exceto o último termo (1)(n1)+1P(i=1nAi).

Portanto, substituindo as expressões (), () e () em (), chegamos ao resultado esperado P(i=1nAi)=i=1nP(Ai)i<jnP(AiAj)+i<j<knP(AiAjAk)+(1)n+1P(i=1nAn), o que conclui a prova.

Os resultados apresentados no Teorema 5.6 como propriedades da medida de probabilidade, nos auxilia em diversos problemas de uma forma geral, como condições elementares apresentadas nas sete primeiras propriedades, condições limitantes nas propriedades de (viii) a (x), e a condição de união de uma sequência de eventos. Esta última necessitação de um exemplo teórico mais simples para a sua elucidação, apresentada no Exemplo 5.17.

Exemplo 5.17: Princípio da inclusão-exclusão

Após termos apresentado nas propriedades da probabilidade, Teorema 5.6 (xi), a propriedade da união de n eventos, vamos elucidar uma dedução mais simples para n=4, que segue:

(5.23)P(i=14Ai)=P(i=13(AiA4))=P(i=13Ai)+P(A4)P(i=13AiA4).

Deduzindo os termos individuais em (), temos (5.24)P(i=13Ai)=i=13P(Ai)1i<j3P(AiAj)+P(i=13Ai).

Deduzindo o outro termo, temos

(5.25)P(i=13AiA4)=i=13P(AiA4)1i<j3P(AiAjA4)+P(i=14Ai).

Substituindo () e () em (), obtemos (5.26)P(i=14Ai)=[i=13P(Ai)1i<j3P(AiAj)+P(i=13Ai)]+P(A4)[i=13P(AiA4)1i<j3P(AiAjA4)+P(i=14Ai)]=i=13P(Ai)+P(A4)1i<j3P(AiAj)i=13P(AiA4)++P(i=13Ai)+1i<j3P(AiAjA4)P(i=14Ai).

Devemos observar as seguintes equivalências:

  • Primeira equivalência:

(5.27)i=13P(Ai)+P(A4)=P(A1)+P(A2)+P(A3)+P(A4)=i=14P(Ai);

  • Segunda equivalência: (5.28)1i<j3P(AiAj)+i=13P(AiA4)=[P(A1A2)+P(A1A3)+P(A2A3)]+[P(A1A4)++P(A2A4)+P(A3A4)]=1i<j4P(AiAj);
  • Terceira equivalência: para este caso, observando a última parte do resultado em (), isto é, +(1)n11i1<<in2n1P(j=1n2AijAn)++(1)(n1)+1P(i=1n1Ai); a parte similar para o exemplo se refere a seguinte equivalência: (5.29)P(i=13Ai)+1i<j3P(AiAjA4)=[P(A1A2A3)]++[P(A1A2A4)++P(A1A3A4)++P(A2A3A4)]=1i<j<k4P(AiAjAk). Substituindo as equivalências em (), logo P(i=14Ai)=i=14P(Ai)1i<j4P(AiAj)+1i<j<k4P(AiAjAk)P(i=14Ai), resultado igual ao que apresentamos em ().

Percebemos ainda no Teorema 5.6 que a propriedade (xi) é uma generalização da propriedade (v). Ao passo que a condição de uma sequência de eventos serem disjuntos dois a dois, Definição 5.10, temos (5.30)P(i=1Ai)=i=1P(Ai). Se considerarmos Ai= para todo i=n+1,n+2,, então restringimos a probabilidade de uma soma finita, isto é, (5.31)P(i=1nAi)=i=1nP(Ai), uma vez que P()=0 (Teorema 5.6, ii). Por fim, para a situação de termo apenas dois eventos, o resultado é o Axioma (iii) da Definição 5.17. Vejamos mais um exemplo, a seguir.

Exemplo 5.18: Retirado de Devore (2006)
Uma empresa de eletricidade oferece uma taxa vitalícia de energia a qualquer lar cuja utilização de energia esteja abaixo de 240~kWh durante um determinado mês. Represente por A o evento de um lar selecionado aleatoriamente em um comunidade que não excede a utilização da taxa vitalícia em janeiro e por B o evento análogo para o mês de julho (A e B se referem ao mesmo lar). Suponha que P(A)=0,8, P(B)=0,7 e P(AB)=0,9. Calcule:

  1. P(AB);
  2. A probabilidade de a quantia da taxa vitalícia ser excedida em exatamente um dos dois meses. Descreva esse evento em termos de A e B.

Considere, A={ωΩ:ω=“lar X que não excede 240kWh em janeiro”},B={ωΩ:ω=“lar X que não excede 240kWh em julho”}.

Isso ocorre porque os eventos não são disjuntos, uma vez que os dois eventos consistem no mesmo lar X, em ser selecionado. Assim, usando a propriedade (v) do Teorema 5.6, podemos obter P(AB), dado por: (5.32)P(AB)=P(A)+P(B)P(AB)=0,8+0,70,9=0,6. No caso do ítem (b), o evento que representa o lar X de a quantia vitalícia ser excedida em exatamente um dos dois meses por ser representado por: (AcB)(ABc), uma vez que,

Ac={ωΩ:ω=“lar X que exceder 240kWh em janeiro”},Bc={ωΩ:ω=“lar X que exceder 240kWh em julho”}.

Podemos ainda observar pelo Teorema 5.3 (prop. XV), que AB=(AcB)(AB)(ABc), e que cada um dos eventos dentro do parêntese são disjuntos dois a dois, logo, P(AB)=P[(AcB)(AB)(ABc)]=P[(AcB)(ABc)]+P(AB). Desse modo, percebemos que P[(AcB)(ABc)]=P(AB)P(AB), logo, P[(AcB)(ABc)]=0,90,6=0,3.

Exemplo 5.19
Usando os resultados do Exemplo 5.18, podemos calcular a probabilidade de Ac, usando a propriedade (i) do Teorema 5.6, ou seja: P(Ac)=10,8=0,2. Isso representa a chance do exceder a energia acima de 240kWh, em janeiro.

5.4 Eventos independentes e probabilidade condicional

Nessa seção, iremos apresentar iniciar com uma motivação, por meio do Exemplo 5.20, uma abordagem sobre dois assuntos muito interessantes na probabilidade, que são a independência de eventos e a modificação do espaço amostral, dada uma informação antecipada, e qual a implicância dessas informações para a probabilidade de um evento ocorrer.

Exemplo 5.20

Paulo é um jovem empreendedor e quer abrir seu próprio negócio. Ele observou que o mercado de sandálias era lucrativo. Então resolveu abrir uma fábrica de sandálias. Devido a dificuldade financeira, resolveu comprar três máquinas de sandálias usadas. As informações anteriores sobre estas máquinas dadas pelo proprietário foram:

Máquina Produto Total da produção
M1 & Pantufas 50% 1%
M2 Sandálias baixas 40%
M3 Sandálias de couro 10%

Surgiu as seguintes indagações:

  • Do total de sandálias produzidas, qual a probabilidade de Paulo produzir uma sandália com defeito?
  • Pensando em aumentar o lucro da fábrica, Paulo pensa e substituir uma das máquinas, qual seria sua decisão?
    • Será que a máquina M1 que produz mais sandálias e consequentemente tem maior desgaste, deve ser trocada primeiro?
    • Ou será que apesar da máquina M3 ter menor produção, é a que gera mais defeito por sandália, deve ser trocada primeiro?

Muitas vezes nos deparamos com situações em que antes da realização de algum experimento, temos alguma informação adicional. Queremos saber o quanto que essa informação pode afetar a medida de probabilidade. Assim, apresentamos a Definição 5.18, que define a probabilidade condicional, a seguir.

Definição 5.18: Probabilidade condicional
Dados dois eventos A e B definidos em Ω, então a probabilidade condicional do evento A dado que ocorreu o evento B, denotado por P(A|B), é definida por: (5.33)P(A|B)=P(AB)P(B), para P(B)>0.

Baseado no problema de Paulo, denotemos o evento D as sandálias produzidas com defeitos pela empresa, M1 o evento que representa as sandálias produzidas pela máquina M1, M2 o evento que representa as sandálias produzidas pela máquina M2 e M3 o evento que representa as sandálias produzidas pela máquina M3. Assim, percebemos que a probabilidade do evento D não pode ser observada facilmente, pois o defeito dos produtos produzidos pelas máquinas está condicionado a cada máquina. Desse modo podemos representar, a probabilidade desses defeitos da seguinte forma: P(D|M1)=0,01, P(D|M2)=0,02, e P(D|M3)=0,03. Essas probabilidades apresentam uma alteração no espaço amostral para cada evento, porque esses resultados mostram a chance de defeito do produto, dado o conhecimento de que máquina foi produzido, é o que chamamos de restrição do espaço amostral.

Essa restrição do espaço amostral, pode nos questionar se de fato a probabilidade condicional, de fato, é uma medida de probabilidade. Para isso, apresentamos o Teorema 5.7, na sequência.

Teorema 5.7: P(A|B) é uma medida de probabilidade
Sejam A e B eventos aleatórios, tal que P(B)>0, e considere Q:Ω[0,1] definida por Q(A)=P(A|B)=P(AB)P(B), que é a probabilidade condicional de A dado B. Então Q é também uma medida de probabilidade.

Prova

Para verificarmos se Q(.) é uma medida de probabilidade, devemos assumir que Q satisfaz os axiomas de Kolmogorov, isto é,

  • Axioma 1: Q(Ω)=P(ΩB)P(B)=P(B)P(B)=1.

  • Axioma 2: como P é uma medida de probabilidade, então AΩ:Q(A)0.

  • Axioma 3: Sejam dois eventos A1 e A2, disjuntos, então Q(A1A2)=P[(A1A2)B]P(B)=i=12P[(A1B)(A2B)]P(B),  Teorema 5.2 (III)=Q(A1)+Q(A2). o que conclui a prova.

Como sequência de importantes resultados sobre propriedades da probabilidade, apresentamos o Teorema 5.8, que será importante para resultados muito utilizados na área aplicada, como o Teorema de Bayes, apresentado na sequência.

Teorema 5.8: Regra do produto de probabilidade
Seja os eventos não vazios A1,A2,,An em Ω, com P(i=1nAi)>0, então a probabilidade do produto desses eventos é dado por P(i=1nAi)=P(A1)P(A2|A1)P(An|i=1nAi).

Prova
Por indução, consideremos n=2. Assim, pela Definição 5.18, temos P(A2|A1)=P(A1A2)P(A1)P(A1A2)=P(A1)P(A2|A1), em que P(A1A2)=P(A1)P(A2|A1) e P(A1)>0. Agora para n=k, generalizamos a indução, P(A1A2Ak)=P[(A1A2Ak1)Ak], pela Definição 5.18, temos P[i=1k1AiAk]=P[(A1A2Ak1)]P(Ak|A1A2Ak1) podendo ser reescrito como P[i=1k1AiAk]=P(A1A2Ak2)P(Ak1|A1A2Ak2)P(A1A2Ak1)××P(Ak|A1A2Ak1). Assim, usando a indução sucessivas vezes, chegaremos a expressão P(A1A2Ak)=P(A1)P(A2|A1)P(Ak1|A1A2Ak2)××P(Ak|A1A2Ak1). Observe que por hipótese, todos os condicionamentos da expressão do lado direito, têm probabilidades positivas, pois contém i=1nAi, o que conclui a prova.

Antes de falarmos sobre o teorema da lei da probabilidade total, será interessante fazer a definição sobre a partição de Ω, apresentada na Definição 5.19, a seguir.

Definição 5.19: Partição de Ω
Se a sequência A1,A2,, são disjuntos dois a dois, não vazios, e i=1Ai=Ω, então dizemos que essa sequência forma uma partição de Ω.

Entretanto, para calcular a probabilidade de uma sandália está com defeito, isto é P(D), independente de qual máquina a produziu, usamos o Teorema 5.9, a seguir.

Teorema 5.9: Teorema da probabilidade total
Seja uma sequência de eventos A1,A2,,An de Ω, disjuntos, tal que i=1nAi=Ω, e B um evento de Ω, não vazio, então a probabilidade de B é dada por: (5.34)P(B)=i=1nP(B|Ai)P(Ai), para P(Ai)>0, sendo i=1,2,,n.

Prova
Sabendo que AiijAj e que i=1nBAi=Ω, então i=1nBAi=B e os BAi são também disjuntos. Dessa forma, P(B)=P(i=1nBAi)=i=1nP(BAi)(BAi disjuntos)=i=1nP(B|Ai)P(Ai) (Teorema 5.8) como queríamos provar.

Retornando ao cálculo da probabilidade P(D), no Exemplo 5.21 apresentamos como o Teorema 5.9 soluciona esse problema, a seguir.

Exemplo 5.21
Voltando ao problema de Paulo, como P(M1)=0,50, P(M2)=0,40) e P(M3)=0,10, então a probabilidade de uma sandália ter defeito é P(D)=i=13P(D|Mi)P(Mi)=P(D|M1)P(M1)+P(D|M2)P(M2)+P(D|M3)P(M3)=0,01×0,50+0,02×0,40+0,03×0,10=0,016.

Nesse momento, surge uma importante definição na Estatística e Probabilidade, que é a independência de eventos, apresentada na Definição 5.20. A ideia da independência é uma característica probabilística, e isto significa, que se dois eventos forem independentes, então a probabilidade de um evento ocorrer não é influenciado pela ocorrência ou não do outro evento. A implicância da pressuposição da independência em problemas práticos na estatística podem ser resolvidos de forma trivial, devido as técnicas probabilísticas serem resolvidas de forma mais facilmente.

Definição 5.20: Independência de dois eventos

Considere o espaço amostral Ω. Dois eventos A e B de Ω são independentes se satisfaz ao menos uma das seguintes condições:

  1. P(AB)=P(A)P(B);
  2. P(A|B)=P(A), para P(B)>0;
  3. P(B|A)=P(B), para P(A)>0.

É fácil mostrar que (I) implica em (II), (II) implica em (III), e (III) implica em (I).

(i)(ii): Se P(AB)=P(A)P(B), então

P(A|B)=P(AB)P(A)=P(A)P(B)P(B)=P(A),para P(B)>0;

(ii)(iii): Se P(A|B)=P(A), então P(B|A)=P(BA)P(A)=P(A|B)P(B)P(A)=P(B),para P(A)>0;

(iii)(i): Se P(B|A)=P(B), então P(AB)=P(B|A)P(A)=P(B)P(A),para P(A)>0.

A intuição para independência na Definição 5.20 fica justificada pelo fato de que A é independente de B tanto na ocorrência quanto a não ocorrência de B e isso não muda em nada a probabilidade da ocorrência de A, isto é, P(A|B)=P(A) e P(A|Bc)=P(A). Essas duas expressões significam que P(AB)=P(B)P(A|B)=P(B)P(A)P(ABc)=P(Bc)P(A|Bc)=P(Bc)P(A).

Entretanto, a independência entre dois eventos não implica em independência coletiva. Vejamos o Exemplo 5.22, a seguir.

Exemplo 5.22
Sejam os resultados possíveis de um dado honesto, cujo espaço amostral é Ω={1,2,3,4,5,6}. Considere um evento que representa o conjunto dos números ímpares desse espaço amostral, A={1,3,5}, e outro evento que consite nos múltiplos de 3, B={3,6}. A probabilidade de A é P(A)=1/2, a probabilidade de B é P(B)=1/3, e a probabilidade da interseção entre A e B é P(AB)=1/6. Veja que dado que o evento B ocorra, ou não ocorra Bc={1,2,4,5}, a probabilidade do evento A é a mesma, veja: P(A|B)=1/61/3=1/2P(A|Bc)=2/64/6=1/2. Que é o mesmo que entender que P(A)×P(B)=1/6=P(AB). Logo, A e B são eventos independentes.

Exemplo 5.23
Seja um experimento cujo objetivo é verificar a face superior de um tetraedro, isto é, Ω={1,2,3,4}. Sejam os eventos em Ω, A={1,4}, B={2,4} e C={3,4}. Considerando o tetraedro honesto e que cada valor é equiprovável, assim P(A)=P(B)=P(C)=1/2. Observamos que estes eventos são independentes dois a dois, isto é, P(AB)=1/4=P(A)P(B), P(AC)=1/4=P(A)P(C) e P(BC)=1/4=P(B)P(C). Porém, P(ABC)=1/4P(A)P(B)P(C). Logo, os eventos A, B e C não são independentes três a três.

Para uma definição mais geral sobre a independência de eventos, apresentamos a Definição 5.21, a seguir.

Definição 5.21: Independência de eventos
Considere o espaço amostral Ω. Uma sequência de eventos A1,A2,,An de Ω são independentes se e somente se: (5.35)P(AiAj)=P(Ai)P(Aj),para ij;P(AiAjAk)=P(Ai)P(Aj)P(Ak),para ijk;P(i=1nAi)=i=1nP(Ai).

Paulo poderia indagar, se os eventos Mi e D são independentes ou dependentes. Contudo, pela Definição 5.20, temos que P(D|Mi)P(D)=0,016D e Mi, para i=1,2,3, logo, não são independentes.

Exemplo 5.24: Efeito de multiplicidade
Retomando as propriedades da probabilidade, Teorema 5.6, e agora com a abordagem da ideia de independência de eventos, Definição 5.21, um importante problema na área da estatística é o uso de comparações simultâneas (hipóteses), assunto previamente abordado no para uma única comparação. Entendemos por hipótese (Hi) uma afirmação realizada pelo pesquisador sobre uma determinada população. O objetivo de um teste é rejeitar a hipótese estudada. Mas como tudo em estatística não há certeza, a probabilidade de rejeitarmos uma hipótese verdadeira é dada por α, isto é, o nível de significância do teste. Essa decisão é chamada de erro tipo I, e representaremos neste exemplo, pelo evento Hic. Quando aplicamos simultaneamente n comparações, queremos garantir que o nível de significância global do teste de hipóteses seja no máximo α. Esta área da estatística é chamada de procedimento de comparação múltipla.

Muitos procedimentos ou testes que se baseiam nesse tipo de problema usam como referência a taxa de erro por experimento, que representa a probabilidade de ao menos uma hipótese verdadeira ser rejeitada. Para isso, pensemos em n=10 comparações (hipóteses) verdadeiras e independentes, Hi, i=1,2,,10. A probabilidade de cada comparação não ser rejeitada é dada por P(Hi)=1α. Ao passo que, a probabilidade de cada hipótese verdadeira ser rejeitada erroneamente, evento Hic, é dada por P(Hic)=α. Assim, a probabilidade de ao menos uma comparação ser erroneamente rejeitada é dada por: (5.36)P(i=110Hic)=1P(i=110Hi). Vamos usar a ideia do evento complementar, isto é, a probabilidade de termos ao menos uma comparação rejeitada erroneamente é o mesmo que calcularmos a probabilidade do espaço amostral (Ω) menos a probabilidade de nenhuma comparação ser rejeitada erroneamente, que representa a interseção i=110Hi.

Para observarmos que isso é verdade, vamos simplificar para n=2. Vejamos, P(H1cH2c)=P(H1c)+P(H2c)P(H1cH2c)(independentes)=P(H1c)+P(H2c)P(H1c)P(H2c)=α+αα×α=2αα2, isto é, P(H1cH2c)=1P(H1H2)(independentes)=1P(H1)P(H2)=1(1α)(1α)=1(122α+α2)=2αα2, ou ainda P[(H1cH2)(H1H2c)(H1cH2c)]=P(H1cH2)+P(H1H2c)++P(H1cH2c) (disj. e indep.)=P(H1c)P(H2)+P(H1)P(H2c)+P(H1c)P(H2c)=α(1α)+(1α)α+α2=2αα2. Esses resultados foram possíveis porque a condição de independência existente nos eventos também implica em independência nos eventos complementares, Teorema 5.12. Retornando a expressão (), e a condição de independência, obtemos P(i=110Hic)=1(1α)10.

Se considerássemos α=0,05, a probabilidade do erro tipo I por experimento é de 0,4013, isto é, P(i=110Hic)=0,4013. Fixando α=0,05 e variando o número de testes, podemos perceber pela que a taxa de erro por experimento aumenta rapidamente. Esse é o efeito de multiplicidade, um problemas dos procedimentos de comparações múltiplas. Os testes são desenvolvimentos tentando controlar esse tipo de problema, porque baseado no exemplo anterior para n=10, a chance de termos ao menos uma decisão errada de rejeitar uma hipótese verdadeira, quando achávamos que era de 0,05 na realidade foi de 0,4013, muito maior.

Figura 5.3: Representação da taxa de erro por experimento em comparações simultâneas, em relação ao número de testes.

Não aceitarmos a independência das comparações, podemos usar a desigualdade de Boole, Teorema 5.6 (viii e ix), e afirmar que no máximo a taxa de erro por experimento, para α=0,05 e n=10, é dada por:

P(i=110Hic)i=110P(Hic)n×α10×0,050,5, que de fato é verdade, pois 0,4013<0,5. Ou ainda, pela desigualdade de Bonferroni, Teorema 5.6 (x), dizemos que ao menos a probabilidade de todas as decisões serem corretas, isto é, de não rejeitarmos hipóteses verdadeiras simultaneamente, é ao menos

P(i=110Hi)1i=110P(Hic)110×0,050,5.

5.5 Teorema de Bayes

A grande questão agora é qual a máquina que Paulo deveria substituir com o propósito de aumentar seu lucro na empresa. A ideia será calcular P(Mi|D), isto é, dado um defeito na sandália qual a probabilidade de vindo da máquina i? A maior probabilidade será a máquina substituída. Entretanto, ainda não temos ferramenta para resolver essa resposta. Para isso, apresentamos o seguinte Teorema 5.10 a seguir.

Teorema 5.10: Teorema de Bayes
Considere o espaço amostral Ω. Considere uma sequência de eventos A1,A2,,An de Ω, disjuntos, tal que i=1nAi=Ω, e B um evento de Ω, então a probabilidade de Ak, para k=1,2,,n, dado que ocorreu o evento B, denotado por P(Ak|B), é dado por: (5.37)P(Ak|B)=P(B|Ak)P(Ak)i=1nP(B|Ai)P(Ai),k=1,2,,n, para P(Ak)>0 e P(Ai)>0, sendo i=1,2,,n.

Prova
Para um i qualquer, temos P(Ai|B)=P(AiB)P(B)ouP(B|Ai)=P(BAi)P(Ai). Isto implica que P(AiB)=P(B)P(Ai|B)=P(Ai)P(B|Ai). Pela lei da probabilidade total, a probabilidade de B pode ser dada por P(B) = i=1 P(Ai) P(B|Ai). Portanto, P(Ai|B)=P(Ai)P(B|Ai)i=1P(Ai)P(B|Ai), prova concluída.

Tal é a sua importância, que um dos ramos de estudo da inferência estatística é baseado nesse teorema. O Teorema de Bayes fornece uma atualização do conhecimento já existente P(Ak), conhecido como “a priori”, por meio da ocorrência do evento B. Essa atualização é a probabilidade “a posterioriP(Ak|B).

Com esse resultado, Paulo agora pode tomar uma decisão mais plausível, isto é, dado um defeito numa determinada sandália produzida na fábrica, qual a probabilidade desta ter sido produzida em cada uma das máquinas? P(M1|D)=0,01×0,500,016=0,3125P(M2|D)=0,02×0,400,016=0,5000P(M3|D)=0,03×0,100,016=0,1875 A tomada de decisão será substituir a máquina M2. Poderíamos ter tomado uma decisão equivocada se não fosse o teorema de Bayes.

Devemos abrir uma discussão que ocorre muito frequente entre as Definições 5.10 e 5.20, isto é, eventos disjuntos e independência. Nas próprias definições, percebemos a distinção clara entre as características. A primeira se remete a eventos (conjuntos), e a segunda é uma condição probabilística dos eventos. Contudo, em determinados problemas ainda há muita confusão ao tentar resolvê-los. Assim, apresentemos o Teorema 5.11, a seguir.

Teorema 5.11: Eventos disjuntos e independentes
Considere A e B, dois eventos Ω. Se AB= (eventos disjuntos), então A e B são independentes apenas, se e somente se, um dos eventos tiver probabilidade 0.

Prova
Considerando que o evento A tenha probabilidade 0, isto é, P(A)=0, implica que A=. Assim, P(AB)=P(B)=P()=0. A condição de independência entre os dois eventos existe se P(A)P(B)=P(AB), e isso ocorre de fato, P(A)P(B)=P()P(B)=0×P(B)=0=P(AB), o que completa a prova.

Caso esses eventos não tenham probabilidade 0, a condição AB= implica que estes são dependentes. Vejamos o Exemplo 5.25 adaptado de Morettin (), para elucidar essas definições.

Exemplo 5.25: Adaptado de Morettin (2010)
A tabela abaixo dá a distribuição das probabilidade dos quatro tipos sanguíneos, numa certa comunidade.

Tipo sanguíneo A B AB O
Probabilidade de ter o tipo especificado 0,2
Probabilidade de não ter o tipo especificado 0,9 0,95

Calcular a probabilidade de que:

  1. um indivíduo, sorteado ao acaso nessa comunidade, tenha o tipo O;
  2. um indivíduo, sorteado ao acaso nessa comunidade, tenha o tipo A e tipo B ao mesmo tempo. Podemos afirmar, que estes são independentes?
  3. dois indivíduos, sorteados ao acaso nessa comunidade, tenham tipo A e tipo B, nessa ordem;
  4. um indivíduo, sorteado ao acaso nessa comunidade, não tenha o tipo B ou não tenha o tipo AB.

Vejamos que os tipos sanguíneos são mutuamente exclusivos e formam a partição do espaço amostral, uma vez que não existe outro tipo sanguineo além dos informados e que não há indivíduo com dois tipos sanguíneos. Assim,

  1. Consideremos o evento A, os indivíduos da comunidade especificado do tipo sanguíneo A, tal que, A={ωAΩ:ωAA}; o evento B, os indivíduos da comunidade especificado do tipo sanguíneo B, tal que, B={ωBΩ:ωBB}; o evento AB, os indivíduos da comunidade especificado do tipo sanguíneo AB, tal que, AB={ωABΩ:ωABAB}; o evento O, os indivíduos da comunidade especificado do tipo sanguíneo O, tal que, O={ωOΩ:ωOO}. Desse modo, o espaço amostral é dado por Ω={ωA, ωB, ωAB, ωO}, cujos elementos de ω devem estar apenas em um dos eventos anteriores, e que a união de todos os elementos desses formam o espaço amostral, logo esses eventos formam uma partição do espaço amostral (Definição 5.19). Observe também que os elementos não são equiprováveis, como mostrado na tabela de probabilidades na própria questão. Assim, P(Ω) = P(A) + P(B) + P(AB) + P(O) 1 = 0,2000 + 0,1000 + 0,0500 + P(O) P(O) = 0,6500;

  2. Este ítem merece uma atenção. Como os eventos A e B são multumente exclusivos, logo P(AB)=0, e estes não são independentes pois nenhum tem probabilidade 0 (Teorema 5.11), logo A e B são eventos dependentes;

  3. Diferentemente do espaço amostral anterior, neste temos uma combinação de 16 possibilidades a cardinalidade de Ω, uma vez que temos 4 possibilidades para o primeiro indivíduo e mais 4 possibilidades para o segundo indivíduo, isto é, Ω = {(ωA,ωA), (ωA,ωB), (ωA,ωAB), (ωA,ωO), (ωB,ωA), (ωB,ωB), (ωB,ωAB), (ωB,ωO), (ωAB,ωA), (ωAB,ωB), (ωAB,ωAB), (ωAB, ωO), (ωO,ωA), (ωO,ωB), (ωO,ωAB), (ωO,ωO) }. Uma vez determinada as probabilidades de especificação em indivíduos diferentes, a probabilidade de especificar o tipo sanguíneo A em um indivíduo da comunidade não interfere em nada na probabilidade de especificar o tipo sanguíneo de um outro indivíduo dessa mesma comunidade (Uma ressalva é válida, no sentido também que estamos desconsiderando indivíduos consanguíneos, isto é, com grau de parentesco). Assim, a probabilidade de especificar o tipo sanguíneo desses dois indivíduos simultaneamente é P(A)×P(B)=0,2000×0,1000=0,0200. De outro modo, temos que: P(AB)=P({ωA, ωB})=P(ωAAIndivíduo I e ωBBIndivíduo II)=P(ωAA)×P(ωBB)=P(A)×P(B)=0,2000×0,0100=0,0200;

  4. Agora os eventos “não ter o tipo sanguíneo especificado” não implica que os eventos sejam mutuamente exclusivos pelo fato dos eventos “ter o tipo sanguíneo especificado” terem sido disjuntos. Veja, o evento não ter o tipo sanguínio AB e o evento não ter o tipo sanguíneo B, pode existir indivíduos comum a estes dois eventos, por exemplo, um indivíduo do tipo sanguíneo A ou O, e a probabilidade destes não é zero, logo, os eventos não ter o tipo sanguínio AB e não ter o tipo sanguíneo B não são disjuntos. Entretanto, esses eventos são independentes, pois a probabilidade de um evento não influencia na probabilidade do outro. Assim, (5.38)P[(AB)cBc]=P[(AB)c]+P(Bc)P[(AB)cBc]=0,9500+0,9000P[(AB)cBc].

Vejamos o evento (AB)c=ABO e o evento Bc=AABO. A interseção entre estes é (AB)cBc=AO, em que A e O são disjuntos, assim, (5.39)P[(AB)cBc]=P(AO)=P(A)+P(O)=0,20+0,65=0,85. Substituindo () em (), segue que P[(AB)cBc]=0,95+0,900,85=1. De outro modo, (5.40)P[(AB)cBc]=P[(ABB)c](Lei DeMorgan)=1P[(ABB)](Evento complementar)=10(Evento disjunto)=1. Ao final, temos a tabela completada da seguinte forma:

Tipo sanguíneo A B AB O
Probabilidade de ter o tipo especificado 0,20 0,10 0,05 0,65
Probabilidade de não ter o tipo especificado 0,80 0,90 0,95 0,35

Vale a pena discutirmos sobre a independência nessa situação. Quan-do falamos na especificação do tipo sanguínio é fato que um mesmo elemento não pode ser especificado em dois ou mais tipos sanguíneo. Fica claro que os eventos A, AB, B e O, são disjuntos. Agora, será que a probabilidade de especificar, por exemplo, o tipo sanguíneo A, não interfere na probabilidade do tipo sanguíneo B, ou qualquer um outro tipo sanguíneo? Observe que uma vez especificado a probabilidade de um determinado tipo sanguíneo, por exemplo, tipo A, não haverá mais chances de ele ter o tipo sanguíneo B, logo a probabilidade de B ocorrer é 0. Assim, a condição de ter especificado o tipo sanguíneo A alterou a probabilidade de especificar o tipo sanguíneo B. Logo estes eventos são dependentes.

Podemos ainda expressar mais dois teoremas para complementar as afirmações feitas no Exemplo 5.25, e suas implicações em relação aos eventos serem independentes e eventos disjuntos. Inicialmente, apresentamos o Teorema 5.12 como uma implicância da independência de eventos, a seguir.

Podemos ainda expressar mais dois teoremas para complementar as afirmações feitas no Exemplo 5.25, e suas implicações em relação aos eventos serem independentes e eventos disjuntos. Inicialmente, apresentamos o Teorema 5.12 como uma implicância da independência de eventos, a seguir.

Teorema 5.12

Se A e B são eventos independentes, não vazio, definidos em Ω, então

  1. A e Bc também são independentes;
  2. Ac e B também são independentes;
  3. Ac e Bc também são independentes.

Prova
Usando as seguintes equivalências: (5.41)P(A)=P(AB)+P(ABc),

(5.42)P(Ac)=P(AcB)+P(AcBc),

(5.43)P(B)=P(BA)+P(BAc), e 

(5.44)P(Bc)=P(BcA)+P(BcAc), e a condição de que P(AB)=P(A)P(B) (independentes), então usando () temos P(ABc)=P(A)P(A)P(B)(Independência)=P(A)[1P(B)]=P(A)P(Bc), o que prova o ítem (a). Usando () pelo mesmo raciocínio, provamos o ítem (b). Usando o resultado do ítem (a), já provado, e a condição de independência na expressão (), temos P(AcBc)=P(Bc)P(Bc)P(A)=P(Bc)[1P(A)]=P(Bc)P(Ac), o que prova o ítem (c), concluindo assim, a prova do teorema.

Por fim, o Teorema 5.13 apresenta uma implicância sobre eventos disjuntos, a seguir.

Teorema 5.13
Sejam dois eventos A e B em Ω. Se AB=, então AcBc, a menos que A e B sejam partição do espaço amostral.

Prova
Considere AB= e que (5.45)AB=(ABc)(AB)(AcB)=(ABc)(AcB)Ω(A e B não são partição do espaço amostral).

Usando a Lei de Morgan AcBc=(AB)c, logo percebemos pela expressão () que AcBc, o que completa a prova.

5.6 Variável Aleatória

Em estatística, avaliamos um experimento não pelos eventos em si, mas por uma função definida no espaço amostral, que associa o evento a um número real. Chamamos essa função de variável aleatória, denotada por uma letra maiúscula, X ou X(.). Por exemplo, no Exemplo 5.24 verificamos o efeito de multiplicidade de n comparações, e ao invés de computarmos a probabilidade da taxa de erro tipo I por experimento observando o evento i=1nHic , isto é, P(i=1nHic), podemos olhar para uma variável aleatória X(ω) que contabiliza o número de erros possíveis, isto é, {X1}. Considerando que o suporte de X seja {0,1,2,,n}, então a probabilidade pode ser expressa como P(X1), tornando mais simples a notação para o cálculo desejado. O necessário é entender o modelo probabilístico de X, que será abordado posteriormente.

Alguns autores criticam o termo “variável aleatória”, já que a mesma é uma função. Como essa definição ficou conhecida com esse nome, seria um equívoco tentar renomeá-la, do qual é apresentada na Definição 5.22, a seguir.

Definição 5.22: Variável Aleatória
Seja o espaço amostral Ω de um experimento, então uma função X:ΩR é chamada de variável aleatória, isto é, considerando ωΩ, então a variável aleatória, X(ω), é uma função com domínio em Ω e imagem no conjunto dos reais B, tal que B={xR:X(ω)=x, ωΩ}.

Consideramos X uma variável aleatória discreta, quando B representa um conjunto contável (ou enumerável) de valores (finito ou infinito). Por outro lado, se B for um conjunto não contável (ou não enumerável), X será denominada de variável aleatória contínua. O fato é que, independente da natureza da variável aleatória, ela induz a um novo espaço amostral na reta real.

Exemplo 5.26

Para explicar a definição de uma variável aleatória será considerado o exemplo, no qual duas variedades de uma espécie A (A1, A2) e três de outra espécie E (E1, E2 e E3) são disponibilizados para uma pesquisa. Uma amostra de duas variedades (n=2) é extraída. O espaço amostral dos resultados desse experimento, segue,

Ω={(A1,A2)(A1,E1)(A1,E2)(A1,E3)(A2,E1)(A2,E2)(A2,E3)(E1,E2)(E1,E3)(E2,E3)}.

Se for considerado o número de variedades da espécie A na amostra sorteada, percebemos que os valores encontrados são: 0, 1 e 2. É possível associar a esses valores alguns pontos do espaço amostral Ω, formando subconjuntos que seguem:

X(ω) Eventos (Ci)
0 C1={(E1,E2), (E1,E3), (E2,E3)}
1 C2={(A1,E1), (A1,E2), (A1,E3),(A2,E1),(A2,E2),(A2,E3)}
2 C3={(A1,A2)}

No Exemplo 5.26, criamos uma partição do espaço amostral (Ω) e associamos com um outro espaço amostral induzido (ΩX), por meio da variável aleatória X, como pode ser apresentado na .

Figura 5.4: Espaço amostral e espaço amostral induzido pela variável aleatória X.

Para o exemplo do experimento do sorteio das duas variedades, definindo-se X como sendo a variável aleatória relativa a contagem de variedades da espécie A, verificamos que os valores possíveis para x são: 0, 1, 2. É comum representar a variável por X (letra maiúscula) e os seus valores ou realizações por x (a respectiva letra minúscula).

Definição 5.23: Realização de uma variável aleatória
Dado um ωΩ, então x=X(ω)R representa a realização da variável aleatória X.

Considerando ainda o Exemplo 5.26, os pontos de Ω são equiprováveis, então a probabilidade de X assumir um dado valor x será denotado por PX(X=x), P(X=x), pX(x) ou pi com i=1,2,. O primeiro caso, servirá para diferenciar PX(.) uma probabilidade induzida por X quando estivermos relacionando com a probabilidade dos eventos equivalentes do espaço amostral. Para este último, usaremos apenas a notação P(.) sendo denominada também de função de probabilidade de X, para o caso da variável discreta. Quando não tivermos fazendo essa relação, usaremos a probabilidade para X apenas como P(X=x), por exemplo. As duas últimas notações (pX(x) ou pi), serão usadas quando estivermos nos referindo a probabilidade associadas as variáveis aleatórias discretas, que a chamaremos de função de probabilidade.

Supondo que desejamos calcular a probabilidade de C3 ocorrer, temos: (5.46)P(C3)=P({ωΩ:ωC3})=P({(A1,A2)})=#{(A1,A2)}#Ω=110.

Vamos observar que de modo equivalente iremos calcular a probabilidade do evento C3 agora olhando para a variável X, tal que P(C3)=pX(2)=P(X=2), que segue,

(5.47)pX(2)=PX(X=2)=PX(D),(D={2}, Figura 5.4) =PX({xΩX:X(ω)D, ωΩ})=P(X1(2))=P({ωΩ:X(ω)=2})=P({ωΩ:ωC3})=P({(A1,A2)})=P(C3)=110,(resultado 5.46).

Portanto, a partir de agora em diante, iremos calcular as probabilidades dos eventos a partir da variável aleatória. Para um mesmo espaço amostral, é possível associar outras variáveis aleatórias. No exemplo anterior considerado, poderíamos pensar em uma variável aleatória Y que representasse o número de espécies da variedade E. %A função de probabilidade de X define a distribuição de probabilidade dessa variável aleatória, porque X é uma variável aleatória discreta.

Dessa forma, a distribuição de probabilidade pode ser vista como uma correspondência que associa as probabilidades aos valores de uma variável aleatória, que é função do espaço amostral, definida na próxima seção.

5.7 Distribuição de X

Sabemos que uma variável aleatória X, é função dos possíveis resultados ωΩ, e que estes possíveis resultados assumem diferentes valores com diferentes probabilidades. Assim, w é aleatório, e por consequência X também, como já falado anteriormente. Por isso, a variável por ser aleatória, a probabilidade de X assumir um determinado valor x ou está em uma determinada região do espaço amostral induzido, passa a ser importante. Assim, apresentamos a relação entre X e sua probabilidade P(.) por meio da Definição 5.24, a seguir.

Definição 5.24: Distribuição de X
O conjunto de probabilidades PX(X(ω)B)=P({wΩ:X(ω)B, BR}), para todos os subconjuntos de BΩX, em que B é um subconjunto do espaço amostral induzido, é a distribuição de uma variável aleatória X.

Retornando ao Exemplo 5.26, apresentamos a distribuição de X no Exemplo 5.27.

Exemplo 5.27

Considerando que X representa o número de variedades da espécie A, apresentamos a distribuição de X:

X 0 1
P(X=x) 3/10 6/10

5.8 Função de distribuição (FD ou FDA)

Para entendermos o comportamento estatístico de uma variável aleatória, temos que definir sua função de distribuição, em que são caracterizados por eventos da forma B=(,x].

Definição 5.25: Função de distribuição de X
A função de distribuição (FD) ou função de distribuição acumulada (FDA) de uma variável aleatória X, é definida por FX(x)=P(X(,x])=P(Xx), xR.

Para que não haja confusão sobre função de distribuição a qual está relacionada com a variável aleatória X, usamos o subscrito FX. Para entendermos melhor sobre a função de distribuição, mostraremos suas propriedades.

Teorema 5.14: Propriedades da função de distribuição

Uma função de distribuição de uma variável aleatória X obedece as seguintes propriedades:

  1. limxFX(x)=1 e limxFX(x)=0;
  2. FX(x) é uma função não decrescente, isto é, FX(x)FX(y) sempre que xy, x,yR;
  3. FX(x) é contínua à direita, ou seja, para um número x, limxnxFX(xn)FX(x).
Prova
  1. Aplicando a continuidade da probabilidade (Teorema 5.6, vii). Observe que para xn, os eventos [Xxn]={wΩ:X(w)xn} têm como o limite o conjunto vazio. Logo FX(xn)=P(Xxn)0. Tomando xn, os eventos [Xxn]Ω e, portanto FX(xn)=P(Xxn)1;
  2. Note que [Xx][Xy] sempre que xy (Teorema 5.6, iv). Logo as probabilidades satisfazem à desigualdade: FX(x)=P(Xx)P(Xy)=FX(y). Como x e y são arbitrários, concluímos que F é não decrescente.
  3. Seja xR e considere uma sequência {xn, nN+} tal que xnx, ou seja, os xn’s se aproximam de x pela direita ou por valores superiores a x. Então, [Xxn][Xx], e assim, FX(xn)FX(x). Como o resultado vale para qualquer x, a propriedade está verificada.

5.9 Natureza das variáveis aleatórias

Se X é uma variável aleatória definida em Ω, estamos interessados em calcular probabilidade de eventos que envolvem X, isto é, P(wΩ:X(w)B) com BR. A forma que essas probabilidades são calculadas depende da natureza particular de X.

5.9.1 Variável aleatória discreta

Formalmente, definimos

Definição 5.26: Variável Aleatória Discreta
Seja o espaço amostral Ω de um experimento, então a função X:ΩR é chamada de variável aleatória discreta se imagem é um subconjunto contável B, finito ou infinito dos reais, tal que B={xR:X(ω)=x, ωΩ}.

Na realidade, dizer que os valores que a variável aleatória discreta assume em R é dizer que Im(X(w))B.

Exemplo 5.28

Suponha que haja alguma chance de um bit transmitido de um canal digital com erro. Consideremos um bit com erro representado pela letra E, e um bit recebido sem erro, representado por B. Levando em consideração que a transmissão dos bits no canal digital sejam independentes, estamos interessados em verificar nos próximos 3 bits quantos estarão com erro. Desse modo, podemos assumir que o espaço amostral desse experimento é representado da seguinte forma: Ω={(BBB),(EBB),(BEB),(BBE),(EEB),(EBE),(BEE),(EEE)}. A variável aleatória representa o número de bits errados nos próximos três transmitidos. Assim, esta função assume em um conjunto B nos reais, tal que: B={0,1,2,3}. Por exemplo, se ω=(BBB) implica que X((BBB))=0. Observamos na , os demais casos. Logo, como a variável assume valores em um conjunto B contável, dizemos que X é uma variável aleatória contínua.

Tabela 5.1: Espaço amostral e induzido pela variável aleatória discreta X.
ωΩ X(ω)B
(BBB) 0
(EBB) 1
(BEB) 1
(BBE) 1
(EEB) 2
(EBE) 2
(BEE) 2
(EEE) 3

5.9.1.1 Função de probabilidade (FP)

A probabilidade dos valores de X que pertencem a B é dada por P(XB)=P(X=x1 ou X=x2 ou )=P(X=x1)+P(X=x2)+=xBpX(x), em que pX(x), xR, é a função de probabilidade de X, definida por pX(x)=P(X=x). Assim, a probabilidade de um evento envolvendo X é encontrado pela sumarização das funções de probabilidades dos conjuntos de pontos favoráveis ao evento. Em particular, a função de probabilidade determina as probabilidades de os valores possíveis que X possa assumir.

Dessa forma, podemos definir a função de probabilidade da variável aleatória discreta X, a seguir.

Definição 5.27: Função de Probabilidade
Seja X uma variável aleatória discreta, então sua função de probabilidade, pX:R[0,1], é definida por: pX(x)=PX(X=x)=P(X=x)=P({wΩ:X(w)=x}), sendo xPX(x)=1.

Essa definição nos permite observar que para valores distintos de X, se o seu suporte é o conjunto X={x1,x2,}, então Ω=n{w:X(w)=xn}=n{X=xn} e {X=xi}{X=xj}= para ij. Logo, 1=P(Ω)=npX(xn).

De outra forma, definimos

Definição 5.28: Suporte de X (v.a. discreta)
O suporte de uma variável aleatória discreta, denotado por X, tal que XR é dado por (5.48)X={x: pX(x)>0}.

Isso significa que as realizações de X, Definição 5.23, pertencem a X, e que o suporte é a imagem de X contida nos reais tais que a probabilidade de cada elemento ocorrer é maior que zero. Ao passo que, qualquer elemento fora do suporte de X, isto é, xXc, tem probabilidade nula. Vejamos o Exemplo 5.29, para um melhor entendimento de tudo o que falamos.

Exemplo 5.29
Retornando ao exemplo das variedades, Exemplo 5.26, podemos apresentar a distribuição de probabilidade da variável X, número de variedades da espécie A na amostra sorteada, n=2. Cada ponto do espaço amostral amostral foi considerado como equiprovável.

X: número de variedades de A pX(x): probabilidade
0 3/10
1 6/10
2 1/10

Dessa forma, o suporte de X é X={0,1,2}, e cada elemento é uma realização da variável aleatória. Qualquer valor fora do suporte de X tem probabilidade zero, por exemplo, pX(3)=0.

A representação gráfica da função de probabilidade é dada por meio do gráfico de hastes ou bastão, para representar a discretização das realizações no suporte de X, .

Figura 5.5: Representação gráfica da função de probabilidade para os dados do Exemplo 5.29.

5.9.1.2 FDA para as variáveis aleatórias discretas

Anteriormente, afirmamos que a distribuição de X é dada por P(X(ω)B), em que BR. Existe um caso especial, em que B=(,x], em que xR. Assim, dizemos que P(X(ω)(,x]) representa a função de distribuição ou função de distribuição acumulada (FD ou FDA), e em notação temos FX(x)=P(X(ω)(,x]). Para o caso das variáveis aleatórias discretas, usaremos a definição de função de probabilidade (Definição 5.28), sendo apresentada na Definição 5.29, a seguir.

Definição 5.29: Função de distribuição de uma v.a. discreta
A função de distribuição de uma variável aleatória discreta X é a função FX:R[0,1], definida por FX(x)=P(Xx)=xpX(x), para todo xR.

Essa função de distribuição tem a forma de escada sendo descontínua nos valores assumidos pela variável aleatória X, .

Código R 5.1: FDA de uma variável aleatória discreta.
# Anexando o pacote ao caminho de busca
library(leem)
# Funcao de probabilidade
showcdf(prop = NULL)
Figura 5.6: Gráfico da função de distribuição de X.

Outro ponto importante é que xR, isto é, x não necessariamente é elemento do suporte de X. Percebemos na , por exemplo, qualquer valor de x tal que x2x<x3, FX(x)=FX(x2). E percebemos que o suporte de X não contém um x, tal que x2<x<x3. Logo, P(X=x)=0 neste ponto. A função de distribuição nos informa que devemos somar apenas as probabilidades para as realizações até xR. Para isto, olhamos para X e verificamos quais as realizações até x e somamos as suas probabilidades para o cômputo de FX(x). Vejamos o Exemplo 5.30.

Exemplo 5.30

Considere um estudo hipotético do qual desejamos imunizar 1000 pessoas em uma comunidade rural da doença da COVID-19, por meio de uma determinada vacina. Supomos que sejam aplicados 5 doses em cada pessoa, em períodos espaçados, dessa vacina. A cada dose aplicada, as pessoas passam por uma série de avaliações para a verificar se adquiriu imunidade ou não. Caso se verifique a imunidade em uma determinada dose aplicada, esta pessoa não irá tomar a dose subsequente; caso contrário, seguirá tomando as doses subsequentes, até a 5ª dose. Os resultados completos, são apresentados a seguir.

Doses 1 2 3 4 5
Frequência 230 270 300 120 80

Considerando uma pessoa dessa comunidade sorteada ao acaso, poderíamos estar interessados em saber qual a probilidade dela ter recebido 2 doses? usando a ideia da probabilidade frequentista, a probabilidade desejada é de 270/1000 $= $ 0,27. Podemos assim obter a função de probabilidade para a variável aleatória número de doses recebidas, que também pode ser observado pela , da seguinte forma:

Doses 1 2 3 4 5
pi 0,23 0,27 0,30 0,12 0,08
Figura 5.7: Função de probabilidade do número de doses da COVID-19, aplicados em 1000 pessoas.

Pela função de distribuição, podemos responder, por exemplo, a chance de uma determinada pessoa dessa população ter tomado até duas doses, da seguinte forma:

FX(2)=P(X2)=P(X=1)+P(X=2)=0,50.

Apesar da escolha de x ter sido sempre um número inteiro até agora, esse valor fica inalterado no intervalo [2,3). Isto significa que, FX(2,3), FX(2,45) ou FX(2,99) têm os mesmos valores que FX(2). Por isso, escrevemos FX(x)=P(Xx)=0,50,  para  2x<3.

Por fim, apresentamos a função de distribuição para todo x, como também o gráfico dessa função, .

FX(x)={0,sex<1;0,23,se1x<2;0,50,se2x<3;0,80,se3x<4;0,92,se4x<5;1,sex5.

Figura 5.8: Função de distribuição do número de doses da COVID-19, aplicados em 1000 pessoas.

Além de mostrarmos o gráfico da FDA para um variável aleatória discreta, apresentamos as propriedades do Teorema 5.14 no . Primeiro, na Figura verificamos a primeira propriedade do Teorema 5.14. Na , conseguimos observar a segunda propriedade. Com a representação gráfica, fica mais fácil entender a implicância dos resultados encontrados no referido teorema. Observe na o porquê da FX ser contínua à direita. Por exemplo, vamos assumir o ponto a=2 na . Considerando que limxa+F(x)=F(a)=F(2)=0,50. Logo, FX(x) em a é contínua à direita. Ao passo que limxaF(x)=0,23F(a)=F(2)=0,50. Logo, FX(x), em a, não é contínua à esquerda.

Código R 5.2: Propriedades da FDA de uma variável aleatória discreta.
# Anexando o pacote leem
library(leem)
# Propriedade 1
showcdf(prop = 1)
Figura 5.9: Propriedade (i) do Teorema 5.14 para FDA de uma v.a. discreta.
# Propriedade 1
showcdf(prop = 2)
Figura 5.10: Propriedade (ii) do Teorema 5.14 para FDA de uma v.a. discreta.
# Propriedade 1
showcdf(prop = 3)
Figura 5.11: Propriedade (iii) do Teorema 5.14 para FDA de uma v.a. discreta.

Uma característica interessante é que da distribuição de probabilidade obtemos a função de distribuição e vice-versa, do qual apresentamos a seguir.

Teorema 5.15: Relação entre pX e FX
Considerando uma variável aleatória discreta X, Definição 5.26, então a função de distribuição (FX) pode ser obtida a partir da função de probabilidade (pX), e vice-versa.

Prova

Seja o suporte de X dado por X={x1,x2,}, então:

  • supomos o conhecimento de pX(x). Logo, FX(x)=xixpX(xi)=xixPX(X=xi);
  • supomos o conhecimento de FX(xi), xiX. Logo, pX(xi)=FX(xi)limϵ0FX(xiϵ), para ϵ>0.

5.9.2 Variável aleatória contínua

Observamos que seria muito restritivo definir apenas variáveis aleatórias cujo resultado da função assumisse apenas em um conjunto contável. Por isso, uma outra natureza de variável aleatória modela situações cuja função assume em um conjunto infinito não contável dos reais, do qual apresentamos na Definição 5.30.

Definição 5.30: Variável Aleatória Contínua
Seja o espaço amostral Ω de um experimento, então a função X:ΩR é chamada de variável aleatória contínua, se a sua imagem é um subconjunto B, infinito não enumerável dos reais, e que P(X=x)=0, para todo xR.

Existem diversos exemplos de variáveis aleatórias contínuas, tais como: a carga (g/cm) em uma viga de uma determinada construção civil, a concentração de um corante (g/l) para fabricação de tintas, diâmetro de roldanas (mm) em uma máquina desenvolvida para o processo de conformação a frio com o objetivo de melhorar as propriedades ótimas de um fio de arame, dentre outras.

Agora, supomos que estipulássemos o tempo de execução de um algoritmo computacional para uma determinada atividade no intervalo [0h, 1h], como verificado na .

Figura 5.12: Tempo de execução de um algoritmo computacional.

Considerando X uma variável aleatória contínua que mede o tempo de execução do algoritmo no intervalo da , qual seria a probabilidade dessa execução ser realizada em 0,5h, isto é, P(X=0,5)? Sabemos que infinitas possibilidades são possíveis no intervalo. Se disséssemos que essa probabilidade é 0. Sim, exatamente, a probabilidade P(X=0,5)=0.

Para qualquer intervalo que assumíssemos, o fato de existir infinitas realizações para X, se essa probabilidade fosse diferente de zero, por exemplo, um ϕx valor positivo próximo de zero, então x[0,1]P(X=x), e isso seria uma contradição, de acordo com a Definição 5.17 (Axioma i), não importa o quão pequeno seja ϕx. Mas não implica dizer que esta situação seria impossível, porque o evento {X=0,5} existe no intervalo. Porém, como P(Ω=[0, 1])=1, se todos os valores de X têm probabilidade 0?

Evento certo não implica em certeza de ocorrência de seus elementos em um experimento!

Considere X uma variável aleatória contínua que assume valores no conjunto dos irracionais no intervalo [0,1], similar ao exemplo que apresentamos na . A probabilidade de X assumir um número racional, isso representa um evento certo e tem probabilidade 1, isto é, P({X=xI}={xI[0,1]:xII})=1. Porém, um resultado possível é 1/2 que não é irracional. Da mesma forma, como afirmamos no início da seção que um evento com probabilidade 0 não implica que ele seja impossível.

5.9.2.1 Função densidade de probabilidade (FDP)

Anteriormente, afirmamos que uma variável aleatória X é contínua se P,(X=x)=0. Assim, como poderíamos atribuir probabilidade às variáveis aleatórias? Com o intuito de resolver esse problema, definimos a função densidade de probabilidade a seguir.

Definição 5.31: Função densidade de probabilidade

Seja f:RR uma função. Então f é uma função densidade se:

  1. f(x)0 para todo xR, e
  2. f(x)dx=1.

Podemos observar que a função densidade de probabilidade foi definida sem fazer referência a uma variável aleatória contínua. Apenas que satisfaça as duas condições apresentadas na Definição 5.31.

Exemplo 5.31
Vamos verificar se f(x)=1128ex/128 é uma densidade de probabilidade para x0. A variável aleatória X representa o tempo de vida de uma espécie vegetal arbórea dada em anos. Para verificarmos se fX é uma função densidade de probabilidade, devemos provar as condições:

  1. f(x)0, pois ex/1280,  x0, e 1/128 é uma constante sempre positiva.

  2. Verificar se 0f(x)dx=1.

Inicialmente vamos relembrar a derivada de uma função h(x)=emx: h(x)=memx, integrando em ambos os lados, temos: h(x)dx=memxdx,h(x)=memxdx,h(x)m=emxdx, como h(x)=emx, então, (5.49)emxdx=emxm+c.
Assim, se considerarmos m = 1/128, então começamos a prova do item (ii).

01128e1128xdx=11280e1128xdx,idêntica a eq.(5.49)=1128[e(1/128)x1/128]0,=1128[0(e(1/128)×01/128)],=1128[128e0]=1128×128×1=1. Portanto, f(x) é uma função densidade.

Vejamos o Exemplo 5.32, uma outra situação para determinarmos uma função densidade de probabilidade.

Exemplo 5.32
Seja f(x)={1/6x+k,se 0x30,em qualquer outro caso. Encontrar o valor de “k” na função para que f(x) seja FDP. Para determinar o valor de k, então 03(1/6x+k)dx=1. Assim, (5.50)03(1/6x+k)dx=[1/6x22+xk]03=1/6322+3k. Igualando () a 1, temos: 1/6322+3k=1k=1/12. Portanto, f(x)=1/6x+1/12 é uma FDP.

Com a Definição 5.31, podemos redefinir formalmente uma variável aleatória contínua.

Definição 5.32: Variável aleatória absolutamente contínua
Uma variável aleatória X é absolutamente contínua se existe uma função densidade fX(x), tal que (5.51)FX(x)=xfX(t)dt, para todo xR.

A partir da Definição 5.32, usamos a notação para a FDP de X como fX, para associá-la com a respectiva variável aleatória contínua. Na Definições 5.30 e 5.32, percebemos que fX(x) não é unicamente definida. Mas se requer que a integral de fX(x) exista para todo x. Vejamos o Exemplo 5.33.

Exemplo 5.33
Considere IA uma função indicadora do conjunto A, e suponha que FX(x) $= $ xI[0,1)(u) + I[1,)(u), então fX(u)=I(0,1)(u) satisfaz FX(x) = xfX(u)du. Agora, se considerarmos fX(u) = I(0,1/2)(u) + 35I[1/2](u) + I(1/2,1)(u), também satistaz FX(x) = xfX(u)du. Ou seja, a função densidade é mudada em alguns pontos, e FX não se altera. Portanto, o correto ao invés de dizermos “a” função densidade de probabilidade, seria “uma” função densidade de probabilidade.

Definiremos a seguir uma FDA para o caso contínuo, já mencionado na Definição 5.32, expressão ().

5.9.2.2 FDA para as variáveis aleatórias contínuas

Assim como no caso discreto, também apresentaremos a FDA para as variáveis aleatórias absolutamente contínuas.

Definição 5.33: Função de distribuição de uma variável aleatória contínua
Se X é uma variável aleatória absolutamente contínua, a função de distribuição FX, se existir uma função densidade fX, é definida por FX(x)=xfX(t)dt, xR.

Exemplo 5.34
No canal do Youtube ocorreram 200 acessos em 48 horas. Qual a probabilidade de não haver acessos nos próximos cinco minutos?

Consideremos X um variável aleatória que mede o tempo, a partir de um tempo inicial (t0), até o tempo em que houve o primeiro acesso no canal. Podemos considerar também que se assumirmos Y como sendo uma variável aleatória que conta o número de acessos em 5 minutos, dizemos que YPoisson(λx), em que λ representa o número médio de acessos por minuto e x representa o valor do tempo, em minutos.

Diante dessas informações, podemos determinar a distribuição de X a partir da distribuição de Y. Assumir que não tenha acessos (Y=0) nos próximos 5 minutos (x), significa dizer que o primeiro acesso superior aos 5 minutos, é equivalente a dizer que Y=0 do início da contagem do tempo até os cinco minutos. Generalizando a expressão para um x qualquer, e que o tempo de verificação do experimento seja maior que x, então (5.52)P(X>x)=P(Y=0)=eλx(λx)00!=eλx. Pela Definição 5.25, temos que a função de distribuição de X pode ser dada como: (5.53)FX(x)=P(Xx)=1P(X>x)=1eλx,(Resultado de 5.52) para x0. O resultado em () representa a distribuição acumulada de uma variável aleatória X que tem distribuição exponencial, em notação XExp(λ).

Retornando a solução do problema inicial, temos que:

200 acessos $48 $ horas
λ acessos 1 hora,

logo, λ=4,166667 acessos por hora. Assim, usando (), temos

P(X>5/60)=P(X>0,083333)=e4,166667×0,833333=0,7066484, isto é, a chance de não haver acessos nos próximos 5 minutos é em torno de 71%.

Podemos representar graficamente as funções: FDP e FDA. Com a Definição 5.33, podemos retornar ao que falamos anteriormente, pelo seguinte teorema:

Teorema 5.16: Variável aleatória absolutamente contínua implica em variável aleatória contínua
Se X é uma variável absolutamente contínua, então X é também uma variável contínua.

Prova
Pela continuidade da probabilidade, Teorema ???, item (vii), considere xR. Então, podemos afirmar que P(X=x)=P(xXx). Agora, pela Definição 5.25 e para um pequeno valor positivo de δ, temos P(X=x)=P(xδXx)=FX(x)limδ0FX(xδ)=0, para todo xR.

Há casos patológicos, em que mesmo tendo uma variável aleatória contínua, FX(x) não é diferenciável devido a fX(x). Nesses casos, a variável aleatória não é absolutamente contínua Kachapova e Kachapov () . Portanto, uma variável é absolutamente contínua se () se mantiver. Assim, iremos omitir a palavra “absolutamente” ao mencionarmos uma variável aleatória absolutamente contínua, uma vez que os casos em que isso não ocorre são considerados patológicos e não merecedores de atenção, exceto em casos muito particulares e avançados.

Da mesma forma como ocorre no caso discreto, também apresentamos o suporte de X para o caso contínuo na Definição 5.34.

Definição 5.34: Suporte de X (v.a. contínua)
O suporte de uma variável aleatória contínua, denotado por X, tal que XR é dado por (5.54)X={x: fX(x)>0}, sendo fX apresentada na Definição 5.31.

Diremos que integrar a função densidade de X em seu suporte resulta em 1, que é o equivalente ao somar todas as probabilidades no suporte de X, sendo X uma variável aleatória discreta.

A partir de uma função distribuição podemos obter uma função densidade, como também o contrário é válido, sendo apresentado no Teorema 5.17, a seguir.

Teorema 5.17: Relação entre FX e fX de uma variável aleatória contínua
Seja X uma variável aleatória contínua. Então, a partir de uma função densidade fX(x) pode ser obtido a função de distribuição FX(x), e vice-versa.

Prova
Se X é uma v. a. contínua e sua fX(x) é conhecida, então FX(x) é obtida pela integração xfX(u)du, usando a própria Definição 5.33. Ao passo que, se FX(x) é conhecida, então a função densidade pode ser obtida por fX(x)=dFX(x)/dx, nos pontos em que x seja diferenciável, sendo validada pelo teorema fundamental do cálculo.

Exemplo 5.35
Retornando ao resultado () obtido no Exemplo 5.34, podemos usar o Teorema 5.17 para descobrir a função densidade de probabilidade de X, isto é, (5.55)fX(x)=ddxFX(x)=λeλx, que representa a função densidade de probabilidade de uma variável aleatória X que tem distribuição exponencial, com λ>0 e suporte de X igual a X=[0,).

Diferentemente do gráfico de FX(x) para X uma variável aleatória discreta, vamos observar o caso contínuo por meio do . Pelo fato da função distribuição de uma variável aleatória contínua está bem comportada, é fácil observar as propriedades apresentadas no Teorema 5.14, Figuras a . Por exemplo, a propriedade (iii) do Teorema 5.14, para este caso, poderia ser estendida para xnx e para xnx pelo fato da continuidade de Fx, o que não seria verdade para o caso discreto, observe a .

Código R 5.3: Propriedades da FDA de uma variável aleatória contínua.
# Anexando o pacote leem
library(leem)
# Propriedade 1
showcdf(variable = 2, prop = 1)
Figura 5.13: Propriedade (i) do Teorema 5.14 para FDA de uma v.a. contínua.
# Propriedade 2
showcdf(variable = 2, prop = 2)
Figura 5.14: Propriedade (ii) do Teorema 5.14 para FDA de uma v.a. contínua.
# Propriedade 3
showcdf(variable = 2, prop = 3)
Figura 5.15: Propriedade (iii) do Teorema 5.14 para FDA de uma v.a. contínua.

5.10 Função quantil, Função de sobrevivência e função s-quantil

Outras funções são interessantes no contexto de variáveis aleatórias, principalmente quando as distribuições estiverem associados as estatísticas de testes de hipóteses, . As funções apresentadas a seguir são: função quantil, função de sobrevivência e função s-quantil.

Definição 5.35: Função quantil
Considerando uma variável aleatória X com função de distribuição FX, então a função Q:[0,1]R, é chamada de função quantil, definida por: (5.56)Q(p)=F1(x)=inf{xR: F(x)p},

para todo p[0,1]. Dizemos ainda que Q representa a função inversa de FX, de modo que x representa o menor valor tal que FX(x)p. Portanto, Q(p) representa o p-ésimo quantil de X.

A expressão () é definida dessa forma devido a condição da FX para a variável aleatória discreta ser descontínua à esquerda, como já mostrado anteriormente. Para o caso das variáveis aleatórias contínuas, pelos fato das FDAs dessas variáveis serem contínuas, para cada p sempre existirá um Q(p)=x. Dessa forma, precisamos de uma definição geral como a apresentada na Definição 5.35. Apresentaremos uma sequências de exemplos para um melhor entendimento da função quantil.

Exemplo 5.36
Considere X uma variável aleatória com distribuição exponencial, cuja função densidade é dada por: fX(x)=λeλx,x0,λ>0. A função de distribuição é dada por: (5.57)FX(x)=0xλeλtdt=λ[1λeλt]0x=1eλx. Agora, vamos determinar a função quantil, Q(p)=u, para um dado valor de p, em que 0<p<1, tal que FX(u)=p. Vamos resolver a equação, dado que FX ja foi obtido em (), assim, 1eλu=peλu=1p. Aplicando o logaritmo natural, temos λu=ln(1p)u=1λln(1p), logo, a função quantil de X é Q(p)=1λln(1p).

Nem sempre é possível determinar analiticamente uma função quantil de uma determinada variável aleatória, devido as limitações de uma forma fechada para a inversa de FX. Mesmo assim, ainda é possível em muitas situações obter o valor para uma determinada função quantil. Vejamos mais um exemplo.

Exemplo 5.37
Considere X uma variável aleatória discreta com distribuição binomial, cuja função de distribuição é dada por: FX(x)=i=0x(ni)θi(1θ)ni, em que os parâmetros da distribuição são n>1 e 0<θ<1. Podemos perceber que inverter a FX neste caso, não é algo simples. Short () apresenta alguns resultados assintóticos para o quantil da binomial. Essa situação ocorre sempre quando a variável aleatória é discreta. Por isso que na Definição 5.35 afirmamos o quantil representa o menor valor tal que FX(x)p. Por exemplo, se considerarmos n=10 e θ=0,5, poderíamos estar interessados em saber qual o quantil de X para p=0,05, isto é, Q(0,05)? Uma alternativa então para calcularmos o quantil nessa situação será calcularmos a probabilidade dos valores de X até verificarmos de forma acumulada se a soma dessas probabilidades resultam no valor no mínimo igual p, isto é, x=0pX(0)=(100)0,50(10,5)100=0,0009765625,x=1pX(1)=(101)0,51(10,5)101=0,009765625,x=2pX(2)=(102)0,52(10,5)102=0,04394531,x=3pX(3)=(103)0,53(10,5)103=0,1171875. Dessa forma, podemos perceber que: FX(0)=pX(0)=0,0009765625,FX(1)=pX(0)+pX(1)=0,01074219,FX(2)=pX(0)+pX(1)+pX(2)=0,0546875,FX(3)=pX(0)+pX(1)+pX(2)+pX(3)=0,171875. Assim, o Q(0,05)=2 porque este valor é o menor x tal que FX(x)p. Observe que FX(3)0,05, porém x=3 não representa o menor valor para esta condição. Usando o pacote leem, podemos representar a função quantil da seguinte forma…

Exercícios propostos

Exercício 5.1
Defina o que é um experimento aleatório e exemplifique.

Solução
Verifique a Definição 5.1 e formule uma resposta.

Exercício 5.2
Defina o que é um espaço amostral e exemplifique.

Solução
Verifique as Definições 5.2 e 5.3 e formule uma resposta.

Exercício 5.3

Para cada um dos casos abaixo, escreva o espaço amostral correspondente e conte seus elementos.

  1. Uma moeda é lançada duas vezes e observam-se as faces obtidas.
  2. Um dado é lançado duas vezes e a ocorrência de face par ou ímpar é observado.
  3. Dois dados são lançados simultaneamente e estamos interessados na soma das faces observadas.
  4. Em uma cidade, famílias com 3 crianças são selecionadas ao acaso, anotando-se o sexo de cada uma.
Solução
  1. Consideremos Ci e Ki, as faces superiores cara e coroa, respectivamente, para as moedas i=1,2. Assim, o espaço amostral é dado por Ω={(C1,C2),(C1,K2),(K1,C2),(K1,K2)} e #Ω=4;

  2. Segue o resultado para o dado:

Dado 1 2 3 4 5 6
Resultado Ímpar Par Ímpar Par Ímpar Par

Considerando que foi lançado duas vezes o dado, cada elemento é um par de resultados, e ainda, mesmo alguns resultados representando elementos iguais, como por exemplo, {(Par, Par)} = {(2, 2), (2, 4), (2, 6), …}, no espaço amostral só teremos o elemento (Par, Par). Assim, o espaço amostral é dado por Ω = {(Par, Par), (Par, Ímpar), (Ímpar, Par), (Ímpar, Ímpar)}, com #Ω=4;

  1. O espaço amostral para a somas das faces superiores de dois dados lançados é Ω={2,3,4,5,6,7,8,9,10,11,12}, com cardinalidade #Ω=11;
  2. O espaço amostral para esse experimento aleatório, considerando F - pessoa do sexo feminino e M - pessoa do sexo masculino, é: Ω={(F,F,F),(F,F,M),(F,M,F),(M,F,F),(F,M,M),(M,M,F),(M,F,M),(M,M,M)}, com cardinalidade #Ω=8.
Exercício 5.4

Duas pessoas A e B, lançam três moedas de modo independente, e nessa ordem, primeiro a pessoa A, depois a pessoa B, alternadamente. Nesse jogo, ganha quem conseguir três faces iguais, sendo finalizado com a vitória de um dos competidores. Assim, perguntamos:

  1. Qual a probabilidade de A ganhar?
  2. Qual a probabilidade de B ganhar?

Solução
Essa questão exige um conhecimento avançado de progressão aritmética. Vejamos, inicia-se o jogo com A, posteriormente, B. Enquanto ninguém ganhar o jogo prossegue. Dessa forma, as jogadas em que A pode ganhar são 1ª, 3ª, 5ª, 7ª, …, e assim por diante. As jogadas em que B pode ganhar são 2ª, 4ª, 6ª, …, e assim por diante.

  1. Vejamos, as chances de A ganhar:
Jogada Situação Probabilidade
3 moedas caras ou 3 coroas 2×(1/2)3=1/4
A perder, B perder e A ganhar $(3/4)^2 /4 $
A perder, B perder, A perder, B perder e A ganhar (1/3)4×1/4

Percebe-se que a sequência 1/4, 1/4[(3/4)2]1, 1/4[(3/4)2]2, 1/4[(3/4)2]3, , é uma progressão geométrica (PG) em que o primeiro elemento é a1=1/4 e a razão é q=(3/4)2. Pode-se mostrar que a soma infinita de uma PG é dada por: (5.58)S=a11q, que representa a probabilidade de A ganhar, isto é, P(A ganhar)=1/41(3/4)2=4/7;

  1. As chances de B ganhar são:
Jogada Situação Probabilidade
A perder e B ganhar (11/4).1/4=3/4×1/4
A perder, B perder, A perder e B ganhar (3/4)3×1/4
A perder, B perder, A perder, B perder, A perder e B ganhar (3/4)5×1/4

A série pode ser expressa como: 3/16, 3/16×[(3/4)2]1, 3/16×[(3/4)2]2, …, e assim por diante. Pelo mesmo raciocínio feito na probabilidade de A ganhar, temos que a probabilidade de B ganhar é: P(B ganhar)=3/161(3/4)2=37.

Exercício 5.5

Uma Universidade tem 10 mil alunos dos quais 4 mil são considerados esportistas. Temos ainda que 500 alunos são do curso de Administração noturno, 700 de Ciências contábeis noturno, 100 são esportistas e da Administração noturno e 200 são esportistas e da Ciências contábeis noturno. Qual a probabilidade de:

  1. Ser esportista;
  2. Ser esportista e aluno da Administração;
  3. Ser esportista ou aluno da Ciências contábeis;
  4. Não ser esportista nem aluno da Administração.
Solução

  1. E - Evento ser Esportista, logo P(E)=4.000/10.000=0,40;

  2. EA - Esportista e aluno da Administração, logo P(EA) = 100/10.000;

  3. E - Evento ser esportista; C - Evento ser da C. Contábeis, logo, P(EC)=P(E)+P(C)P(EC)=4.000/10.000+ 700/10.000200/10000=4.500/10.000.

  4. E - Evento ser esportista; A - Evento ser da administração, como P(EA)=P(E)+P(A)P(EA)=4.000/10.000+ 500/10.000100/10.000=4.400/10.000, logo P(EA)c=14.400/10.000.

Exercício 5.6
Sejam A e B dois eventos em um dado espaço amostral, tais que P(A)=0,2, P(B)=p, P(AB)=0,5 e P(AB)=0,1. Determine o valor de p.

Solução
P(AB)=P(A)+P(B)P(AB)P(B)=P(AB)+ P(AB)P(A)=0,5+0,10,2=0,4.

Exercício 5.7

Se P(A)=12; P(B)=14, e A e B são mutuamente exclusivos, calcular:

  1. P(Ac).
  2. P(Bc).
  3. P(AB).
  4. P(AB).
  5. P(AcBc).
Solução
  1. P(Ac)=112=12;

  2. P(Bc)=114=34;

  3. P(AB)=0;

  4. P(AB)=P(A)+P(B)=12+14=34;

  5. P(AcBc)=P[(AB)c]=134=14.

Exercício 5.8

Se P(A)=12; P(B)=13 e P(AB)=13. Calcule:

  1. P(AB);
  2. P(AcB);
  3. P(AcBc).
Solução
  1. P(AB)=P(A)+P(B)P(AB)=12+1313=12;

  2. P(AcB)=P(Ac)+P(B)P(AcB)= P(Ac)+P(B)=56, uma vez que P(AcB)=0, pois BA (já que P(AcB)=P(B));

  3. P(AcBc)=P[(AB)c]= 1P(AB)=112=12;

Exercício 5.9

Dois dados são lançados simultaneamente. Qual a probabilidade de:

  1. a soma ser menor que 4;
  2. a soma ser 9;
  3. o primeiro resultado ser maior que o segundo.
Solução
Dado 1 1 2 3 4 5 6
Dado 2 1 2 3 4 5 6
  1. A - Evento: soma ser menor que 4, logo P(A)=#{Soma ser menor que 4}36=336;

  2. B - Evento: soma ser 9, logo P(B)=#{Soma ser 9}36=436

  3. C - Evento: o primeiro resultado ser maior que o segundo, logo P(C)=#{1º Resultado ser maior que o 2º Resultado}36=1536.

Exercício 5.10
Qual a probabilidade de sair um rei ou uma carta de copas, quando retiramos uma carta de um baralho?

Solução
Considerando que um baralho tem 52 cartas, 4 cartas rei, e 13 cartas com naipe copas, sendo 1 rei de copas, e ainda R: carta rei, C: Carta de copas, logo

P(RC)=P(R)+P(C)P(RC)=452+1352152=1652.

Exercício 5.11

As probabilidades de três jogadores marcarem um pênalti são respectivamente: 23, 45 e 710. Se cada um ``cobrar’’ uma única vez, qual a probabilidade de:

  1. todos acertarem?
  2. apenas um acertar?
  3. todos errarem?

Solução
Evento J1: o jogador 1 marca o pênalti; Evento J2: o jogador 2 marca o pênalti; Evento J3: o jogador 3 marca o pênalti. Assim,

  1. Todos acertarem:

P(J1J2J3)=P(J1)×P(J2)×P(J3)=23×45×710=2875.

  1. Apenas um acertar:

P(J1J2cJ3c)+P(J1cJ2J3c)+P(J1cJ2cJ3)(23×15×310)+(13×45×310)+(13×15×710)125+225+715016.

  1. Todos errarem:

P[J1cJ2cJ3c]=13×15×310=150.

Exercício 5.12

Dois armários guardam as bolas de voleibol e basquete. O armário 1 tem três bolas de voleibol e 1 de basquete, enquanto o armário 2 tem 3 de voleibol e 2 de basquete. Escolhendo-se ao acaso um armário e, em seguida, uma de suas bolas, calcule a probabilidade dela ser:

  1. De voleibol, sabendo-se que o armário 1 foi escolhido;
  2. De basquete, sabendo-se que o armário 2 foi escolhido;
  3. De basquete.
Solução

Considerando os eventos V: bola de volei; B: bola de basquete; A1: bola no armário 1; A2: bola no armário 2, assim

  1. P(V|A1)=P(VA1)A1=3/94/9=34.

  2. P(B|A2)=P(BA2)P(A2)=2/95/9=25.

  3. Essa questão nos remete uma atenção. O enunciado está desejando calcular a probabilidade de escolher um armário e em seguida uma de suas bolas, sendo esta de basquete. Como neste ítem não foi identificado qual armário seria o escolhido, vamos identificar o evento A1 que representa a escolha do armário 1, e o evento A2 que representa a escolha do armário 2. Estes eventos são diferentes dos eventos A1 e A2, respectivamente, pois estes últimos representam os eventos de escolher as bolas nestes respectivos armários e não a escolha do armário. Logo, a chance de escolhermos um dos armários é 50%, isto é, P(A2)=P(A2)=1/2. Dessa forma, a probabilidade de escolhermos um armário e uma bola de basquete pode ser dada por: P(B)=P(A1)×P(B|A1)+P(A2)×P(B|A2)=1/2×1/4+1/2×2/5=1340=0,3250.

Exercício 5.13
Em certo colégio, 5% dos homens, 2% das mulheres têm mais do que 1,80m. Por outro lado, 60% dos estudantes são homens. Se um estudante é selecionado aleatoriamente e tem mais de 1,80m de altura, qual a probabilidade de que o estudante seja mulher?

Solução

Seja A o evento do estudante ter mais de 1,80m, e considere M o evento do estudante ser mulher. Temos as seguintes informações disponíveis, P(H)=0,60, P(M)=0,40, P(A|H)=0,05 e P(A|M)=0,02. Para calcularmos o evento A, temos P(A)=P(AM)+P(AH)=P(A|M)P(M)+P(A|H)P(H)=0,02×0,40+0,05×0,6=0,038. Assim, para calcularmos P(M|A) temos P(M|A)=P(MA)P(A)=0,0080,038=0,2105.

Exercício 5.14

A probabilidade de uma mulher está viva daqui a 30 anos é 34 e a de seu marido, 35. Calcular a probabilidade de:

  1. apenas o homem está vivo;
  2. somente a mulher está;
  3. ambos estarem vivos.
Solução

Considere o evento H - homem está vivo; e o evento M - mulher está viva. Assim,

  1. P(HMc)=P(H)×P(Mc)=35×14=320;

  2. P(HcM)=P(Hc)×P(M)=25×34=620;

  3. P(HM)=P(H)×P(M)=35×34=920.

Exercício 5.15

Se P(AB)=0,8, P(A)=0,5 e P(B)=x, determine o valor de x no caso de:

  1. A e B serem mutuamente exclusivos;
  2. A e B serem independentes.
Solução
  1. P(AB)=P(A)+P(B)P(B)=0,80,5=0,3.

  2. P(AB)=P(A)+P(B)P(AB). Se A e B são independentes, então P(AB)=P(A)×P(B). Logo, P(AB)=P(A)+P(B)P(A)P(B)=P(A)+P(B)[1P(A)]=P(A)+P(B)P(Ac)0,8=0,5+P(B)×0,5, que resulta em P(B)=0,80,50,5=0,30,5=0,60.

Exercício 5.16
Se P(B) = 0,4, P(A) = 0,7 e P(AB)=0,3, calcule P(A|Bc).

Solução

Considerando que P(Bc)=1P(B)=0,6, então

P(A|Bc)=P(ABc)P(Bc)=0,40,6=0,6667.

Exercício 5.17
O São Paulo Futebol Clube ganha com probabilidade 0,7 se chove e 0,8 se não chove. Em Dezembro, a probabilidade de chuva é de 0,3. O São Paulo ganhou uma partida em Dezembro, qual a probabilidade de ter chovido nesse dia?

Solução
Problema resolvido pelo teorema de Bayes. Consideremos o evento G o evento das vitórias do São Paulo, e X o evento de chover. Assim, P(X|G)=P(G|X)P(X)P(G|X)P(X)+P(G|Xc)P(Xc)=0,7×0,30,7×0,3+0,8×0,7=0,210,77=0,2727.

Exercício 5.18
Três máquinas A, B, e C produzem, respectivamente 30%, 50% e 20% do total de peças de uma fábrica. As porcentagens e peças defeituosas nas respectivas máquinas são 3%, 5% e 2%. Uma peça é sorteada ao acaso, e verifica-se que é defeituosa. Qual a probabilidade de que a peça tenha vindo da máquina B?

Solução
Considerando D o evento defeito, temos P(B|D)=P(D|B)P(B)P(D|A)P(A)+P(D|B)P(B)+P(D|C)P(C)=0,05×0,500,03×0,30+0,05×0,50+0,02×0,20=0,02500,038=0,6579.

Exercício 5.19

Numa certa população, a probabilidade de gostar de teatro é de 1/3, enquanto que a de gostar de cinema é 1/2. Determine a probabilidade de gostar de teatro e não de cinema, nos seguintes casos:

  1. Gostar de teatro e gostar de cinema são eventos disjuntos.
  2. Gostar de teatro e gostar de cinema são eventos independentes.
  3. Todos que gostam de teatro gostam de cinema.
  4. A probabilidade de gostar de teatro e de cinema é de 1/8.
  5. Dentre os que não gostam de cinema, a probabilidade de não gostar de teatro é de 3/4.
Solução

Seja T o evento de gostar de teatro, e B o evento de gostar de cinema. Assim, temos que T=(TB)(TBc).

  1. Como P(TB)=0, então P(TBc)=P(T)=1/3.

  2. P(TBc)=P(T)P(T)P(B)=1/31/3×1/2=1/6.

  3. Nesse caso, TB, logo TBc=. Assim, P(TBc)=0.

  4. P(TBc)=P(T)P(TB)=1/31/8=5/24.

  5. Sabemos que P(Tc|Bc)=3/4, e que P(Tc|Bc)+P(T|Bc)=1, então P(T|Bc)=1/4. Sabemos também que P(TBc)=P(T|Bc)×P(Bc)=P(T|Bc)×[1P(B)]=1/4(11/2)=1/8.

Exercício 5.20
A probabilidade de fechamento de cada relé do circuito apresentado a seguir é dada por p. Se todos os relés funcionarem independentemente, qual será a probabilidade de que haja corrente entre os terminais L e R?

![](figures/cap5/circuitos1.png]

Solução

P(AB)=P(A)+P(B)P(AB)=p2+p2p4=2p2p4.

Exercício 5.21
A probabilidade de fechamento de cada relé do circuito apresentado a seguir é dada por p. Se todos os relés funcionarem independentemente, qual será a probabilidade de que haja corrente entre os terminais L e R?

Solução

P(ABC)=P(A)+P(B)+P(C)P(AB)P(AC)P(BC)+P(ABC)=p2+p+p2p3p4p3+p5=2p2+p+2p3p5.

Exercício 5.22
Considerando a população brasileira vacinada de covid-19 até o dia 13/06/2021, de acordo com o Ministério da Saúde, de uma população vacinável de 160.044.909 milhões de pessoas, observou-se que 826.158 mil pessoas tomaram apenas a primeira dose da vacina, 1.950.914 milhões de pessoas tomaram a primeira e a segunda dose, sendo que 157.267.837 milhões de pessoas ainda não tomaram vacina. Considerando essas informações apresente a função de distribuição de X, sendo X o número de doses aplicadas na população vacinável.

Solução
FX(x)={0,se x<0,157.267.837160.044.908,se 0x<1,158.093.995160.044.908,se 1x<2,1,se x2.

Exercício 5.23

Considere X uma variável aleatória discreta, cuja sua função de distribuição é dada por: FX(x)={0,se x<5,0,2,se 5x<7,0,5,se 7x<8,0,9,se 8x<20,1,se x20. Determine:

  1. a função de probabilidade de X;
  2. P(X7);
  3. P(X<7);
  4. P(8X18);
  5. P(X15);
  6. qual é o valor da esperança matemática? E a mediana? E a moda?

Solução
Considere a função de probabilidade:

x 5 7 8 20
pX(x) 0,2 0,3 0,4 0,1

Assim, temos que:

  1. P(X7)=P(X=5)+P(X=7)=0,2+0,3=0,5;
  2. P(X<7)=P(X=5)=0,2;
  3. P(8X18)=P(X=8)=0,4;
  4. P(X15)=P(X=20)=0,1;
  5. A esperança é calculada da seguinte forma:

E[X]=5×0,2+7×0,3+8×0,4+20×0,1=8,3 unid.,

a mediana é um número entre 7 e 8, pois abaixo e acima desses respectivos números temos 50%, e por conveniência assumimos μd=(7+8)/2=7,5 unid., isto é, o ponto médio entre os dois valores centrais, e por fim, a moda é o valor de maior chance, isto é, μ0=8 unid..

Exercício 5.24
Sejam dois eventos não vazios A e B de Ω, e que ωC=(ABc)(AcB) representam os elementos que estão exatamente em um dos dois eventos, isto é, não há elementos em comum entre esses dois eventos. Assim, prove que P(C)=P(A)+P(A)2P(AB).

Solução
Seja (5.59)P(A)=P(AB)+P(ABc) e (5.60)P(B)=P(AB)+P(BAc) Considere ainda que os eventos ABc e AcB são disjuntos. Assim, (5.61)P[(ABc)(AcB)]=P(ABc)++P(AcB). Substituindo () e () em (), temos P[(ABc)(AcB)]=[P(A)P(AB)]++[P(B)P(AB)]=P(A)+P(B)2P(AB), o que prova o resultado.

Exercício 5.25
No Exemplo 5.35 apresentamos a FDP de uma variável aleatória com distribuição exponencial. Porém, não provamos que de fato é uma função densidade de probabilidade. Baseado na Definição 5.31, mostre que a expressão (???) é uma FDP.


  1. Em notação, temos que {Ai}i=1n=A1, A2, , ,An.↩︎

  2. Em notação, temos que {Ai}i1=A1, A2, .↩︎