Aula 11 - Probabilidades (Parte II)
Usaremos Batista (2023):
Na Aula 02 vimos como uma das motivações…
Exemplo:
Lançar um dado equilibrado e observar o resultado obtido na face superior do dado, considerando que esse dado é equilibrado, e o evento \(A\subset \Omega\), então podemos calcular a chance de \(A\) ocorrer pela la medida de probabilidade, da seguinte forma: \[\begin{align*} P(A) & = \frac{\#A}{6} = \frac{\textrm{número de resultados favoráveis a A}}{\textrm{número de resultados possíveis}}. \end{align*}\]
Essa é a conhecida a probabilidade clássica!
Definição (Evento aleatório): Todo evento de \(\Omega\) que podemos atribuir uma probabilidade, chamamos de evento aleatório.
Definição (Medida de probabilidade): Seja \(\Omega\) o espaço amostral, então uma função \(P\), tal que \(P:\Omega \to \mathbb{R}\), é chamada de medida de probabilidade ou probabilidade, aos eventos do espaço amostral satisfazendo os seguintes axiomas de Kolmogorov:
- \(P(\Omega) = 1\);
- \(0\leq P(A) \leq 1\), \(\forall \ A \subset \Omega\);
- \(P(A_1 \cup A_2) = P(A_1) + P(A_2)\), com \(A_1 \cap A_2 = \emptyset\), para \(A_1, ~A_2 \subset \Omega\).
Uma peça moldada de injeção é igualmente provável de ser obtida, a partir de qualquer uma das oito cavidades de um molde.
Nesse caso,
Teorema (Regra da adição de probabilidades): Considere um espaço amostral e dois eventos não vazios \(A\) e \(B\), então a probabilidade de ocorrência do evento \(A\) ou do evento \(B\) é igual a: \[\begin{align*} P(A\cup B) & = P(A)+P(B)-P(A\cap B). \end{align*}\] Caso os eventos \(A\) e \(B\) sejam mutuamente exclusivos, isto é, \(P(A\cap B)=0\), então: \[\begin{align*} P(A\cup B) & = P(A)+P(B). \end{align*}\]
Essa regra pode ser estendida para \(n\) eventos mutuamente exclusivos: \(A_1\), \(A_2\), \(\ldots\), \(A_n\), isto é, \[\begin{align*} P(A_1\cup A_2\cup \ldots \cup A_n)= P(A_1)+P(A_2)+\ldots+P(A_n). \end{align*}\]
Considere, \[\begin{align*} A & = \{\omega \in \Omega: \omega = \textrm{`lar X que não excede 240kWh em janeiro´}\}, \\ B & = \{\omega \in \Omega: \omega = \textrm{`lar X que não excede 240kWh em julho´}\}.\\ \end{align*}\]
Então, para o primeiro ítem (a), temos que: \[\begin{align*} P(A\cup B) & = P(A) + P(B) - P(A \cap B). \end{align*}\]
Assim, podemos obter \(P(A \cap B)\), dado por: \[\begin{align*} P(A\cap B) & = P(A) + P(B) - P(A \cup B) \\ & = 0,8 + 0,7 - 0,9 \\ & = 0,6. \end{align*}\]
\[\begin{align*} A^c = \{\omega \in \Omega: \omega = \textrm{`lar X que exceder 240kWh em janeiro´}\}, \\ B^c = \{\omega \in \Omega: \omega = \textrm{`lar X que exceder 240kWh em julho´}\}.\\ \end{align*}\]
Podemos ainda observar que \(A \cup B = (A^c \cap B)\cup (A \cap B) \cup (A \cap B^c)\), e que cada um dos eventos dentro do parêntese são disjuntos dois a dois, então,
\[\begin{align*} P(A \cup B) & = P[(A^c \cap B)\cup (A \cap B) \cup (A \cap B^c)]\\ & = P[(A^c \cap B) \cup (A \cap B^c)] + P(A \cap B). \end{align*}\]
Desse modo, percebemos que:
\[\begin{align*} P[(A^c \cap B) \cup (A \cap B^c)] = P(A \cup B) - P(A \cap B). \end{align*}\]
Logo,
\[\begin{align*} P[(A^c \cap B) \cup (A \cap B^c)] & = 0,9 - 0,6 = 0,3. \end{align*}\]
Teorema (Probabilidade de um evento complementar): Considere um espaço amostral e o evento, não vazio, \(A\), então a probabilidade do evento complementar \(A^c\) ocorrer, é dado por:
\[\begin{align*} P(A^C)=1-P(A). \end{align*}\]
Essa situação é consequência da regra da adição para \(A\subset\Omega\), e substituindo \(B\) por \(A^C\), temos \[\begin{align*} P(A\cup A^C) & = P(A)+P(A^C)-P(A\cap A^C),\\ P(\Omega) & = P(A)+P(A^C)-0,\\ 1 & = P(A)+P(A^C), \end{align*}\] logo segue a expressão anterior.
Usando os resultados do Exemplo anterior, podemos calcular a probabilidade de \(A^c\), como:
\[\begin{align*} P(A^c) & = 1 - 0,8 = 0,2. \end{align*}\]
Isso representa a chance do lar X exceder a energia acima de \(240~kWh\), em janeiro.
Definição (Probabilidade condicional): Dados dois eventos \(A\) e \(B\) definidos em \(\Omega\), então a probabilidade condicional do evento \(A\) dado que ocorreu o evento \(B\), denotado por \(P(A|B)\), é definida por:
\[\begin{align*} P(A|B) = \frac{P(A \cap B)}{P(B)}, \end{align*}\] para \(P(B) > 0\).
Baseado no problema de Paulo (Batista, 2023), denotaremos os eventos:
Desse modo podemos representar, a probabilidade desses defeitos da seguinte forma:
Assim, percebemos que a probabilidade do evento \(D\) não pode ser observada facilmente, pois o defeito dos produtos produzidos pelas máquinas está condicionado a cada máquina.
Teorema (Regra do produto de probabilidade): Seja uma sequencia de eventos não vazios \(A_1,A_2,\ldots,A_n\) em \(\Omega\), com \(P(\bigcap^{n}_{i=1}A_i)>0\), então a probabilidade do produto desses eventos é dado por:
\[ P(A_1\cap \ldots \cap A_n)=P(A_1)P(A_2|A_1)\ldots P(A_n|A_1\cap A_2 \cap \ldots \cap A_{n-1}). \]
Definição (Partição do espaço amostral): Se a sequência \(A_1, A_2, \ldots,\) são disjuntos dois a dois, não vazios, e \(\bigcup^{\infty}_{i=1}A_i=\Omega\), então dizemos que essa sequência forma uma partição de \(\Omega\).
Teorema (Teorema da probabilidade total): Seja a sequência de eventos \(A_1, A_2, \ldots, A_n\) uma partição de \(\Omega\), e \(B\) um evento de \(\Omega\), não vazio, então a probabilidade de \(B\) é dada por: \[\begin{align*} P(B) = \sum_{i = 1}^{n}P(B|A_i)P(A_i), \end{align*}\] para \(P(A_i) > 0\), sendo \(i = 1, 2, \ldots, n\).
Voltando ao problema de Paulo, a probabilidade de uma sandália ter defeito é
\[\begin{align*} P(D) = & \sum_{i = 1}^{3}P(D|M_i)P(M_i)\\ = & P(D|M_1)P(M_1) + P(D|M_2)P(M_2) + \\ &\quad + P(D|M_3)P(M_3)\\ = & 0,01 \times 0,50 + 0,02 \times 0,40 + \\ & \quad + 0,03 \times 0,10\\ = & 0,016. \end{align*}\]
Definição (Independência de eventos): Considere o espaço amostral \(\Omega\). Dois eventos \(A\) e \(B\) de \(\Omega\) são independentes se satisfaz ao menos uma das seguintes condições:
- \(P(A \cap B) = P(A)P(B)\);
- \(P(A|B) = P(A)\), para \(P(B) > 0\);
- \(P(B|A) = P(B)\), para \(P(A) > 0\).
É fácil mostrar que (I) implica em (II), (II) implica em (III), e (III) implica em (I).
\[ P(A|B) = \frac{P(AB)}{P(A)} = \frac{P(A)P(B)}{P(B)} = P(A), \quad \textrm{para } P(B) > 0; \]
\[ P(B|A) = \frac{P(BA)}{P(A)} = \frac{P(A|B)P(B)}{P(A)} = P(B), \quad \textrm{para } P(A) > 0; \]
\[ P(AB) = P(B|A)P(A) = P(B)P(A), \textrm{para } P(A) > 0. \]
A intuição para independência fica justificada pelo fato de que \(A\) é independente de \(B\) tanto na ocorrência quanto a não ocorrência de \(B\), e isso não muda em nada a probabilidade da ocorrência de \(A\), isto é, \(P(A|B) = P(A)\) e \(P(A|B^c) = P(A)\). Essas duas expressões significam que \[\begin{align*} P(A\cap B) & = P(B)P(A|B) = P(B)P(A)\\ P(A\cap B^c) & = P(B^c)P(A|B^c) = P(B^c)P(A). \end{align*}\]
Teorema (Teorema de independência de dois eventos): Se \(A\) e \(B\) são eventos independentes, não vazio, definidos em \(\Omega\), então,
- \(A\) e \(B^c\) também são independentes;
- \(A^c\) e \(B\) também são independentes;
- \(A^c\) e \(B^c\) também são independentes.
Sejam os resultados possíveis de um dado honesto, cujo espaço amostral é \(\Omega = \{1, 2, 3, 4, 5, 6\}\). Considere:
A probabilidade de \(A\) é \(P(A) = 1/2\), a probabilidade de B é \(P(B) = 1/3\), e a probabilidade da interseção entre A e B é \(P(A \cap B) = 1/6\). Veja que dado que o evento B ocorra, ou não ocorra \(B^c = \{1, 2, 4, 5\}\), a probabilidade do evento A é a mesma, veja:
\[\begin{align*} P(A|B) = \frac{1/6}{1/3} = 1/2 \qquad P(A|B^c) = \frac{2/6}{4/6} = 1/2, \end{align*}\]
isto é, \(P(A) \times P(B) = 1/6 = P(A\cap B)\). Logo, \(A\) e \(B\) são eventos independentes.
Seja um experimento cujo objetivo é verificar a face superior de um tetraedro, isto é, \(\Omega = \{1, 2, 3, 4\}\). Sejam os eventos em \(\Omega\):
Considerando o tetraedro honesto e que cada valor é equiprovável, assim:
\[P(A) = P(B) = P(C) = 1/2.\]
Observamos que estes eventos são independentes dois a dois, isto é,
Porém, \(P(A\cap B \cap C) = 1/4 \neq P(A) P(B) P(C)\). Logo, os eventos \(A\), \(B\) e \(C\) não são independentes três a três.
Definição (Independência de uma sequência de eventos): Considere o espaço amostral \(\Omega\). Uma sequência de eventos \(A_1, A_2, \ldots, A_n\) de \(\Omega\) são independentes se e somente se:
\[\begin{align*} P(A_i \cap A_j) & = P(A_i)P(A_j), \quad \textrm{para } i \neq j; \\ P(A_i \cap A_j \cap A_k) & = P(A_i)P(A_j)P(A_k), \quad \textrm{para } i \neq j \neq k; \\ \vdots & \nonumber\\ P(\cap_{i = 1}^{n} A_i) & = \prod_{i = 1}^{n}P(A_i). \end{align*}\]
Paulo poderia indagar, se os eventos \(M_i\) e \(D\) são independentes ou dependentes. Contudo, pela Definição de independência, temos que
\[\begin{align*} P(D|M_i) & \neq P(D) = 0,016 \Rightarrow D \textrm{ e } M_i \textrm{, para } i = 1, 2, 3, \end{align*}\]
logo, não são independentes.
Teorema (Teorema de Bayes): Considere o espaço amostral \(\Omega\). Considere uma sequência de eventos \(A_1, A_2, \ldots, A_n\) de \(\Omega\), disjuntos, tal que \(\bigcup^{n}_{i = 1}A_i = \Omega\), e \(B\) um evento de \(\Omega\), então a probabilidade de \(A_k\), para \(k = 1, 2, \ldots, n\), dado que ocorreu o evento \(B\), denotado por \(P(A_k|B)\), é dado por:
\[\begin{align*} P(A_k|B) = \frac{P(B|A_k)P(A_k)}{\sum_{i = 1}^{n}P(B|A_i)P(A_i)}, \qquad k = 1, 2, \ldots, n, \end{align*}\] para \(P(A_k) > 0\) e \(P(A_i) > 0\), sendo \(i = 1, 2, \ldots, n\).
Com esse resultado, Paulo agora pode tomar uma decisão mais plausível, isto é, dado um defeito numa determinada sandália produzida na fábrica, qual a probabilidade desta ter sido produzida em cada uma das máquinas?
\[\begin{align*} P(M_1|D) = \frac{0,01 \times 0,50}{0,016} = 0,3125\\ P(M_2|D) = \frac{0,02 \times 0,40}{0,016} = 0,5000\\ P(M_3|D) = \frac{0,03 \times 0,10}{0,016} = 0,1875\\ \end{align*}\]
A tomada de decisão será substituir a máquina \(M_2\). Poderíamos ter tomado uma decisão equivocada se não fosse o teorema de Bayes.