Untitled

SOLUZIONI

  1. Lo spazio degli esiti dell’esperimento casuale: “si lancia tre volte una moneta” è l’insieme di tutte le possibili disposizioni di \(T\) (testa) e \(C\) (croce) in \(3\) posti, ovvero l’insieme delle \(8\) terne \[\begin{multline*} \Omega=\{\left(T,T,T\right),\ \left(T,T,C\right),\ \left(T,C,T\right),\ \left(T,C,C\right),\ \\ \left(C,T,T\right),\ \left(C,T,C\right),\ \left(C,C,T\right),\ \left(C,C,C\right)\} \end{multline*}\] L’evento “si ottengono più teste che croci” è il sottoinsieme di \(\Omega\) costituito da tutte quelle terne in cui sono presenti più teste che croci, ovvero l’insieme dei \(4\) esiti \[\left\{ \left(T,T,T\right),\ \left(T,T,C\right),\ \left(T,C,T\right),\ \left(C,T,T\right)\right\}\]
  1. Lo spazio degli esiti è l’insieme delle \(36\) coppie \[\left\{ \left( 1, 1\right), \left( 1, 2\right), \ldots , \left( 6, 6\right) \right\}\] e si ha \[\begin{eqnarray*} E\cap F & = & \{ (1,2), (1,4), (1,6) \}; \\ E\cup F & = & \{ (1,1), (1,2), \ldots , (1,6), \\ & & (p_1,d_1), (d_2, p_2) | \ p_i \text{ pari } \geq 2, d_i \text{ dispari } \geq 3 \}; \\ F\cap G & = & \{ (1,4) \}; \\ E\cap F^c & = & \{ (p_1,d_1), (d_2, p_2) | \ p_i \text{ pari } \geq 2, d_i \text{ dispari } \geq 3 \}; \\ E\cap F\cap G & = & \{ (1,4) \} \end{eqnarray*}\]
    1. Lo spazio degli esiti è l’insime delle disposizioni di \(0\) e \(1\) in \(4\) posti, ovvero l’insieme di \(16\) elementi \[ \Omega = \{ (0,0,0,0), (0,0,0,1), (0,0,1,0), \ldots , (1,1,1,1)\}; \]
    2. L’insieme di tutti gli esiti in cui il sistema funziona è \[\begin{multline*} \{(1,1,0,0), (1,1,0,1), (1,1,1,0), (1,1,1,1), \\ (0,0,1,1), (0,1,1,1), (1,0,1,1) \}; \end{multline*}\]
    3. \(E\) contiene \(4\) elementi della forma \((0,i,0,j)\), con \(i,j\in\{0,1\}\)
  1. Dalla disuguaglianza elementare \[ \mathbb{P}(E\cup F) = \mathbb{P}(E) + \mathbb{P}(F) - \mathbb{P}(E\cap F) \] e dal fatto che le probabilità siano minori o uguali ad \(1\) segue immediatamente \[ \mathbb{P}(E\cap F) = \mathbb{P}(E) + \mathbb{P}(F) \underbrace{- \mathbb{P}(E\cup F)}_{\geq -1} \geq \mathbb{P}(E) + \mathbb{P}(F) -1 .\] Per dimostrare la disuguaglianza elementare è sufficiente
    • osservare che \(E \cup F = (E\cap F^c) \cup (E\cap F)\cup (F\cap E^c)\);
    • osservare che \(E=E\cap\underbrace{\Omega}_{F\cup F^c}=(E\cap F)\cup (E\cap F^c)\);
    • osservare che \(F=F\cap\underbrace{\Omega}_{E\cup E^c}=(F\cap E)\cup (F\cap E^c)\);
    • ricordare che la probabilità dell’unione di eventi disgiunti coincide con la somma delle probabilità di tali eventi

\[P(A) = \frac{5 \cdot 14!}{15!} =\frac{5}{15} = 0.333\]

\(P(\) “Caio Augusto in terza posizione” \() = P(\) “un bambino in terza poszione”\() \cdot P(\) “Caio Augusto” \() = \frac{5}{15} \cdot \frac{1}{5}= \frac{1}{15}\)

  1. Si sta assumendo che la probabilità di scegliere l’albergo sia la stessa per tutti e tre gli albgerghi.

\(P(E) = P(\) “scegliere un albergo qualsiasi” \() \cdot P(\)“che la seconda persona scelga uno degli alberghi rimanenti” \() \cdot P(\) “il terzo scelga un altro albergo” \()\)

ovvero

\(P(E) = \frac{5}{5} \cdot \frac{4}{5} \cdot \frac{3}{5} = \frac {12}{25}\)

7.a) Disuguaglianza di Chebyshev:

\(1- P(|X-\mu|\le a)=P(|X-\mu|>a)\le\frac{Var(X)}{a^2}\) che traduce in \(P(|X-\mu|<a)\ge 1- \frac{Var(X)}{a^2}\)

Applicandola all’esercizio:

\(P(A^c)=P(90000<X<170000)=P(90000-\mu<X-\mu<170000-\mu)\) \(=P(-40000 < X -\mu < 40000) = P(|X -\mu|<40000)\)

Ora è possibile applicare la diseguaglianza

\(P(A^c)> \frac{20000^2}{40000^2} = \frac{1}{4} \rightarrow P(A)=\frac{3}{4}\)

7.b. Disuguaglianza di Markov

\(P(X\ge a) \le \frac{E(x)}{a}\) se \(x\ge 0\)

Applicandola all’esercizio:

\(P(x>150000)\le \frac{130000}{150000} \simeq 0.86\)

  1. Definendo D l’evento “oggetto difettoso” si ottiene:

\(P(D_2 | D_1 \cap A)=\frac{P(D_2 \cap D_1 | A)}{P(D_1 | A)}=\frac{P(D_1|A)\cdot P(D_2|A)}{P(D_1|A)}=P(D_2|A)= P(D| A)\)

\(P(D_2 | D_1 \cap B)=\frac{P(D_2 \cap D_1 | B)}{P(D_1 | B)}=\frac{P(D_2|B)\cdot P(D_1|B)}{P(D_1|B)}= P(D_2|B)= P(D|B)\) \(P(D_2 \cap D_1) = P(D_2 ) = P(D_2 | D_1 \land A) \cdot P(D_1 \cap A) + P(D_2 | D_1 \land B)\cdot P(D_1 \cap B)\) \(=0.05\cdot 0.05 \cdot 0.5 + 0.01 \cdot 0.01 \cdot 0.5 =0.0013\)

Usando la definizione è possibile ottenere \(P(D_2 | D_1)\)

\(P(D_2 | D_1) = \frac {P(D_2\cap D_1)}{P(D_1)} = \frac{0.0013}{0.05\cdot 0.5 + 0.01 \cdot 0.5} =0.04333333\)

  1. Si definiscono i seguenti eventi:

M = “pianta muore” e A = “pianta viene annaffiata”

mentre le probabilità sono \(P(M| A^c) =0.8\), \(P(M| A)=0.15\) e \(P(A)=0.9\)

Si calcoli la probabilità che la pianta sia viva:

9.a. \(P(M^c)= P( M^c | A)\cdot P(A)+P(M^c| A^c)P( A^c)\) \(= (1-P(M|A))\cdot P(A)+ (1-P(M| A^c))\cdot (1-P(A))\) \(= 0.85\cdot 0.9 + 0.2\cdot0.1=0.785\)

9.b. Ricordiamo che per la formula di Bayes, per ogni evento A e B con \(P(A)>0\) e \(P(B)>0\), si ha: \[P(A|B) =\frac{P(B|A)\cdot P(A)}{P(B)} \] Nel nostro caso \[P( A^c | M) = \frac{P(M|A^c) \cdot P(A^c)}{P(M)}= \frac{0.8 \cdot (1-0.9)}{1-0.785}=0.372\]

  1. Definiamo gli eventi:

B = “Basso Rischio” M = “Medio Rischio” A = “Alto Rischio” I = “Incidente”

Calcoliamo la probabilità di avere un incidente:

\(P(I)= P(I|B)\cdot P(B)+P(I|M)\cdot P(M) + P(I|A)\cdot P(A) =0.175\)

Per il teorema di Bayes:

\[P(A|I^c)=\frac{P(I^c|A)\cdot P(A)}{P(I^c)}= \frac{(1-0.3)*0.3}{1-0.175}=0.2545455\] \[P(M|I^c)=\frac{P(I^c|M)\cdot P(M)}{P(I^c)}= \frac{(1-0.15)*0.5}{1-0.175}=0.5151515\] \[P(B|I^c)=\frac{P(I^c|B)\cdot P(B)}{P(I^c)}= \frac{(1-0.05)*0.2}{1-0.175}=0.230303\]

  1. Le proprietà della covarianza necessarie sono:

\[Cov(X + Y, Z)= Cov(X,Z)+ Cov(Y,Z)\] \[Cov(a\cdot X, Z) = a\cdot Cov(X,Z)\]

\[Cov(X, Z) = Cov(Z,X)\] Quindi applicando la prima:

\(Cov(X_1+X_2, X_1-X_2)\) \(= Cov(X_1, X_1-X_2)+ Cov(X_2,X_1-X_2)\) \(=Cov(X_1, X_1)-Cov(X_1,X_2)+Cov(X_2,X_1)-Cov(X_2,X_2)\)

Sapendo che \(X_1\) e \(X_2\) sono identicamente distribuite quindi:

\(Cov(X_1,X_1) = Var(X_1)= Var(X_2) = Cov(X_2,X_2)\)

che conclude la verifica.

  1. La funzione di massa di \(X_1\) è data, per ogni \(x\in \{1,2\}\), da \[ p_{X_1}(x) = \sum_{x_2 = 0}^3 p_{X_1,X_2}(x,x_2).\] Facendo i conti, risulta \(p_{X_1}(1)=p_{X_1}(2)=1/2\).

14.2. La funzione di massa di \(X_2\) è data, per ogni \(x\in \{0,3\}\), da \[ p_{X_2}(x) = \sum_{x_1 = 1}^2 p_{X_1,X_2}(x_1,x).\] Facendo i conti, risultano \(p_{X_2}(0)=3/16\), \(p_{X_2}(1)=2/16\), \(p_{X_2}(2)=5/16\), \(p_{X_2}(3)=6/16\).

14.2. Si ha \(E[X_1] = 0.825\) e \(E[X_2] = 1.0625\). Per le varianza, si ha \[ var(X_2) = E[(X_2-E[X_2])^2] = \sum_{i = 0}^3 (X_2(i)-E[X_2])^2\cdot p_{X_2}(i).\]

dbinom(7,10, 0.7)
## [1] 0.2668279

16.a.

1-pnorm(5, 10,36)
## [1] 0.555231

16.b.

pnorm(16,10,36)-(pnorm(4,10,36))
## [1] 0.1323677

16.c.

pnorm(8,10,36)
## [1] 0.4778479

17 Detta X la v.a. che conta il numero di errori tipografici è necessario fare un assunzione sulla distribuzione di X ad esempio assumiamo che X sia una poisson di parametro \(\lambda = 0.2\) a questo punto 17.a.

dpois(0,0.2)
## [1] 0.8187308

17.b

1-ppois(1,0.2)
## [1] 0.0175231

Detta X la v.a. che ti dice il minuto di arrivo dell’autobus X è uniforme 18.a.

1-punif (10,0,30)
## [1] 0.6666667

18.b. in questo caso dobbiamo calcolare \[P((X>25)| (X>15) = \frac{P((X>25)\cap (X>15))}{P(X>15)}= \frac{P(X>25)}{P(X>15)}\]

(1-punif(24, 0,30))/(1-punif(14,0,30))
## [1] 0.375

19

(1- pexp(30,1/20))/(1-pexp(10,1/20))
## [1] 0.3678794