Capítulo 11: Teoría de la Probabilidad
11.5 Ejercicios Prácticos para el Capítulo 11
¡Ah, el momento que todos han estado esperando, los ejercicios prácticos! Te prometemos que el trabajo práctico no solo es inmensamente educativo, sino también muy divertido. Estos ejercicios te ayudarán a comprender más profundamente el concepto de probabilidad y la Teoría Bayesiana. ¡Vamos a empezar!
Ejercicio 1: Lanza el Dado
Simula el lanzamiento de un dado justo de seis caras 1,000 veces. Grafica un histograma para mostrar la distribución de los resultados.
import matplotlib.pyplot as plt
import random
results = [random.randint(1, 6) for _ in range(1000)]
plt.hist(results, bins=6, edgecolor='black')
plt.xlabel('Die Face')
plt.ylabel('Frequency')
plt.title('Frequency Distribution of 1,000 Die Rolls')
plt.show()
Ejercicio 2: Inferencia Bayesiana para el Lanzamiento de una Moneda
Tienes una moneda sesgada que cae cara el 60% del tiempo. Si la moneda se lanza 10 veces, ¿cuál es la probabilidad de que caiga cara exactamente 7 veces?
Puedes usar la fórmula de probabilidad binomial para esto:
P(x=k) = \binom{n}{k} \times p^k \times (1-p)^{(n-k)}
Donde \binom{n}{k} es la combinación \frac{n!}{k! \times (n-k)!}.
from scipy.stats import binom
n = 10 # Number of trials
k = 7 # Number of successes
p = 0.6 # Probability of success
# Compute the binomial probability
prob = binom.pmf(k, n, p)
print(f"The probability of getting exactly 7 heads in 10 tosses is {prob:.4f}")
Ejercicio 3: Diagnóstico de Enfermedades Bayesiano
Amplía el ejemplo de diagnóstico de enfermedades de la sección de Teoría Bayesiana para manejar múltiples resultados de pruebas. Supón que tienes dos pruebas con las siguientes probabilidades:
- Prueba 1: P(E_1|H) = 0.98
- Prueba 2: P(E_2|H) = 0.95
Calcula la probabilidad posterior P(H|E_1, E_2).
# Prior probability
P_H = 0.001
# Likelihoods
P_E1_given_H = 0.98
P_E2_given_H = 0.95
# Total probabilities of positive tests
P_E1 = (0.98 * 0.001) + (0.02 * 0.999)
P_E2 = (0.95 * 0.001) + (0.05 * 0.999)
# Compute the joint probability of both tests
P_E1_and_E2_given_H = P_E1_given_H * P_E2_given_H
# Compute the joint total probability of positive tests
P_E1_and_E2 = P_E1 * P_E2
# Posterior probability using Bayes' Theorem
P_H_given_E1_and_E2 = (P_E1_and_E2_given_H * P_H) / P_E1_and_E2
print(f"The probability of actually having the disease if both tests are positive is {P_H_given_E1_and_E2:.4f}")
Siéntete libre de probar estos ejercicios y no te preocupes si no los logras correctamente la primera vez. La belleza del aprendizaje está en el viaje mismo. ¡Feliz codificación!
11.5 Ejercicios Prácticos para el Capítulo 11
¡Ah, el momento que todos han estado esperando, los ejercicios prácticos! Te prometemos que el trabajo práctico no solo es inmensamente educativo, sino también muy divertido. Estos ejercicios te ayudarán a comprender más profundamente el concepto de probabilidad y la Teoría Bayesiana. ¡Vamos a empezar!
Ejercicio 1: Lanza el Dado
Simula el lanzamiento de un dado justo de seis caras 1,000 veces. Grafica un histograma para mostrar la distribución de los resultados.
import matplotlib.pyplot as plt
import random
results = [random.randint(1, 6) for _ in range(1000)]
plt.hist(results, bins=6, edgecolor='black')
plt.xlabel('Die Face')
plt.ylabel('Frequency')
plt.title('Frequency Distribution of 1,000 Die Rolls')
plt.show()
Ejercicio 2: Inferencia Bayesiana para el Lanzamiento de una Moneda
Tienes una moneda sesgada que cae cara el 60% del tiempo. Si la moneda se lanza 10 veces, ¿cuál es la probabilidad de que caiga cara exactamente 7 veces?
Puedes usar la fórmula de probabilidad binomial para esto:
P(x=k) = \binom{n}{k} \times p^k \times (1-p)^{(n-k)}
Donde \binom{n}{k} es la combinación \frac{n!}{k! \times (n-k)!}.
from scipy.stats import binom
n = 10 # Number of trials
k = 7 # Number of successes
p = 0.6 # Probability of success
# Compute the binomial probability
prob = binom.pmf(k, n, p)
print(f"The probability of getting exactly 7 heads in 10 tosses is {prob:.4f}")
Ejercicio 3: Diagnóstico de Enfermedades Bayesiano
Amplía el ejemplo de diagnóstico de enfermedades de la sección de Teoría Bayesiana para manejar múltiples resultados de pruebas. Supón que tienes dos pruebas con las siguientes probabilidades:
- Prueba 1: P(E_1|H) = 0.98
- Prueba 2: P(E_2|H) = 0.95
Calcula la probabilidad posterior P(H|E_1, E_2).
# Prior probability
P_H = 0.001
# Likelihoods
P_E1_given_H = 0.98
P_E2_given_H = 0.95
# Total probabilities of positive tests
P_E1 = (0.98 * 0.001) + (0.02 * 0.999)
P_E2 = (0.95 * 0.001) + (0.05 * 0.999)
# Compute the joint probability of both tests
P_E1_and_E2_given_H = P_E1_given_H * P_E2_given_H
# Compute the joint total probability of positive tests
P_E1_and_E2 = P_E1 * P_E2
# Posterior probability using Bayes' Theorem
P_H_given_E1_and_E2 = (P_E1_and_E2_given_H * P_H) / P_E1_and_E2
print(f"The probability of actually having the disease if both tests are positive is {P_H_given_E1_and_E2:.4f}")
Siéntete libre de probar estos ejercicios y no te preocupes si no los logras correctamente la primera vez. La belleza del aprendizaje está en el viaje mismo. ¡Feliz codificación!
11.5 Ejercicios Prácticos para el Capítulo 11
¡Ah, el momento que todos han estado esperando, los ejercicios prácticos! Te prometemos que el trabajo práctico no solo es inmensamente educativo, sino también muy divertido. Estos ejercicios te ayudarán a comprender más profundamente el concepto de probabilidad y la Teoría Bayesiana. ¡Vamos a empezar!
Ejercicio 1: Lanza el Dado
Simula el lanzamiento de un dado justo de seis caras 1,000 veces. Grafica un histograma para mostrar la distribución de los resultados.
import matplotlib.pyplot as plt
import random
results = [random.randint(1, 6) for _ in range(1000)]
plt.hist(results, bins=6, edgecolor='black')
plt.xlabel('Die Face')
plt.ylabel('Frequency')
plt.title('Frequency Distribution of 1,000 Die Rolls')
plt.show()
Ejercicio 2: Inferencia Bayesiana para el Lanzamiento de una Moneda
Tienes una moneda sesgada que cae cara el 60% del tiempo. Si la moneda se lanza 10 veces, ¿cuál es la probabilidad de que caiga cara exactamente 7 veces?
Puedes usar la fórmula de probabilidad binomial para esto:
P(x=k) = \binom{n}{k} \times p^k \times (1-p)^{(n-k)}
Donde \binom{n}{k} es la combinación \frac{n!}{k! \times (n-k)!}.
from scipy.stats import binom
n = 10 # Number of trials
k = 7 # Number of successes
p = 0.6 # Probability of success
# Compute the binomial probability
prob = binom.pmf(k, n, p)
print(f"The probability of getting exactly 7 heads in 10 tosses is {prob:.4f}")
Ejercicio 3: Diagnóstico de Enfermedades Bayesiano
Amplía el ejemplo de diagnóstico de enfermedades de la sección de Teoría Bayesiana para manejar múltiples resultados de pruebas. Supón que tienes dos pruebas con las siguientes probabilidades:
- Prueba 1: P(E_1|H) = 0.98
- Prueba 2: P(E_2|H) = 0.95
Calcula la probabilidad posterior P(H|E_1, E_2).
# Prior probability
P_H = 0.001
# Likelihoods
P_E1_given_H = 0.98
P_E2_given_H = 0.95
# Total probabilities of positive tests
P_E1 = (0.98 * 0.001) + (0.02 * 0.999)
P_E2 = (0.95 * 0.001) + (0.05 * 0.999)
# Compute the joint probability of both tests
P_E1_and_E2_given_H = P_E1_given_H * P_E2_given_H
# Compute the joint total probability of positive tests
P_E1_and_E2 = P_E1 * P_E2
# Posterior probability using Bayes' Theorem
P_H_given_E1_and_E2 = (P_E1_and_E2_given_H * P_H) / P_E1_and_E2
print(f"The probability of actually having the disease if both tests are positive is {P_H_given_E1_and_E2:.4f}")
Siéntete libre de probar estos ejercicios y no te preocupes si no los logras correctamente la primera vez. La belleza del aprendizaje está en el viaje mismo. ¡Feliz codificación!
11.5 Ejercicios Prácticos para el Capítulo 11
¡Ah, el momento que todos han estado esperando, los ejercicios prácticos! Te prometemos que el trabajo práctico no solo es inmensamente educativo, sino también muy divertido. Estos ejercicios te ayudarán a comprender más profundamente el concepto de probabilidad y la Teoría Bayesiana. ¡Vamos a empezar!
Ejercicio 1: Lanza el Dado
Simula el lanzamiento de un dado justo de seis caras 1,000 veces. Grafica un histograma para mostrar la distribución de los resultados.
import matplotlib.pyplot as plt
import random
results = [random.randint(1, 6) for _ in range(1000)]
plt.hist(results, bins=6, edgecolor='black')
plt.xlabel('Die Face')
plt.ylabel('Frequency')
plt.title('Frequency Distribution of 1,000 Die Rolls')
plt.show()
Ejercicio 2: Inferencia Bayesiana para el Lanzamiento de una Moneda
Tienes una moneda sesgada que cae cara el 60% del tiempo. Si la moneda se lanza 10 veces, ¿cuál es la probabilidad de que caiga cara exactamente 7 veces?
Puedes usar la fórmula de probabilidad binomial para esto:
P(x=k) = \binom{n}{k} \times p^k \times (1-p)^{(n-k)}
Donde \binom{n}{k} es la combinación \frac{n!}{k! \times (n-k)!}.
from scipy.stats import binom
n = 10 # Number of trials
k = 7 # Number of successes
p = 0.6 # Probability of success
# Compute the binomial probability
prob = binom.pmf(k, n, p)
print(f"The probability of getting exactly 7 heads in 10 tosses is {prob:.4f}")
Ejercicio 3: Diagnóstico de Enfermedades Bayesiano
Amplía el ejemplo de diagnóstico de enfermedades de la sección de Teoría Bayesiana para manejar múltiples resultados de pruebas. Supón que tienes dos pruebas con las siguientes probabilidades:
- Prueba 1: P(E_1|H) = 0.98
- Prueba 2: P(E_2|H) = 0.95
Calcula la probabilidad posterior P(H|E_1, E_2).
# Prior probability
P_H = 0.001
# Likelihoods
P_E1_given_H = 0.98
P_E2_given_H = 0.95
# Total probabilities of positive tests
P_E1 = (0.98 * 0.001) + (0.02 * 0.999)
P_E2 = (0.95 * 0.001) + (0.05 * 0.999)
# Compute the joint probability of both tests
P_E1_and_E2_given_H = P_E1_given_H * P_E2_given_H
# Compute the joint total probability of positive tests
P_E1_and_E2 = P_E1 * P_E2
# Posterior probability using Bayes' Theorem
P_H_given_E1_and_E2 = (P_E1_and_E2_given_H * P_H) / P_E1_and_E2
print(f"The probability of actually having the disease if both tests are positive is {P_H_given_E1_and_E2:.4f}")
Siéntete libre de probar estos ejercicios y no te preocupes si no los logras correctamente la primera vez. La belleza del aprendizaje está en el viaje mismo. ¡Feliz codificación!