Distribuciones discretas

EN CONSTRUCCION.

En esta sección se hará una revisión de algunos temas relacionados con modelos/distribuciones de variables aleatorias discretas.

Uniforme discreta

Ejercicio 1  

De un equipo de 10 empleados, y mediante la selección al azar de una etiqueta contenida en una caja que contiene 10 etiquetas numeradas del 1 al 10, se elige a uno para que supervise cierto proyecto. Calcule la fórmula para la distribución de probabilidad de X que represente el número en la etiqueta que se saca. ¿Cuál es la probabilidad de que el número que se extrae sea menor que 4?

Walpole, Myers & Myers (2012). Probabilidad y estadística para ingeniería y ciencias. (9a. ed.) Pearson Educación. Ejercicio 5.3.

Características:

Todos los valores que puede tomar la variable aleatoria son igualmente probables.

Valores que puede tomar la variable:

x= 1, 2, \dots, n

Parámetro:

n \in \mathbb{Z}^+, número o cantidad de valores que puede tomar la variable.

Notación:

X \sim \mathcal{U}(n), esto se lee así: la variable aleatoria X tiene una distribución uniforme discreta de parámetro n.

Función de masa de probabilidad:

f_X(x) = \begin{cases} \frac{1}{n} & \text{Si } x = 1, 2, \dots, n \\ 0 & \text{en otro caso} \end{cases}

x 1 2 \dots n
f_X(x) \frac{1}{n} \frac{1}{n} \dots \frac{1}{n}

Función de distribución acumulativa:

F_X(x) = \begin{cases} 0 & \text{si } x < 1 \\ \frac{1}{n} & \text{si } 1 \leq x < 2 \\ \frac{2}{n} & \text{si } 2 \leq x < 3 \\ \vdots & \vdots \\ \frac{n-1}{n} & \text{si } n-1 \leq x < n \\ 1 & \text{si } n \leq x \end{cases}

Valor esperado y varianza:

  • \mu_X = E[X] = \frac{n+1}{2}.
  • \sigma_X^2 = Var[X] = \frac{n^2 - 1}{12}.

Función característica:

\varphi_X(t) = \frac{ e^{\mathrm{i}t}-e^{\mathrm{i}(n+1)t} }{ n(1-e^{\mathrm{i} t}) }

Para ilustrar:

Código
layout(matrix(c(1,2), 1, 2))
n <- 10
x <- 1:n
y <- rep(1/n, n)
plot(ecdf(x), bty="n", col="blue", xlim=c(0,11), las=1, main="",
     sub="Función de distribución\nacumulativa", xlab="", ylab="F(x)")
title(bquote("Distribución uniforme discreta: 𝓤("*n == .(n)*")"), 
      line= -1.25, outer=TRUE)
plot(x, y, type= "h", bty="n", col="blue", xlim=c(0,11), ylim=c(0,max(y)), las=1, lty=3,
     main="", sub="Función de masa\nde probabilidad", xlab="", ylab="f(x)")
points(x, y, pch=20, col="blue")

Algunas situaciones en donde aplica:

  • Las variables en donde todos sus valores son igualmente probables.

  • Número resultante en el lanzamiento de un dado de cualquier número de caras que no “esté cargado”.

Bernoulli

Ejercicio 2  

La probabilidad de que llueva mañana es 0.40 y la probabilidad de que no llueva es 0.60.

Walpole, Myers & Myers (2012). Probabilidad y estadística para ingeniería y ciencias. (9a. ed.) Pearson Educación. Ejercicio 2.49.

Características:

La variable aleatoria sólo toma dos posibles valores, uno asociado a “acierto” y otro a “fracaso”.

Valores que puede tomar la variable:

x = 0 (“fracaso”), 1 (“acierto”).

Parámetro:

p \in [0,1], probabilidad de “acierto”.

Notación:

X \sim \mathcal{B}(p), esto se lee así: la variable aleatoria X tiene una distribución Bernoulli de parámetro p.

Función de masa de probabilidad:

f_X(x) = \begin{cases} 1-p & \text{Si } x = 0 \\ p & \text{Si } x = 1 \\ 0 & \text{en otro caso} \end{cases}

x 0 1
f_X(x) 1 - p p

Función de distribución acumulativa:

F_X(x) = \begin{cases} 0 & \text{si } x < 0 \\ 1-p & \text{si } 0 \leq x < 1 \\ 1 & \text{si } 1 \leq x \end{cases}

Valor esperado y varianza:

  • \mu_X = E[X] = p.
  • \sigma_X^2 = Var[X] = p(1-p).

Función característica:

\varphi_X(t) = (1-p) + p \, \mathrm{e}^{\mathrm{i}t}

Para ilustrar:

Código
layout(matrix(c(1,2), 1, 2))
p <- 0.4
x <- c(0, 1)
y <- c(1-p, p)
cdf <- approxfun(x, cumsum(y), method = "constant", yleft = 0, yright = 1, f = 0,
                 ties = "ordered")
class(cdf) <- c("ecdf", "stepfun", class(cdf))
attr(cdf, "call") <- sys.call()
plot(cdf, bty="n", col="blue", xlim=c(-1,2), las=1, main="",
     sub="Función de distribución\nacumulativa", xlab="", ylab="F(x)")
title(bquote("Distribución Bernoulli: 𝓑("*p == .(p)*")"), 
      line= -1.25, outer=TRUE)
plot(x, y, type= "h", bty="n", col="blue", xlim=c(-1,2), ylim=c(0,max(y)), las=1, lty=3,
     main="", sub="Función de masa\nde probabilidad", xlab="", ylab="f(x)")
points(x, y, pch=20, col="blue")

Algunas situaciones en donde aplica:

  • Resultado del lanzamiento de una moneda (1: cara y 0: sello).

  • Ganar o perder (Resultado al lanzar un dado donde si sale 5 o 6 gano y en otro caso pierdo).

  • Seleccionar un individuo o elemento y ver si tiene una característica de interés (Resultado de seleccionar un estudiante al azar de la clase e identificar si ha aprobado todos los exámenes).

A partir de un experimento Bernoulli se pueden derivar tres distribuciones:

  • Binomial
  • Hipergeométrica
  • Binomial Negativa (incluyendo la Geométrica como un caso particular)

Binomial

Ejercicio 3  

La probabilidad de que un paciente se recupere de una delicada operación de corazón es 0.9. ¿Cuál es la probabilidad de que exactamente 5 de los siguientes 7 pacientes intervenidos sobrevivan?

Walpole, Myers & Myers (2012). Probabilidad y estadística para ingeniería y ciencias. (9a. ed.) Pearson Educación. Ejercicio 5.11.

Características:

La variable aleatoria corresponde al número de “aciertos” de un experimento Bernoulli que se repite exactamente N veces y donde el resultado de cada repetición no depende de ninguna otra repetición, es decir, los resultados de cada repetición son independientes entre si.

Valores que puede tomar la variable:

x= 0, 1, \dots, n

Parámetros:

n \in \mathbb{Z}^+, número de repeticiones, y p \in [0,1], probabilidad de “acierto”.

Notación:

X \sim \mathcal{B}(n,p), esto se lee así: la variable aleatoria X tiene una distribución Binomial de parámetros n y p.

Función de masa de probabilidad:

f_X(x) = \begin{cases} \binom{n}{x} p^x \, (1-p)^{n-x} & \text{Si } x = 0, 1, \dots, n \\ 0 & \text{en otro caso} \end{cases}

Función de distribución acumulativa:

F_X(x) = \begin{cases} 0 & \text{si } x < 0 \\ \binom{n}{0} p^0 \, (1-p)^{n-0} & \text{si } 0 \leq x < 1 \\ \binom{n}{0} p^0 \, (1-p)^{n-0} + \binom{n}{1} p^1 \, (1-p)^{n-1} & \text{si } 1 \leq x < 2 \\ \vdots & \vdots \\ \sum_{i=0}^{n-1} \binom{n}{i} p^i \, (1-p)^{n-i} & \text{si } n-1 \leq x < n \\ 1 & \text{si } n \leq x \end{cases}

Valor esperado y varianza:

  • \mu_X = E[X] = (n)(p).
  • \sigma_X^2 = Var[X] = (n)(p)(1-p).

Función característica:

\varphi_X(t) = \left((1-p) + p \, \mathrm{e}^{\mathrm{i}t}\right)^{n}

Para ilustrar:

Código
layout(matrix(c(1,2), 1, 2))
n <- 7
p <- 0.9
x <- 0:n
y <- dbinom(x, n, p)
cdf <- approxfun(x, cumsum(y), method = "constant", yleft = 0, yright = 1, f = 0,
                 ties = "ordered")
class(cdf) <- c("ecdf", "stepfun", class(cdf))
attr(cdf, "call") <- sys.call()
plot(cdf, bty="n", col="blue", xlim=c(-1,n+1), las=1, main="",
     sub="Función de distribución\nacumulativa", xlab="", ylab="F(x)")
title(bquote("Distribución binomial: 𝓑("*n == .(n)*","~p == .(p)*")"), 
      line= -1.25, outer=TRUE)
plot(x, y, type= "h", bty="n", col="blue", xlim=c(-1,n+1), ylim=c(0, max(y)), las=1, lty=3,
     main="", sub="Función de masa\nde probabilidad", xlab="", ylab="f(x)")
points(x, y, pch=20, col="blue")

Algunas situaciones en donde aplica:

  • Número de caras obtenidas al lanzar una moneda n veces.

  • Número de veces que gano al lanzar un dado n veces (gano si sale 5 o 6).

  • Número de elementos e individuos que tienen una característica, de n seleccionados con reemplazamiento ó de tal forma que garantizan el que son independientes entre sí.

Hipergeométrica

Ejercicio 4  

¿Cuál es la probabilidad de que una camarera se rehúse a servir bebidas alcohólicas a sólo 2 menores si verifica al azar 5 identificaciones de 9 estudiantes, de los cuales 4 son menores de edad?

Walpole, Myers & Myers (2012). Probabilidad y estadística para ingeniería y ciencias. (9a. ed.) Pearson Educación. Ejercicio 5.34.

Características:

La variable aleatoria corresponde al número de “aciertos” de n experimentos Bernoulli realizados con respecto a un total de N posibles, donde se sabe que R (de los posibles N) son efectivamente “aciertos”, además, los experimentos son realizados simultaneamente, sin reemplazamiento o son dependientes entre sí.

Valores que puede tomar la variable:

x \in \mathbb{Z} con \max\{0,n-(N-R)\} \leq x \leq \min\{n,R\}

Parámetros:

N \in \mathbb{Z}^+, número de experimentos Bernoulli posibles, n \in \mathbb{Z}^+ con n \leq N, número de experimentos Bernoulli realizados, y R \in \mathbb{Z}^+ con R \leq N, número total de todos los posibles “aciertos”.

Notación:

X \sim Hg(n,N,R), esto se lee así: la variable aleatoria X tiene una distribución Hipergeométrica de parámetros n, N y R.

Función de masa de probabilidad:

f_X(x) = \begin{cases} \frac{\binom{R}{x}\binom{N-R}{n-x}}{\binom{N}{n}} & \text{Si } x \text{ es un valor que puede tomar la variable} \\ 0 & \text{en otro caso} \end{cases}

Función de distribución acumulativa:

F_X(x) = P[X \leq x] = \sum_{i=0}^{\lfloor x \rfloor} \left[ \frac{\binom{R}{x}\binom{N-R}{n-x}}{\binom{N}{n}} \right]

Valor esperado y varianza:

  • \mu_X = E[X] = n \, \frac{R}{N}.
  • \sigma_X^2 = Var[X] = n \, \frac{R}{N} \, \left( 1-\frac{R}{N} \right) \left(\frac{N-n}{N-1}\right).

Función característica:

\varphi_X(t) = \frac{ \binom{N-R}{n} \, {}_{2}F_{1}\left(-n, -R; N-R-n+1; \mathrm{e}^{\mathrm{i}t}\right) }{ \binom{N}{n} } donde \,{}_{p}F_{q}(a_{1},\ldots ,a_{p};b_{1},\ldots ,b_{q};z)=\sum\limits_{n=0}^{\infty }{\frac {(a_{1})_{n}\cdots (a_{p})_{n}}{(b_{1})_{n}\cdots (b_{q})_{n}}}\,{\frac {z^{n}}{n!}} (función hipergeométrica generalizada).

Para ilustrar:

Código
layout(matrix(c(1,2), 1, 2))
N <- 9
M <- 4
n <- 5
x <- max(0, n-(N-M)):min(n, M)
y <- dhyper(x, M, N-M, n)
cdf <- approxfun(x, cumsum(y), method = "constant", yleft = 0, yright = 1, f = 0,
                 ties = "ordered")
class(cdf) <- c("ecdf", "stepfun", class(cdf))
attr(cdf, "call") <- sys.call()
plot(cdf, bty="n", col="blue", xlim=c(x[1]-1, x[length(x)]+1), las=1, main="",
     sub="Función de distribución\nacumulativa", xlab="", ylab="F(x)")
title(bquote("Distribución hipergeométrica: 𝓗("*n == .(n)*","~N == .(N)*","~M == .(M)*")"), 
      line= -1.25, outer=TRUE)
plot(x, y, type= "h", bty="n", col="blue", xlim=c(x[1]-1, x[length(x)]+1), ylim=c(0, max(y)), las=1, lty=3,
     main="", sub="Función de masa\nde probabilidad", xlab="", ylab="f(x)")
points(x, y, pch=20, col="blue")

Algunas situaciones en donde aplica:

  • Número de balotas rojas obtenidas al extraer, simultáneamente o sin reemplazamiento, n balotas de una urna con un total de N balotas, donde se sabe que hay M rojas.

  • Número de productos defectuosos obtenidos al extraer, simultáneamente o sin reemplazamiento, n de un lote de N, donde se sabe que hay M defectuosos.

Binomial negativa

Ejercicio 5  

Una pareja decide que continuará procreando hijos hasta tener dos hombres. Suponiendo que P[hombre] = 0.5, ¿cuál es la probabilidad de que su segundo niño sea su cuarto hijo? (A couple decides to continue to have children until they have two males. Assuming that P[male] = 0.5, what is the probability that their second male is their fourth child?)

Walpole, Myers & Myers (2012). Probabilidad y estadística para ingeniería y ciencias. (9a. ed.) Pearson Educación. Ejercicio 5.92.

Forma I

Características:

Número de “fallos” obtenidos al repetir un experimento Bernoulli las veces necesarias para obtener r “aciertos” (el experimento se detiene en el momento en el que sale el r-ésimo “acierto”).

Valores que puede tomar la variable:

x = 0, 1, 2, \dots

Parámetros:

r \in \mathbb{Z}^+, número de aciertos deseados, y p \in [0,1], probabilidad de “acierto”.

Notación:

X \sim \mathcal{B}\mathcal{N}_{(I)}(r,p).

Función de masa de probabilidad:

f_X(x) = \begin{cases} \binom{x+r-1}{r-1} p^r (1-p)^{x} & \text{Si } x = 0, 1, \dots \\ 0 & \text{en otro caso} \end{cases}

Valor esperado y varianza

  • \mu_X = E[X] = \frac{r (1-p)}{p}.
  • \sigma_X^2 = Var[X] = \frac{r (1-p)}{p^2}.

Función característica:

\varphi_X(t) = \left( \frac{ p }{ 1-(1-p) \mathrm{e}^{\mathrm{i}t} } \right)^r

Forma II

Características:

Número de repeticiones de un experimento Bernoulli necesarias para obtener r “aciertos” (el experimento se detiene en el momento en el que sale el r-ésimo “acierto”).

Valores que puede tomar la variable:

x = r, r+1, r+2, \dots

Parámetros:

r \in \mathbb{Z}^+, número de aciertos deseados, y p \in [0,1], probabilidad de “acierto”.

Notación:

X \sim \mathcal{B}\mathcal{N}_{(II)}(r,p).

Función de masa de probabilidad:

f_X(x) = \begin{cases} \binom{x-1}{r-1} p^r (1-p)^{x-r} & \text{Si } x = r, r+1, \dots \\ 0 & \text{en otro caso} \end{cases}

Valor esperado y varianza:

  • \mu_X = E[X] = \frac{r}{p}
  • \sigma_X^2 = Var[X] = \frac{r (1-p)}{p^2}

Note que la Forma I y la Forma II están relacionadas entre sí (son en realidad dos formas de ver una misma distribución):

  • Si X \sim \mathcal{B}\mathcal{N}_{(I)}, entonces Y = X + r \sim \mathcal{B}\mathcal{N}_{(II)}, y
  • Si X \sim \mathcal{B}\mathcal{N}_{(II)}, entonces Y = X - r \sim \mathcal{B}\mathcal{N}_{(I)}.

Geométrica

Cuando r=1, se dice que la variable aleatoria X tiene una distribución geométrica de parámetro p \in [0,1], probabilidad de “acierto”, y se denota de la siguiente manera: X \sim \mathcal{G}(p).

Para ilustrar:

Código
layout(matrix(c(1,2), 1, 2))
r <- 2
p <- 0.5
max_x <- 12
x <- 0:max_x
y <- dnbinom(x, r, p)
cdf <- approxfun(x, cumsum(y), method = "constant", yleft = 0, yright = 1, f = 0,
                 ties = "ordered")
class(cdf) <- c("ecdf", "stepfun", class(cdf))
attr(cdf, "call") <- sys.call()
plot(cdf, bty="n", col="blue", xlim=c(-1, max_x+1), las=1, main="",
     sub="Función de distribución\nacumulativa", xlab="", ylab="F(x)")
title(bquote("Distribución binomial negativa (I): 𝓑𝓝_I("*r == .(r)*","~p == .(p)*")"), 
      line= -1.25, outer=TRUE)
plot(x, y, type= "h", bty="n", col="blue", xlim=c(-1, max_x+1), ylim=c(0, max(y)), las=1, lty=3,
     main="", sub="Función de masa\nde probabilidad", xlab="", ylab="f(x)")
points(x, y, pch=20, col="blue")

Algunas situaciones en donde aplica:

  • Número de lanzamientos de una moneda necesarios para obtener r caras.

  • Número de veces que debo lanzar un dado para ganar r veces (gano si sale 5 o 6).

  • Número de elementos o individuos independientes que debo observar hasta encontrar r que tienen una característica.

Poisson

Ejercicio 6  

Los baches en ciertas carreteras pueden ser un problema grave y requieren reparación constantemente. Con un tipo específico de terreno y mezcla de concreto la experiencia sugiere que hay, en promedio, 2 baches por milla después de cierta cantidad de uso. Se supone que el proceso de Poisson se aplica a la variable aleatoria “número de baches”.

  • ¿Cuál es la probabilidad de que no aparezca más de un bache en un tramo de una milla?
  • ¿Cuál es la probabilidad de que no aparezcan más de 4 baches en un tramo determinado de 5 millas?

Walpole, Myers & Myers (2012). Probabilidad y estadística para ingeniería y ciencias. (9a. ed.) Pearson Educación. Ejercicio 5.72.

Proceso Poisson:

  • El número de ocurrencias en un intervalo es independiente del número de ocurrencias en cualquier otro intervalo disyunto.
  • La probabilidad de una ocurrencia en un intervalo es proporcional al tamaño del intervalo.

Características:

La variable aleatoria corresponde al número de ocurrencias dentro de un intervalo de cierta amplitud fija, y que cumple las condiciones de un proceso de Poisson, donde \lambda es el promedio de ocurrencias por intervalo.

Valores que puede tomar la variable:

x = 0, 1, 2, \dots

Parámetros:

\lambda, promedio de ocurrencias en un intervalo de la correspondiente amplitud fijada.

Notación:

X \sim \mathcal{P}(\lambda).

Función de masa de probabilidad:

f_X(x) = \begin{cases} \frac{e^{-\lambda} \lambda^x}{x!} & \text{Si } x = 0, 1, 2, \dots \\ 0 & \text{en otro caso} \end{cases}

Valor esperado y varianza:

  • \mu_X = E[X] = \lambda.
  • \sigma_X^2 = Var[X] = \lambda.

Función característica:

\varphi_X(t) = \exp \left[\lambda \left(\mathrm{e}^{\mathrm{i}t} - 1\right)\right]

Para ilustrar:

Código
layout(matrix(c(1,2), 1, 2))
l <- 2
max_x <- 10
x <- 0:max_x
y <- dpois(x, l)
cdf <- approxfun(x, cumsum(y), method = "constant", yleft = 0, yright = 1, f = 0,
                 ties = "ordered")
class(cdf) <- c("ecdf", "stepfun", class(cdf))
attr(cdf, "call") <- sys.call()
plot(cdf, bty="n", col="blue", xlim=c(-1, max_x+1), las=1, main="",
     sub="Función de distribución\nacumulativa", xlab="", ylab="F(x)")
title(bquote("Distribución Poisson: 𝓟("*lambda == .(l)*")"), 
      line= -1.25, outer=TRUE)
plot(x, y, type= "h", bty="n", col="blue", xlim=c(-1, max_x+1), ylim=c(0, max(y)), las=1, lty=3,
     main="", sub="Función de masa\nde probabilidad", xlab="", ylab="f(x)")
points(x, y, pch=20, col="blue")

Algunas situaciones en donde aplica:

  • Número de llamadas que llegan a un centro de contacto (call center) por minuto.

  • Número de huecos por kilómetro de vía.

Algunas aproximaciones

Se estima que 1000 de los 10000 votantes registrados en un municipio están a favor de un nuevo impuesto. Si de los 10000 se escogen de manera aleatoria 100 y se les pregunta su opinión, ¿Cuál es la probabilidad de que al menos 90 estén en contra?

X \sim \mathcal{H}(n,N,M) \; \underset{\frac{n}{N} \to 0}{\longrightarrow} \; Y \sim \mathcal{B}\left(n, \, p = \frac{M}{N}\right)

X \sim \mathcal{B}(n,p) \; \underset{n \to \infty \, \land \, p \to 0}{\longrightarrow} \; Y \sim \mathcal{P}\big(\lambda = (n)(p)\big)

En este segundo caso, si p \to 1, la situación se puede replantear creando una nueva variable aleatoria, en donde intercambiamos “fracaso” (0) por “acierto” (1), y viceversa.

Ejercicios

A continuación se encuentran una serie de ejercicios tomados del siguiente libro:

Walpole, Myers & Myers (2012). Probabilidad y estadística para ingeniería y ciencias. (9a. ed.) Pearson Educación.

Ejercicio 7 (Walpole 5.77)  

Durante un proceso de producción, cada día se seleccionan al azar 15 unidades de la línea de ensamble para verificar el porcentaje de artículos defectuosos. A partir de información histórica se sabe que la probabilidad de tener una unidad defectuosa es de 0.05. Cada vez que se encuentran dos o más unidades defectuosas en la muestra de 15, el proceso se detiene. Este procedimiento se utiliza para proporcionar una señal en caso de que aumente la probabilidad de unidades defectuosas.

  1. ¿Cuál es la probabilidad de que en un día determinado se detenga el proceso de producción? (Suponga 5% de unidades defectuosas).

  2. Suponga que la probabilidad de una unidad defectuosa aumenta a 0.07. ¿Cuál es la probabilidad de que en cualquier día no se detenga el proceso de producción?

Ejercicio 8 (Walpole 5.84)  

El propietario de una farmacia local sabe que, en promedio, llegan a su farmacia 100 personas por hora.

  1. Calcule la probabilidad de que en un periodo determinado de 3 minutos nadie entre a la farmacia.

  2. Calcule la probabilidad de que en un periodo dado de 3 minutos entren más de 5 personas a la farmacia.

Ejercicio 9 (Walpole 5.91 (5.90))  

Considere la información del ejercicio de repaso 5.90. El perforador cree que “dará en el clavo” si logra el segundo éxito durante o antes del sexto intento. ¿Cuál es la probabilidad de que el perforador “dé en el clavo”?

Ejercicio 5.90: Una empresa que perfora pozos petroleros opera en varios sitios y su éxito o fracaso es independiente de un sitio a otro. Suponga que la probabilidad de éxito en cualquier sitio específico es de 0.25.

  1. ¿Cuál es la probabilidad de que un perforador barrene 10 sitios y tenga un éxito?

  2. El perforador se declarará en bancarrota si tiene que perforar 10 veces antes de que ocurra el primer éxito. ¿Cuáles son las perspectivas de bancarrota del perforador?

Ejercicio 10 (Walpole 5.95)  

Un proceso de manufactura produce artículos en lotes de 50. Se dispone de planes de muestreo en los cuales los lotes se apartan periódicamente y se someten a cierto tipo de inspección. Por lo general se supone que la proporción de artículos defectuosos que resultan del proceso es muy pequeña. Para la empresa también es importante que los lotes que contengan artículos defectuosos sean un evento raro. El plan actual de inspección consiste en elegir lotes al azar, obtener muestras periódicas de 10 en 50 artículos de un lote y, si ninguno de los muestreados está defectuoso, no se realizan acciones.

  1. Suponga que se elige un lote al azar y 2 de cada 50 artículos tienen defecto. ¿Cuál es la probabilidad de que al menos uno en la muestra de 10 del lote esté defectuoso?

  2. A partir de su respuesta en el inciso a), comente sobre la calidad de este plan de muestreo.

  3. ¿Cuál es el número promedio de artículos defectuosos encontrados por cada 10 artículos de la muestra?

EN CONSTRUCCION.