7  Bajo otras distribuciones

En esta sección se hará una revisión de algunos resultados relacionadas con la estimación por intervalo, para muestras aleatorias provenientes de una población, para la cual se supone una cierta distribución dada, diferente a la distribución normal.

En términos generales, para aplicar el método de la variable pivote, se necesita una variable que sea función de la muestra y del parámetro, en donde se pueda despejar \mathrm{g}(\theta), y cuya distribución debe permitir la obtención de los cuantiles necesarios (obviamente dicha distribución no puede depender de \theta).

7.1 Distribución asintótica (opción 1)

Bajo un caso regular de estimación (condiciones de regularidad), si el estimador T es insesgado para \mathrm{g}(\theta) y tiene una varianza que coincide con la cota de Cramer - Rao, entonces se tiene que, T \xrightarrow[n \to \infty]{d} W \sim \mathcal{N} \left( \mathrm{g}(\theta), \frac{\left(\frac{\partial}{\partial \theta} \mathrm{g}(\theta)\right)^2}{n \, \mathcal{I}(\theta)} \right). donde I(\theta) es la información de Fisher y n es el tamaño de muestra. Lo que quiere decir que para un tamaño de muestra suficientemente grande, \frac{ T - \mathrm{g}(\theta) }{ \left| \frac{\partial}{\partial \theta} \mathrm{g}(\theta) \right| \sqrt{\frac{1}{n \mathcal{I}(\theta)}} } \sim \mathcal{N}(0,1) es una variable pivote asintótica / aproximada para \mathrm{g}(\theta).

Ejercicio 7.1 A partir de la anterior variable pivote asintótica y la muestra de una población con X \sim Exp(\theta) \left( \mathrm{f}(x,\theta) = \frac{1}{\theta} e^{-\frac{x}{\theta}} \, \mathrm{I}_{(0, \infty)}(x)\right), obtenga un intervalo de confianza asintótico / aproximado bilateral del 100(1-\alpha)\% para \theta.

Para X se tiene que E[X] = \theta, Var[X] = \theta^2 y I(\theta) = \frac{1}{\theta^2}. Por otra parte, para \bar{X} se tiene que E\left[\bar{X}\right] = \theta (insesgado) y Var\left[\bar{X}\right] = \frac{\theta^2}{n} = \frac{1}{n\mathcal{I}(\theta)} (cota de Cramer - Rao para \theta).

Transformando la correspondiente variable pivote asintótica se tiene que, \begin{aligned} P \left[ a < \frac{\sqrt{n} \left( T - \theta \right)}{ \sqrt{ \frac{1}{I(\theta)} } } < b \right] &= 1- \alpha \\ P \left[ a < \frac{\sqrt{n} \left( \bar{X} - \theta \right)}{ \theta } < b \right] &= 1- \alpha \\ P \left[ a < \sqrt{n} \left( \frac{\bar{X}}{\theta} - 1 \right) < b \right] &= 1- \alpha \\ P \left[ a \frac{1}{\sqrt{n}} < \frac{\bar{X}}{\theta} - 1 < b \frac{1}{\sqrt{n}} \right] &= 1- \alpha \\ P \left[ 1 + a \frac{1}{\sqrt{n}} < \frac{\bar{X}}{\theta} < 1 + b \frac{1}{\sqrt{n}} \right] &= 1- \alpha \\ P \left[ \frac{\sqrt{n} + a}{\sqrt{n}\bar{X}} < \frac{1}{\theta} < \frac{\sqrt{n} + b}{\sqrt{n}\bar{X}} \right] &= 1- \alpha \\ P \left[ \frac{\sqrt{n}\bar{X}}{\sqrt{n} + b} < \theta < \frac{\sqrt{n}\bar{X}}{\sqrt{n} + a} \right] &= 1- \alpha \end{aligned} y si por facilidad tomamos b = -a = z_{(\alpha/2)}, entonces, P \left[ \frac{\sqrt{n}\bar{X}}{\sqrt{n} + z_{(\alpha/2)}} < \theta < \frac{\sqrt{n}\bar{X}}{\sqrt{n} - z_{(\alpha/2)}} \right] = 1- \alpha

Por lo tanto, \left( \frac{ \bar{X} }{ 1 + \frac{z_{(\alpha/2)}}{\sqrt{n}} }, \frac{\bar{X}}{1 - \frac{z_{(\alpha/2)}}{\sqrt{n}}} \right) es un intervalo de confianza bilateral del 100(1-\alpha)\% para \theta.

Con el objetivo de facilitar las transformaciones requeridas para llegar al intervalo de confianza, y teniendo en cuenta que T \to \mathrm{g}(\theta) cuando n \to \infty, cada \mathrm{g}(\theta) en el denominador podría ser reemplazado por el estimador T (o de manera equivalente cada \theta puede ser reemplazado por \mathrm{g}^{-1}(T)). Es decir, para un tamaño de muestra suficientemente grande, si W = \left. \left[ \left| \frac{\partial}{\partial \theta} \mathrm{g}(\theta) \right| \sqrt{\frac{1}{n \mathcal{I}(\theta)}} \right] \right|_{\mathrm{g}(\theta) = T \text{ o } \theta = \mathrm{g}^{-1}(T)} entonces \frac{ T - \mathrm{g}(\theta) }{ W } \sim \mathcal{N}(0,1) también es una variable pivote asintótica / aproximada para \mathrm{g}(\theta). Transformando dicha variable pivote asintótica, \begin{aligned} P \left[ a < \frac{ T - \mathrm{g}(\theta) }{ W } < b \right] &= 1- \alpha \\ P \left[ a W < T - \mathrm{g}(\theta) < b W \right] &= 1- \alpha \\ P \left[ -T + a W < - \mathrm{g}(\theta) < -T + b W \right] &= 1- \alpha \\ P \left[ T - b W < \mathrm{g}(\theta) < T + (-a) W \right] &= 1- \alpha \end{aligned} de donde se tiene que, \Big( T - b W \, , \, T + (- a) W \Big) con W = \left. \left[ \left| \frac{\partial}{\partial \theta} \mathrm{g}(\theta) \right| \sqrt{\frac{1}{n \mathcal{I}(\theta)}} \right] \right|_{\mathrm{g}(\theta) = T \text{ o } \theta = \mathrm{g}^{-1}(T)} es un intervalo de confianza asintótico / aproximado bilateral del 100(1-\alpha)\% para \mathrm{g}(\theta), y de longitud mínima cuando b = -a = z_{(\alpha/2)} (de longitud mínima para \mathrm{g}(\theta)).

Ejercicio 7.2 A partir del anterior resultado, obtenga los respectivos intervalos de confianza bilateral y unilaterales del 100(1−\alpha)\% para \theta \left( \mathrm{f}(x,\theta) = \frac{1}{\theta} e^{-\frac{x}{\theta}} \, \mathrm{I}_{(0, \infty)}(x)\right).

  • ¿Cuál sería la formula para el margen de error asociado al intervalo de confianza bilateral?

  • ¿Cuál sería la formula para el tamaño de muestra asociado al intervalo de confianza bilateral?

Ejercicio 7.3 Usando cada una de las dos variables pivote asintóticas / aproximadas para \theta, obtener los intervalos de confianza aproximados bilateral y unilaterales del 100(1-\alpha)\% para \theta, asociados a una muestra aleatoria de una población con,

  • X \sim Weibull(\theta, k \text{ conocido}) es decir \mathrm{f}(x,\theta) = \frac{k}{\theta} \left( \frac{x}{\theta} \right)^{k-1} \exp \left(-\left(\frac{x}{\theta}\right)^k \right) \, \mathrm{I}_{(0, \infty)}(x), además tenga en cuenta que si X \sim Weibull(\theta, k) entonces E\left[X^r\right] = \theta^r \,\Gamma\left(1 + \frac{r}{k}\right) y por ende E[T] = E\left[\frac{1}{n} \sum_{i=1}^n X_i^k\right] = \theta^k = g(\theta).

  • X \sim Pareto(k \text{ conocido}, \theta) es decir \mathrm{f}(x,\theta) = \theta k^{\theta} x^{-(\theta+1)} \, \mathrm{I}_{(k, \infty)}(x), además tenga en cuenta que si X \sim Pareto(k, \theta) entonces \log \left(\frac{X}{k}\right) \sim Exp(1/\theta) y por ende E[T] = E\left[\frac{1}{n} \sum_{i=1}^n \log \left(\frac{X_i}{k}\right)\right] = \frac{1}{\theta} = g(\theta).

  • X \sim Pois(\lambda = \theta).

  • X \sim Bern(p = \theta) (intervalos de confianza para la proporción).

En cada uno de los anteriores casos, obtenga las fórmulas correspondientes al margen de error y al tamaño de muestra de los respectivos intervalos bilaterales.

Ejercicio 7.4 (D. Anderson, D. Sweeney, T. Williams, J. Camm - Estadística para Negocios y Economía. 11ra Edición, Cengage Learning (2012). Capítulo 8. Ejercicio 54.) En un estudio de USA Today/CNN/Gallup realizado con 369 padres que trabajan, se encontró que 200 consideran que pasan muy poco tiempo con sus hijos debido a sus compromisos laborales.

  • Proporcione una estimación puntual de la proporción poblacional de padres que trabajan y piensan que pasan muy poco tiempo con sus hijos debido a sus compromisos laborales.

  • ¿Cuál es el error estándar de la estimación puntual anterior?

  • ¿Cuál es el margen de error para 95\% de confianza?

  • ¿Cuál es el intervalo de confianza de 95\% para la proporción poblacional de padres que trabajan y piensan que pasan muy poco tiempo con sus hijos debido a sus compromisos ocupacionales?

Ejercicio 7.5 (D. Anderson, D. Sweeney, T. Williams, J. Camm - Estadística para Negocios y Economía. 11ra Edición, Cengage Learning (2012). Capítulo 8. Ejercicio 58.) Una firma de tarjetas de crédito de un conocido banco desea estimar la proporción de tarjetahabientes que al final del mes tienen un saldo distinto de cero que ocasiona cargos. Suponga que el margen de error deseado es 0.03 con 98\% de confianza.

  • ¿De qué tamaño deberá tomarse la muestra si se cree que 70\% de los tarjetahabientes de la firma tienen un saldo distinto de cero al final del mes?

  • ¿De qué tamaño deberá tomarse la muestra si no se puede especificar ningún valor planeado para la proporción?

Ejercicio 7.6 (Intervalos de confianza para la diferencia de proporciones de dos poblaciones independientes) Para X_1, \dots, X_n y Y_1, \dots, Y_m muestras aleatorias independientes de poblaciones con distribución Bernoulli de parámetros (proporciones) p_X y p_Y, respectivamente, \frac{\left( \hat{P}_X - \hat{P}_Y \right) - \theta}{\sqrt{\frac{\hat{P}_X \left( 1 - \hat{P}_X \right)}{n} + \frac{\hat{P}_Y \left( 1 - \hat{P}_Y \right)}{m}}} \sim \mathcal{N}(0,1) es una variable pivote para \theta = p_X - p_Y.

  • A partir de la anterior variable pivote obtenga los respectivos intervalos de confianza bilateral y unilaterales, de longitud mínima, del 100(1-\alpha)\% para \theta.

  • ¿Cuál sería la formula para el margen de error asociado al intervalo bilateral?

Ejercicio 7.7 (D. Anderson, D. Sweeney, T. Williams, J. Camm - Estadística para Negocios y Economía. 11ra Edición, Cengage Learning (2012). Capítulo 10. Ejercicio 30.) En una encuesta de BusinessWeek/Harris se pidió a los ejecutivos de empresas grandes su opinión acerca de cómo veían las perspectivas económicas para el futuro. Una de las preguntas era: ¿Piensa usted que en los próximos 12 meses aumentará en su empresa el número de empleados de tiempo completo? En la encuesta actual, 220 de 400 ejecutivos respondieron Sí, mientras que en la realizada el año anterior, 192 de 400 respondieron en el mismo sentido.

  • Calcule la proporción muestral de los que respondieron Sí en la encuesta actual y la proporción de los que respondieron Sí en la encuesta anterior.

  • ¿Cuál es la estimación puntual de la diferencia entre las proporciones de las dos poblaciones? ¿Qué indica tal estimación? ¿Cuál es el error estándar de dicha estimación puntual?

  • Encuentre un intervalo de 95\% de confianza para estimar la diferencia entre las proporciones en estas dos encuestas. ¿Cuál es su interpretación de la estimación por intervalo?

7.2 Parámetro localización o escala (opción 2)

El rol del parámetro puede ayudar a identificar la variable pivote junto con su respectiva distribución.

Sea \left\{ \mathrm{f}_{X}(x, \theta) \left| \boldsymbol{\theta} \in \Theta \subseteq \mathbb{R}^k \right. \right\} una familia de densidades. El componente \theta_j de \boldsymbol{\theta} se denomina componente o parámetro de localización, si y sólo si la distribución de X - \theta_j \quad \text{ o } \quad X + \theta_j no depende de \theta_j.

Sea \left\{ \mathrm{f}_{X}(x, \theta) \left| \boldsymbol{\theta} \in \Theta \subseteq \mathbb{R}^k \right. \right\} una familia de densidades. El componente \theta_j de \boldsymbol{\theta} se denomina componente o parámetro de escala, si y sólo si la distribución de \theta_j X \quad \text{ o } \quad \frac{X}{\theta_j} no depende de \theta_j.

De lo anterior, si \theta es un parámetro de localización, entonces \sum_{i=1}^{n} (X_i - \theta) \quad \text{ o } \quad \sum_{i=1}^{n} (X_i + \theta) es una variable pivote para \theta, y si \theta es un parámetro de escala, entonces \sum_{i=1}^{n} \theta X_i \quad \text{ o } \quad \sum_{i=1}^{n} \frac{X_i}{\theta} es una variable pivote para \theta.

Además, si \theta_1 es un parámetro de localización y si T^{(1)} es un estimador máximo verosímil de \theta_1, entonces T^{(1)} - \theta_1 \quad \text{ o } \quad T^{(1)} + \theta_1 es una variable pivote para \theta_1; si \theta_2 es un parámetro de escala y si T^{(2)} es un estimador máximo verosímil de \theta_2, entonces \theta_2 T^{(2)} \quad \text{ o } \quad \frac{T^{(2)}}{\theta_2} es una variable pivote para \theta_2; y \frac{T^{(1)} - \theta_1}{T^{(2)}} es una variable pivote para \theta_1, si esta no depende de los demás componentes de \boldsymbol{\theta}, o si éstos son considerados conocidos.

Ejercicio 7.8 A partir de los resultados anteriormente expuestos, dada una muestra de una población con X \sim \mathcal{U}(0,\theta), obtenga un intervalo de confianza bilateral del 100(1-\alpha)\% para \theta.

La función de distribución acumulativa de X está dada por, \mathrm{F}_X(x, \theta) = \begin{cases} 0 & \text{si } x < 0\\ \frac{x}{\theta} & \text{si } 0 \leq x < \theta \\ 1 & \text{si } \theta \leq x \end{cases}

La función de distribución acumulativa de Y = \frac{X}{\theta} está dada por, \begin{aligned} \mathrm{F}_Y(x) &= P[Y \leq x] \\ &= P\left[\frac{X}{\theta} \leq x\right] \\ &= P\left[X \leq \theta x\right] \\ &= \mathrm{F}_X(\theta x) \\ &= \begin{cases} 0 & \text{si } \theta x < 0\\ \frac{\theta x}{\theta} & \text{si } 0 \leq \theta x < \theta \\ 1 & \text{si } \theta \leq \theta x \end{cases} \\ &= \begin{cases} 0 & \text{si } x < 0\\ x & \text{si } 0 \leq x < 1 \\ 1 & \text{si } 1 \leq x \end{cases} \end{aligned} la cual corresponde a la función de distribución acumulativa de una distribución uniforme continua en el intervalo (0,1), que claramente no depende del parámetro \theta. Por esta razón, \theta es un parámetro de escala de la distribución \mathcal{U}(0, \theta).

Como \theta es un parámetro de escala y X_{(n)} es el estimador máximo verosímil de \theta, se tiene que \frac{X_{(n)}}{\theta} es una variable pivote para \theta.

Por otra parte, Y_1 = \frac{X_1}{\theta}, \dots, Y_n = \frac{X_n}{\theta} es una muestra aleatoria con Y \sim \mathcal{U}(0,1). Para esta distribución, el estadístico de orden Y_{(k)} se distribuye Beta(k, n-k+1) (ver Ejemplo 1.5.5. del libro del Profesor Mayorga). Es decir, la variable pivote Q = Y_{(n)} = \frac{X_{(n)}}{\theta} \sim Beta(n,1), lo cual también se puede deducir de la siguiente manera, \begin{aligned} \mathrm{F}_{Q}(x) = \mathrm{F}_{Y_{(n)}}(x) &= \Big[ \mathrm{F}_{Y}(x) \Big]^n \\ &= \Big[ \mathrm{F}(x) \Big]^n \\ &= \begin{cases} 0 & \text{si } x < 0\\ x^n & \text{si } 0 \leq x < 1 \\ 1 & \text{si } 1 \leq x \end{cases} \end{aligned} y \mathrm{f}_{Q}(x) = \mathrm{f}_{Y_{(n)}}(x) = n x^{n-1} \, \mathrm{I}_{(0,1)}(x)

Trasformando la variable pivote Q = Y_{(n)} = \frac{X_{(n)}}{\theta} se tiene que, \begin{aligned} P \left[ a < \frac{X_{(n)}}{\theta} < b \right] &= 1 - \alpha \\ P \left[ \frac{1}{b} < \frac{\theta}{X_{(n)}} < \frac{1}{a} \right] &= 1 - \alpha \\ P \left[ \frac{X_{(n)}}{b} < \theta < \frac{X_{(n)}}{a} \right] &= 1 - \alpha \end{aligned}

Por lo tanto, \left( \frac{X_{(n)}}{b} , \frac{X_{(n)}}{a} \right) es un intervalo de confianza bilateral del 100(1-\alpha)\% para \theta, donde a y b son cuantiles tales que \mathrm{F}_{Q}(b) - \mathrm{F}_{Q}(a) = b^n - a^n = 1 - \alpha y \mathrm{F}_{Q}(.) es la función de distribución acumulativa de la distribución Beta de parámetros n y 1.

Notamos que, minimizar la longitud del intervalo es equivalente a minimizar 1/a - 1/b.

Derivando la condición \mathrm{F}_{Q}(b) - \mathrm{F}_{Q}(a) = 1 - \alpha con respecto a b se tiene que, \begin{aligned} \frac{\partial}{\partial b} \left(\mathrm{F}_{Q}(b) - \mathrm{F}_{Q}(a)\right) &= \frac{\partial}{\partial b} \left( 1 - \alpha \right) \\ \mathrm{f}_{Q}(b) - \left(\mathrm{f}_{Q}(a)\right) \frac{\partial a}{\partial b} &= 0 \\ - \left(\mathrm{f}_{Q}(a)\right) \frac{\partial a}{\partial b} &= - \mathrm{f}_{Q}(b) \\ \frac{\partial a}{\partial b} &= \frac{\mathrm{f}_{Q}(b)}{\mathrm{f}_{Q}(a)} \\ \frac{\partial a}{\partial b} &= \frac{n b^{n-1}}{n a^{n-1}} \\ \frac{\partial a}{\partial b} &= \frac{b^{n-1}}{a^{n-1}} \end{aligned}

Derivando 1/a - 1/b con respecto a b y reemplazando se tiene que, \begin{aligned} \frac{\partial}{\partial b} \left( \frac{1}{a} - \frac{1}{b} \right) &= -\frac{1}{a^2} \frac{\partial a}{\partial b} + \frac{1}{b^2} \\ &= -\frac{1}{a^2} \frac{b^{n-1}}{a^{n-1}} + \frac{1}{b^2} \\ &= \frac{-b^{n+1}+a^{n+1}}{a^{n+1}b^2} \end{aligned} donde a^{n+1}b^2 > 0 y a^{n+1} - b^{n+1} < 0 (dado que a < b y a^{n+1} < b^{n+1}) para todo a y b. Esto implica que la derivada de 1/a - 1/b con respecto a b siempre es negativa y por ende 1/a - 1/b es estrictamente decreciente con respecto a b. Se concluye que el valor más grande posible para b, b = 1, minimiza 1/a - 1/b, y despejando b=1 en la condición b^n - a^n = 1 - \alpha, se obtiene que a = \sqrt[n]{\alpha}.

El intervalo de confianza bilateral, de longitud mínima, del 100(1-\alpha)\% para \theta es, \left( \frac{X_{(n)}}{1} , \frac{X_{(n)}}{\sqrt[n]{\alpha}} \right) = \left( X_{(n)} , \frac{X_{(n)}}{\sqrt[n]{\alpha}} \right)

Ejercicio 7.9 A partir de los resultados expuestos en esta sección, obtener una variable pivote y los respectivos intervalos de confianza bilateral y unilaterales del 100(1-\alpha)\% para \theta, asociados a una muestra aleatoria de una población con:

  • X \sim Pareto(\theta, k \text{ conocido}) es decir \mathrm{f}(x,\theta) = k \theta^{k} x^{-(k+1)} \, \mathrm{I}_{(\theta, \infty)}(x).

  • X \sim Exp(\theta) es decir \mathrm{f}(x,\theta) = \frac{1}{\theta} e^{-\frac{x}{\theta}} \, \mathrm{I}_{(0, \infty)}(x).

  • X \sim Weibull(\theta, k \text{ conocido}) es decir \mathrm{f}(x,\theta) = \frac{k}{\theta} \left( \frac{x}{\theta} \right)^{k-1} \exp \left(-\left(\frac{x}{\theta}\right)^k \right) \, \mathrm{I}_{(0, \infty)}(x).

Ejercicio 7.10 Para todas las distribuciones que conoce, incluidas todas las mencionadas en el curso, identificar qué parámetros son de localización, qué parámetros son de escala y qué parámetros no son ni de localización ni de escala (por ejemplo, el parámetro \lambda de la distribución Poisson).

7.3 Probability Inverse Transform (opción 3)

Sea X_1, \dots, X_n una muestra aleatoria de una población con función de distribución acumulativa continua \mathrm{F}_X(x,\theta). Se tiene que, \mathrm{F}_X(X_i,\theta) = U_i \sim \mathcal{U}(0,1) y también que, 1 - \mathrm{F}_X(X_i,\theta) = 1 - U_i \sim \mathcal{U}(0,1) Por lo tanto, \mathrm{F}_Y^{-1} \left( U_i \right) = \mathrm{F}_Y^{-1} \left( \mathrm{F}_X(X_i,\theta) \right) = Y_i \sim \mathcal{Y} y \mathrm{F}_Y^{-1} \left( 1 - U_i \right) = \mathrm{F}_Y^{-1} \left( 1 - \mathrm{F}_X(X_i,\theta) \right) = Y_i \sim \mathcal{Y} para una distribución \mathcal{Y} con función de distribución acumulativa continua \mathrm{F}_Y(x), que no depende de \theta. Lo que quiere decir que \sum_{i=1}^{n} Y_i sería una variable pivote para \theta.

La distribución exponencial sería una muy buena elección para las Y_i, ya que si se toma, \mathrm{F}_Y(x) = 1 - e^{-x}, entonces, \mathrm{F}^{-1}_Y(u) = - \log (1 - u), Es decir que, - \log (1 - U) \sim Exp(1) y - \log (U) \sim Exp(1), Por lo tanto, \sum_{i = 1}^{n} - \log \left( 1-U_i \right) = - \sum_{i = 1}^{n} \log \left( 1-\mathrm{F}_X(X_i,\theta) \right) \sim Gamma(n,1) y \sum_{i = 1}^{n} - \log \left( U_i \right) = - \sum_{i = 1}^{n} \log \left( \mathrm{F}_X(X_i,\theta) \right) \sim Gamma(n,1) Lo que quiere decir que - \sum_{i = 1}^{n} \log \left( 1-\mathrm{F}_X(X_i,\theta) \right) y - \sum_{i = 1}^{n} \log \left( \mathrm{F}_X(X_i,\theta) \right) son variables pivote para \theta.

Teniendo en cuenta que 2Y \sim Exp(2) y Gamma(v/2,2) \equiv \chi^2_{v}, se tiene que, -\sum_{i = 1}^{n} 2 \log \left( \mathrm{F}_X(X_i,\theta) \right) \sim Gamma(n,2) \equiv \chi^2_{2n} y -\sum_{i = 1}^{n} 2 \log \left( 1- \mathrm{F}_X(X_i,\theta) \right) \sim Gamma(n,2) \equiv \chi^2_{2n} son otras variables pivote para \theta.

Es decir que para toda distribución continua, asociada a la muestra X_1, \dots, X_n, existen dos variables pivote con distribución chi-cuadrado (distribución para la que se tienen tablas estadísticas). De lo cual concluimos que, si la distribución de la población tiene asociada una inversa explícita, con respecto a \theta, de su función de distribución acumulativa continua (para poder “despejar” \theta), entonces es relativamente fácil obtener un intervalo de confianza a partir de una de dichas variables pivote.

Ejercicio 7.11 A partir de la anterior variable pivote y de la muestra de una población con X \sim Exp(\theta) \left( \mathrm{f}(x,\theta) = \frac{1}{\theta} e^{-\frac{x}{\theta}} \mathrm{I}_{(0, \infty)}(x)\right), obtenga un intervalo de confianza bilateral del 100(1-\alpha)\% para \theta.

En este caso, \begin{aligned} -\sum_{i = 1}^{n} 2 \log \left( 1 - \mathrm{F}_X(X_i,\theta) \right) &= -\sum_{i = 1}^{n} 2 \log \left( 1 - \left(1 - \exp \left( - \frac{X_i}{\theta} \right) \right) \right) \\ &= -\sum_{i = 1}^{n} 2 \log \left( \exp \left( - \frac{X_i}{\theta} \right) \right) \\ &= \sum_{i = 1}^{n} 2 \frac{X_i}{\theta} \\ &= \frac{2 \sum_{i = 1}^{n}X_i}{\theta} \\ &= \frac{2 n \bar{X}}{\theta} \sim \chi^2_{2n} \end{aligned}

Transformando esa variable pivote (“despejando” \theta) tenemos que, \begin{aligned} P \left[ a < \frac{2 n \bar{X}}{\theta} < b \right] &= 1- \alpha \\ P \left[ \frac{1}{b} < \frac{\theta}{2 n \bar{X}} < \frac{1}{a} \right] &= 1- \alpha \\ P \left[ \frac{2 n \bar{X}}{b} < \theta < \frac{2 n \bar{X}}{a} \right] &= 1- \alpha \\ \end{aligned}

Por lo tanto, \left( \frac{2 n \bar{X}}{b} , \frac{2 n \bar{X}}{a} \right) es un intervalo de confianza bilateral del 100(1-\alpha)\% para \theta, donde a y b son cuantiles tales que \mathrm{F}_{\chi^2_{2n}}(b) - \mathrm{F}_{\chi^2_{2n}}(a) = 1 - \alpha, y \mathrm{F}_{\chi^2_{2n}}(.) es la función de distribución acumulativa chi-cuadrado con 2n grados de libertad. La condición de longitud mínima es b^2 \mathrm{f}_{\chi^2_{2n}}(b) - a^2 \mathrm{f}_{\chi^2_{2n}}(a) = 0 (es necesario resolver numéricamente). Si se toma a = \chi^2_{(1-\alpha/2, 2n)} y b = \chi^2_{(\alpha/2, 2n)}, entonces el intervalo de confianza queda así, \left( \frac{2 n \bar{X}}{\chi^2_{(\alpha/2, 2n)}} , \frac{2 n \bar{X}}{\chi^2_{(1-\alpha/2, 2n)}} \right)

Ejercicio 7.12 A partir de lo anterior, obtener una variable pivote y los respectivos intervalos de confianza bilateral y unilaterales del 100(1-\alpha)\% para \theta, asociados a una muestra aleatoria de una población con:

  • X \sim \mathcal{U}(0, \theta).

  • X \sim Pareto(\theta, k \text{ conocido}), es decir \mathrm{f}(x,\theta) = k \theta^{k} x^{-(k+1)} \, \mathrm{I}_{(\theta, \infty)}(x).

Ejercicio 7.13 Para una muestra aleatoria de una población con X \sim Bern(\theta), leer acerca de otros intervalos de confianza para \theta que hayan sido propuestos (intervalos de confianza para la proporción). Por ejemplo, ver Wikipedia: Binomial proportion confidence interval.

Ejercicio 7.14 Para una muestra aleatoria de una población con X \sim Pois(\theta), leer acerca de otros intervalos de confianza para \theta que hayan sido propuestos. Por ejemplo, ver Patil V.V., Kulkarni H.V. (2012) Comparison of confidence intervals for the Poisson mean: some new aspects. REVSTAT – Statistical Journal. Volume 10, Number 2, June 2012, 211–227.