Probabilidad Para Ingenieros Apuntes EII-346. Ricardo Gatica Escobar, Ph.D.

January 2, 2019 | Author: Rosario Ponce Padilla | Category: N/A
Share Embed Donate


Short Description

1 Probabilidad Para Ingenieros Apuntes EII-346 Ricardo Gatica Escobar, Ph.D. 5 de noviembre de 20032 Capítulo 1 I...

Description

Probabilidad Para Ingenieros Apuntes EII-346

Ricardo Gatica Escobar, Ph.D. 5 de noviembre de 2003

Cap´ıtulo 1

Introducci´ on 1.1.

Definiciones y Conceptos B´ asicos

Definiciones Fen´ omeno: Cualquier ocurrencia o hecho en la naturaleza que es observable y medible. Fen´ omeno Determin´ıstico: Su comportamiento (resultado) est´a completamente determinado por las condiciones en las que el fen´omeno ocurre. Ejemplo 1.1. La distancia (D) recorrida por un m´ ovil que se desplaza a velocidad constante es D = vt, donde v representa la velocidad y t representa el tiempo de desplazamiento. Ejemplo 1.2. La orbita que describe la Tierra alrededor del Sol es una funci´ on compleja de las masas, posiciones, formas y velocidades de todos los cuerpos del Sistema Solar. Fen´ omeno Aleatorio (no-determin´ıstico, estoc´astico, probabil´ıstico): Su comportamiento no est´a completamentamente determinado por las condiciones en las que el fen´omeno ocurre. Dadas ciertas condiciones iniciales (entradas) y ciertas acciones, el resultado es incierto, puede ser cualquier elemento de un set de posibles resultados. Ejemplo 1.3. Al lanzar una moneda al aire, parece ser el caso que no existen condiciones iniciales o informaci´ on alguna que perimita predecir si el resultado ser´ a cara o sello. Ejemplo 1.4. ¿Puede Ud. predecir la duraci´ on de una ampolleta, o el tiempo entre dos fallas sucesivas de un autom´ ovil, o el tiempo exacto que toma el viaje de casa a la universidad cada d´ıa?

1

Ricardo Gatica E.

Probabilidad para Ingenieros

2

En esta clase estudiaremos fen´omenos que presentan dos caracter´ısticas importantes: Espacio muestral fijo: El set de posibles resultados es el mismo para toda ocurrencia del fen´omeno. Regularidad Estad´ıstica: Suponga que un fen´omeno puede ser observado bajo las mismas condiciones un n´ umero ilimitado de veces, entonces la secuencia de resultados generados presenta cierta “regularidad” o “estabilidad” que permite construir modelos matem´aticos para representar el fen´omeno y hacer inferencias probabil´ısticas respecto de su comportamiento. Ejemplo 1.5. Si una moneda balanceada es lanzada repetidamente, la proporci´ on de veces que se obtiene cara tiende a estar alrededor del 50 % a medida que el n´ umero de lanzamientos se incrementa. Ejemplo 1.6. Si un dado no cargado es lanzado repetidamente, la proporci´ on de 10 s que se obtiene es cercana a 1/6. Nota: De hecho, no todos los fen´omenos aleatorios parecen satisfacer las condiciones anteriores. Por ejemplo, el n´ umero de personas que visita un parque de entretenciones (el fen´omeno) no es el mismo todos los d´ıas de la semana (ocurrencias del fen´omeno), el tiempo entre fallas de una m´ aquina tiende a disminuir en la medida que aumenta el tiempo de uso (edad) de la m´aquina. Muchas veces, redefinir el fen´omeno en estudio es suficiente para evitar este problema. En otras, sin embargo, modelos m´as sofisticados se hacen necesarios. Para nuestros prop´ositos, si un fen´omeno no satisface estas condiciones, trataremos sus ocurrencias como diferentes fen´omenos. Ejemplo 1.7. Considere otra vez un parque de entretenciones. En general, esperar´ıamos que el n´ umero de personas que asisten en fines de semana es significativamente mayor que en d´ıas de semana. Por lo tanto, es aconsejable considerar diferentes d´ıas de la semana como diferentes fen´ omenos. Es tambien razonable esperar, por ejemplo, que todos los lunes asistir´ a aproximadamente el mismo n´ umero de personas, por lo tanto asumimos que los lunes de diferentes semanas son distintas ocurrencias del mismo fen´ omeno. Nota: Observe que la regularidad estad´ıstica no implica que el resultado de la n-´esima repetici´on de un fen´omeno se hace mas predecible a medida que n se incrementa. Modelo Matem´ atico: Es una representaci´on matem´atica de un fen´omeno, desarrollado con el objeto de estudiar el fen´omeno. Las caracter´ısticas del modelo no solo dependen de la naturaleza del fen´omeno, sino tambi´en, en un grado importante, en el objetivo espec´ıfico del estudio. Esto implica que pueden existir muchos modelos diferentes asociados al mismo fen´omeno. Experimento: Es la repetici´on de un fen´omeno bajo condiciones controladas (para los prop´ositos de este curso no haremos distinci´on entre un experimento y una ocurrencia natural del fen´omeno).

Ricardo Gatica E.

Probabilidad para Ingenieros

3

¿Fen´ omenos aleatorios o Modelos aleatorios? ¿Existen los fen´omenos aleatorios en el mundo real?. La respuesta parece simple. Nuestra vida est´a llena de situaciones en que experimentamos la incertidumbre. Los ejemplos 1.3 y 1.4 son una peque˜ na muestra. Para los matem´ aticos y estad´ısticos, sin embargo, la respuesta es menos clara. Algunos de ellos creen que la aleatoriedad es una propiedad intr´ınseca de la naturaleza. Esto implica que para algunos fen´omenos, incluso el conocimiento exacto y completo de las condiciones iniciales no es suficiente para predecir el resultado en forma exacta. Otros piensan que el mundo es completamente determin´ıstico y que el concepto de incertidumbre solo refleja nuestra falta de conocimiento respecto de los factores y relaciones (por ejemplo, las leyes f´ısicas) que gobiernan la evoluci´on de los distintos procesos que ocurren en la naturaleza. Afortunadamente, la Teor´ıa de la Probabilidad (el objeto de este curso) ha mostrado ser u ´til para modelar sistemas complejos, independientemente de cual de la visiones rese˜ nadas en el p´arrafo anterior es correcta. Desde un punto de vista pr´actico, la selecci´on entre un modelo determin´ıstico o un modelo aleatorio esta fuertemente influenciada por el objetivo de estudio. Un fen´omeno supuestamente aleatorio puede ser representado por un modelo determin´ıstico si s´olo se necesitan estimadores gruesos de una medida de desempe˜ no. Por otro lado, un modelo aleatorio puede ser apropiado para representar un sistema determ´ınistico extremadamente complejo. Es prudente establecer que este curso se concentra en modelos aleatorios m´as que en fen´omenos aleatorios, sin embargo, no profundizaremos mayormente en la diferencia entre estos conceptos. ¿Qu´ e es Teor´ıa de la Probabilidad? Teor´ıa de la Probabilidad es la rama de las matem´aticas que ha sido desarrollada para lidiar con el concepto de aleatoriedad o incertidumbre. Provee el soporte matem´atico, los fundamentos conceptuales, las leyes y un lenguaje com´ un para modelar fen´omenos (o experimentos) aleatorios. A un nivel muy b´asico, el prop´osto de estos modelos es entender y analizar la estructura de probabilidades de los diferentes resultados posibles del fen´omeno. Ejemplo 1.8. Un modelo para calcular la probabilidad que al lanzar simult´ aneamente n monedas balanceadas, en exactamente k de ellas se obtenga cara es n! k!(n − k)! Teor´ıa de la Probabilidad v/s Estad´ıstica La Estad´ıstica es la disciplina relacionada con los m´etodos cientificos para la recolecci´on, organizaci´on, presentaci´on y an´alisis de un set de datos (generalmente, observados bajo incertidunbre), con el objeto de obtener conclusiones que sean u ´tiles en un proceso de toma de decisiones.

Ricardo Gatica E.

Probabilidad para Ingenieros

4

La Teor´ıa de la Probabilidad provee los fundamentos para la ciencia estad´ıstica, como tambi´en para varias otras disciplinas, tales como Teor´ıa de la Confiabilidad, Teor´ıa de Colas, Procesos Estoc´asticos, An´alisis de Riesgo Financiero, etc. Por otro lado, la gran mayor´ıa de las veces, los modelos probabil´ısticos se basan en ciertos valores num´ericos denominados par´ametros, que son caracter´ısticos del fen´omeno estudiado. Con frecuencia, en la vida real, los valores de estos par´ametros son desconocidos. La inferencia estad´ıstica es utilizada en estos casos para estimar los valores de los par´ametros a partir de datos observados de la realidad. Ejemplo 1.9. Basados en el n´ umero de fumadores observado en una encuesta (normalmente hecha a solo una muestra de la poblaci´ on), podemos utilizar un modelo estad´ıstico para estimar la fracci´ on de fumadores en la poblaci´ on. Conociendo este par´ ametro, utilizamos un modelo de probabilidad para estimar el contenido probable de cualquier muestra o subconjunto de la poblaci´ on sin necesidad de nuevas encuestas.

1.2.

Conceptos b´ asicos en Teor´ıa de la Probabilidad

Espacio muestral Definici´ on 1.1. Sea E un experimento, se define el espacio muestral de E, denotado S, como el set de todos los resultados posibles de E. Ejemplo 1.10. Si un experimento consiste en lanzar una moneda exactamente una vez, entonces S = {cara, sello} = {C, T }. Ejemplo 1.11. Si una moneda es lanzada exactamente dos veces, entonces S {(C, C), (C, T ), (T, C), (T, T )}.

=

Quiz: ¿Cual es el espacio muestral si dos monedas diferentes son lanzadas simult´aneamente?. ¿Como se modifica su respuesta si las monedas son indistinguibles?. Ejemplo 1.12. Cuando se testea la duraci´ on de una ampolleta, S = {t |t ≥ 0} = R) bolas sin reemplazo, encuentre la probabilidad que las dos u ´ltimas bolas rojas sean seleccionadas en las u ´ltimas dos extracciones. 2.12. Una caja contiene 20 bolas rojas, 20 verdes y 20 azules. Si se extraen 10 bolas sin reemplazo, encuentre la probabilidad que al menos un color no est´e inclu´ıdo en la selecci´ on. 2.13. Si una moneda balanceada es lanzada doce veces, encuentre la probabilidad que se obtengan exactamente cinco caras. 2.14. Una caja contiene 3 bolas rojas, 5 verdes y 2 blancas. Si se extraen 3 bolas sin reemplazo, encuentre la probabilidad que las tres sean de diferentes colores. 2.15. Un closet contiene ocho pares de zapatos. Si cinco zapatos son seleccionados al azar, encuentre la probabilidad que la selecci´ on contenga: a) ningun par b) exactamente un par c) exactamente dos pares

Cap´ıtulo 3

Probabilidad Condicional e Independencia de Eventos 3.1.

Ejemplo Introductorio

Considere un experimento que consiste en seleccionar una persona al azar de un grupo de 250 personas agrupadas de la siguiente manera:

Fumadores No Fumadores

Hombres 55 75

Mujeres 35 85

Defina los siguientes eventos: H = {la persona es hombre} M = {la persona es mujer} F = {la persona fuma} N = {la persona no fuma} Preguntas: a) ¿Cu´al es la probabilidad que la persona sea una mujer fumadora? b) ¿Cu´al es la probabilidad que la persona sea mujer? c) ¿Si la persona resulta ser hombre, cu´al es la probabilidad que sea fumador? Como todas las personas del grupo tienen la misma posibilidad de ser escogidas, contestaremos estas preguntas utilizando la Ecuaci´on (1.1) para espacios muestrales. Nota: Utilizaremos notaci´on que definiremos m´as adelante. 20

Ricardo Gatica E.

Probabilidad para Ingenieros

21

Respuestas: a) P (M ∩ F ) = b) P (M ) =

n´ umero de mujeres fumadoras total de personas

=

35 250

# mujeres fumadoras + # mujeres no fumadoras total de personas

c) P (F/H) =

n´ umero de hombres fumadores total de hombres

=

(Probabilidad Conjunta) =

35+85 250

55 55+75

(Probabilidad Total) (Probabilidad Condicional)

Observe que en c) ya se sabe que la persona es hombre, entonces, al aplicar (1.1) se reduce el n´ umero total de resultados (el denominador) al n´ umero total de hombres (en vez del n´ umero total de personas como en a) y b)). En este caso se dice que el espacio muestral ha sido reducido al evento {la persona es hombre}.

3.2.

Probabilidad Conjunta y Condicional

Probabilidad Conjunta Definici´ on 3.1. Sean A y B dos eventos arbitrarios en el espacio muestral S. La probabilidad conjunta de A y B es la probabilidad del evento A ∩ B, es decir, la probabilidad de que el resultado est´e contenido en A y B simult´ aneamente. Probabilidad Condicional Definici´ on 3.2. Sean A y B dos eventos arbitrarios en el espacio muestral S, tal que P (B) > 0. Definiremos la probabilidad condicional de A dado B, denotada P (A/B), como: P (A/B) = P (A ∩ B)/P (B)

(3.1)

P (A/B) es la probabilidad que el resultado pertenezca a A, si se sabe que pertenece a B. En otras palabras, P (A/B) es la probabilidad de A dado que se tiene la informaci´on que B ocurri´o. Formalmente, se dice que P (A/B) es la probabilidad de A cuando el espacio muestral es reducido desde S a B (ver Figura 3.1). De este modo, se puede pensar en P (A) como P (A/S). Para verificar esto observe que P (A/S) = P (A ∩ S)/P (S) = P (A)/1 = P (A). Nota: A/B no es un evento.

Ricardo Gatica E.

Probabilidad para Ingenieros

22

Figura 3.1: Esquema Probabilidad Condicional

Ejemplo 3.1. Considere un experimento que consiste en extraer dos art´ıculos sin reemplazo de un conjunto de diez art´ıculos. Siete de los objetos no son defectuosos, y tres de ellos son defectuosos. Defina los siguientes eventos: A ={el primer objeto es defectuoso} A0 ={el primer objeto no es defectuoso} B ={el segundo objeto es defectuoso} Entonces: P(A)=3/10 P(A’)=7/10 P (B ∩ A) = C23 /C210 = 1/15 P (B ∩ A0 ) = 21/90 (¿por qu´e?) P (B/A) = P (B ∩ A)/P (A) = (1/15)/(3/10) = 2/9 P (B/A0 ) = P (B ∩ A0 )/P (A0 ) = (21/9)/(7/10) = 3/9 Observe que estos resultados son intuitivos. Si el primer art´ıculo resulta ser defectuoso, entonces el segundo objeto debe ser seleccionado de un conjunto de 9 objetos con 2 defectuosos. Similarmente, si el primer objeto no es defectuoso, el segundo objeto debe ser seleccionado de un conjunto de 9 objetos con 3 defectuosos. Adem´ as observe que ´este es el mismo razonamiento que se utiliz´ o anteriormente al aplicar el Principio de Multiplicaci´ on. Quiz: Repita el ejemplo asumiendo que los objetos se extraen con reemplazo. ¿Comentarios?.

Ricardo Gatica E.

Probabilidad para Ingenieros

23

Propiedades de la Probabilidad conjunta y condicional Sean A y B dos eventos arbitriarios en un espacio muestral S. Entonces: C1. Si A y B son mutuamente excluyentes, entonces P (A ∩ B) = P (A/B) = P (B/A) = 0 C2. Si A ⊆ B, entonces P (B/A) = P (B ∩ A)/P (A) = P (A)/P (A) = 1 C3. P (·/A) es una funci´on de probabilidad. Esto significa que, para una condici´on fija A, las probabilidades condicionales satisfacen todas las propiedades (P1. a P7.) de una funci´ on de probabilidad. C4. Si A1 , A2 , . . . , Ak son eventos mutuamente excluyentes en S, entonces P (A1 ∪ A2 ∪ . . . ∪ Ak /B) = P (A1 /B) + P (A2 /B) + . . . + P (Ak /B) Nota: Esto es consecuencia directa de C3. C5. Teorema de la Multiplicaci´on de las Probabilidades P (A/B)P (B) = P (B/A)P (A) = P (A ∩ B) (Por qu´e?) C6. Teorema de la Probabilidad Total Sea A1 , A2 , . . . , Ak una partici´on de S, entonces P (B) = P (B ∩ A1 ) + P (B ∩ A2 ) + . . . + P (B ∩ Ak ),

(3.2)

o equivalentemente, P (B) = P (B/A1 )P (A1 ) + P (B/A2 )P (A2 ) + . . . + P (B/Ak )P (Ak ).

(3.3)

Nota: Com´ unmente, cuando se calcula utilizando las ecuaciones (3.2) o (3.3), P (B) es referida como la probabilidad total o marginal de B. Nota: Observe que, en particular, A y A0 representan una partici´on de S. Por lo tanto el Teorema de la Probabilidad Total implica P (B) = P (B ∩ A) + P (B ∩ A0 ).

(3.4)

C7. Sea A1 , A2 , . . . , Ak una partici´on de S, entonces: P (B∩A) = P (B∩A1 )+P (B∩A2 )+. . .+P (B∩Ak ) = P (B/A1 )P (A1 )+. . .+P (B/Ak )P (Ak ). Quiz: Comprobar la propiedad C7. Nota: En C1. a C7. asuma P (A) > 0, P (B) > 0 y/o P (Ai ) > 0 seg´ un sea necesario.

Ricardo Gatica E.

Probabilidad para Ingenieros

24

Figura 3.2: Teorema de la Probabilidad Total

3.3.

Independencia de Eventos

Definici´ on 3.3. Sean A y B dos eventos arbitrarios en un espacio muestral S. A y B son independientes si P (A ∩ B) = P (A)P (B) (3.5) Propiedad 3.1. Si A y B son eventos independientes, entonces: a) P (A/B) = P (A) b) P (B/A) = P (B) Nota: En efecto (3.5), a) y b) son equivalentes, es decir, cualquiera de ellas implica las otras dos. La independencia de los eventos A y B implica que la informaci´on relativa a la ocurrencia o no ocurrencia de uno de ellos no provee informaci´on adicional respecto de la probabilidad de ocurrencia del otro. Ejemplo 3.2. Considere un experimento que consiste en lanzar dos dados balanceados distinguibles. Defina los siguientes eventos en el espacio muestral usual (36 pares ordenados): A ={el primer dado es par} B ={el segundo dado es 1 o 6} Parece intuitivamente obvio que el resultado de un lanzamiento no influencia (no aporta informaci´ on) sobre el resultado del otro lanzamiento, en consecuencia A y B debieran ser independientes. Para comprobarlo, verifique mediante enumeraci´ on (recordemos que estamos trabajando en el espacio muestral de 36 pares)que:

Ricardo Gatica E.

Probabilidad para Ingenieros

25

P (A) = 18/36 = 1/2 P (B) = 12/36 = 1/3 P (A ∩ B) = 6/36 = 1/6 = 1/2 ∗ 1/3 = P (A)P (B) Por lo tanto, nuestra intuici´ on es correcta. Note adem´ as que: P (A/B) = P (A ∩ B)/P (B) = (1/6)/(1/3) = 1/2 = P (A) P (A/B) = P (A ∩ B)/P (B) = (1/6)/(1/3) = 1/2 = P (A) lo que verifica la propiedad 3.1. Ejemplo 3.3. Considere nuevamente el Ejemplo 3.1. Utilizando el Teorema de la Probabilidad Total, tenemos: P (B) = P (B ∩ A) + P (B ∩ A0 ) = 1/15 + 21/90 = 3/10 Dado que P (B/A) = 2/9 6= P (B), se concluye que A y B no son independientes. Observe, sin embargo, que P(A)=P(B), es decir, la probabilidad no condicional (o total) que el segundo objeto sea defectuoso es la misma que la probabilidad que el primero sea defectuoso. Este ejemplo demuestra que este hecho no puede ser interpretado como independencia. Observe adem´ as, que la dependencia entre A y B puede concluirse del hecho que P (B/A) 6= P (B/A0 ) (¿Por qu´e?). Nota: En general, cuando extraemos objetos sin reemplazo desde un conjunto de objetos, la probabilidades no condicionales o totales asociada con la primera, segunda,. . . , etc., extracci´ on son las mismas que las probabilidad asociada a la primera extracci´on. Nota: Observe que en general, si dos sucesos A y B son mutuamente excluyentes, no son independientes. En efecto, P (A/B) = 0 y P (B/A) = 0, por lo tanto, la ocurrencia de uno de estos eventos, previene la ocurrencia del otro. Esto implica, que descontando el caso trivial cuando P (A) = P (B) = 0, A y B son altamente dependientes. Definici´ on 3.4. Para k ≥ 3, se dice que k eventos A1 , A2 , . . . , Ak , son mutuamente independientes si cada subconjunto de k − 1 eventos son mutuamente independientes y P (A1 ∩ A2 ∩ . . . ∩ Ak ) = P (A1 )P (A2 ) . . . P (Ak ). Ejemplo 3.4. Considere un experimento que consiste en lanzar dos dados balanceados distinguibles. Defina los siguientes eventos en el espacio muestral uniforme usual (36 pares ordenados):

Ricardo Gatica E.

Probabilidad para Ingenieros

26

A ={El primer dado es par} B ={El segundo dado es par} C ={La suma de los dados es par} Como los resultados son equiprobables, es f´ acil verificar por enumeraci´ on (tarea para el lector) que: P (A) = P (B) = 1/2 P (C) = 18/36 = 1/2 P (A ∩ B) = 1/4 = 1/2 · 1/2 = P (A)P (B) ⇒ A y B son independientes P (A ∩ C) = 1/4 = P (A)P (C) ⇒ A y C son independientes P (B ∩ C) = 1/4 = P (B)P (C) ⇒ B y BC son independientes Observe que P (C/A) = P (B) y P (C/B) = P (A) (¿por qu´e?). Entonces P (A ∩ C) y P (B ∩ C) pueden ser calculados tambi´en como: P (A ∩ C) = P (A)P (C/A) = P (A)P (B) = 1/2 · 1/2 = 1/4 P (A ∩ B) = P (B)P (C/B) = P (B)P (A) = 1/2 · 1/2 = 1/4. Pero A, B y C no son mutuamente independientes. Puede verificarse por enumeraci´ on que P (A ∩ B ∩ C) = 1/4 6= P (A)P (B)P (C). El problema surge del hecho que (A ∩ B) ⊆ C, lo que implica que P (C/A ∩ B) = 1 6= P (C).

3.4.

El Teorema de Bayes

Teorema 3.1. Sea B1 , B2 , . . . , Bk una partici´ on del espacio muestral S, y sea A un evento arbitrario en S, con P (A) > 0, entonces P (Bj /A) =

P (Bj /A)P (A) P (Bj ∩ A) P (A/Bj )P (Bj ) = = Pk P (A) P (A) i=1 (P (A/Bi )P (Bi ))

(3.6)

Ricardo Gatica E.

Probabilidad para Ingenieros

27

Nota: Observe que en (3.6) simplemente aplicamos el Teorema de la Multiplicaci´on de las Probabilidades (Propiedad C5.) al numerador, y el Teorema de la Probabilidad Total (Propiedad C6.) al denominador. El Teorema de Bayes es u ´til para calcular las llamadas probabilidades a posteriori. Cuando dos eventos A y B pueden ser l´ogicamente ordenados (generalmente utilizando una relaci´on de tiempo), y el orden est´a dado por (A,B), entonces P(B/A) se llama probabilidad a priori, y P(A/B) se llama probabilidad a posteriori. Ejemplo 3.5. Dos m´ aquinas distintas M1 y M2 producen art´ıculos id´enticos. 10 % de los art´ıculos producidos por M1 son defectuosos, y 95 % de los producidos por M2 son no defectuosos. Un grupo de 120 art´ıculos contiene 40 art´ıculos provenientes de M1 y 80 de M2. Si se selecciona un art´ıculo al azar y resulta ser defectuoso, ¿cu´ al es la probabilidad que el art´ıculo provenga de M1?. ¿Y de M2?. Defina los siguientes eventos: M 1 ={el art´ıculo proviene de M1} M 2 ={el art´ıculo proviene de M2} D ={el art´ıculos es defectuoso} N ={el art´ıculos no es defectuoso} Se tiene la siguiente informaci´ on: P (M 1) = 40/120 = 1/3 P (M 2) = 80/120 = 2/3 P (D/M 1) = 0.1 P (N/M 2) = 0.95 ⇒ P (D/M 2) = 0.05. Entonces

P (M 1/D) =

P (D/M 1)P (M 1) 0.1 · 1/3 1 = = P (D/M 1)P (M 1) + P (D/M 2)P (M 2) 0.1 · 1/3 + 0.05 · 2/3 2

Ejemplo 3.6. Considere nuevamente el Ejemplo 2.5 (este ejemplo fue utilizado para ilustrar los diagramas de ´ arbol). El enunciado es el siguiente: Suponga que se tiene un estante con tres cajones, cada caj´ on tiene dos compartimientos. En un caj´ on hay dos monedas de oro (una en cada compartimiento). En el otro caj´ on, hay dos monedas de plata. En el u ´ltimo caj´ on hay una moneda de oro y una de plata. Si se selecciona al azar un caj´ on y un compartimiento, ¿cu´ al es

Ricardo Gatica E.

Probabilidad para Ingenieros

28

la probabilidad de encontrar una moneda de oro?. Si la moneda encontrada es oro, ¿cu´ al es la probabilidad que el otro compartimiento del mismo caj´ on contenga una moneda de plata?. Definamos los siguientes eventos: C1 ={se selecciona el caj´ on con 2 C2 ={se selecciona el caj´ on con 2 C3 ={se selecciona el caj´ on con 1 O ={se encuentra una moneda de Q ={se encuentra una moneda de

monedas de oro} monedas de plata} moneda de oro y una de plata} oro} plata}

Se tiene la siguiente informaci´ on: P (C1) = P (C2) = P (C3) = 1/3 P (O/C1) = 1 P (Q/C2) = 1 P (O/C3) = P (Q/C3) = 1/2 Entonces, P (O) = P (O/C1)P (C1) + P (O/C2)P (C2) + P (O/C3)P (C3) = 1 · 1/3 + 0 · 1/3 + 1/2 · 1/3 = 1/2 La segunda probabilidad puede ser interpretada como: P (C3/O) =

3.5.

P (C3 ∩ O) P (O/C3)P (C3) 1/2 · 1/3 1 = = = P (O) P (O) 1/2 3

Ejercicios

3.1. Encuentre la probabilidad de que una carta sacada de un mazo de cartas sea un rey, si Ud. ya sabe que es una figura. 3.2. Dos cartas son extra´ıdas de un mazo ingl´es. Encuentre la probabilidad que: a) b) c) d)

la segunda la segunda se obtenga se obtenga

carta sea una reina dado que la primera es una reina carta sea una reina dado que la primera es un As exactamente un As dado que la primera fue As al menos un As dado que la primera fue As

Ricardo Gatica E.

Probabilidad para Ingenieros

29

3.3. Dos dados son lanzados. Encuentre la probabilidad que: a) el primer dado sea 6 dado que la suma es 8. b) el primer dado sea impar dado que la suma es 8 c) un dado sea 6 dado que la suma es 8. 3.4. Una caja contiene dos bolas rojas y una azul. Se extrae una bola de la caja y se reemplaza por una bola azul, luego se extrae una segunda bola. Encuentre la probabilidad que la segunda bola sea azul. 3.5. La probabilidad de que un misil destruya el blanco es de 0.8. Los misiles son disparados independientemente al blanco hasta que el blanco es destru´ıdo. Encuentre la probabilidad de que se necesiten m´ as de tres misiles para destruir el blanco. 3.6. Asuma que usted saca cartas de un mazo de una a la vez. Encuentre la probabilidad de obtener un coraz´ on antes que una carta negra. 3.7. Un dado cargado tiene P (1) = 0.2, P (2) = 0.3, P (3) = P (4) = P (5) = P (6) = 0.125. Si usted lanza el dado repetidas veces, encuentre la probabilidad de obtener: a) un n´ umero mayor que dos en el primer intento b) un n´ umero par en el segundo intento c) un n´ umero par en el segundo intento dado que obtuvo un n´ umero mayor que dos en el primero. d) un n´ umero impar en el quinto intento si en el primero y segundo intento obtuvo un 3. e) un 2 antes que un 1. 3.8. Una moneda cargada tiene probabilidad p de obtener cara, y 1 − p de obtener sello. Si la moneda es lanzada 5 veces, encuentre la probabilidad de obtener: a) 5 sellos. b) a lo menos una cara. c) la secuencia sello, sello, cara, cara, sello d) cualquier secuencia espec´ıfica conteniendo exactamente dos caras y tres sellos e) dos caras y tres sellos en cualquier orden f ) al menos tres sellos. 3.9. La moneda 1 tiene probabilidad .5 de obtener cara. La moneda 2 tiene probabilidad .25 de obtener cara. Encuentre la probabilidad de obtener dos caras si: a) una moneda es seleccionada al azar y lanzada dos veces b) Una moneda es seleccionada y lanzada una vez, y luego el proceso se repite. 3.10. Sean A, B y C eventos tales que P (A ∪ B) = 0.7, P (C) = 0.3, P (A/B) = P (B/A) y P (A ∩ B/C) = P (C/A ∩ B). Encuentre P (A) y P (B).

Ricardo Gatica E.

Probabilidad para Ingenieros

30

3.11. Asuma que el 0.5 % de una poblaci´ on tiene c´ ancer. Un ex´ amen m´edico diagnostica c´ ancer en el 99 % de las personas que efectivamente tienen c´ ancer, y en el 3 % en las personas que no tienen c´ ancer. Mar´ıa ha sido diagnosticada con c´ ancer. Encuentre la probabilidad de que ella no tenga c´ ancer. 3.12. Si una m´ aquina est´ a bien ajustada, solo el 4 % de los art´ıculos que produce son defectuosos. Pero si la m´ aquina no est´ a bien ajustada, el 10 % de los art´ıculos son defectuosos. La m´ aquina est´ a bien ajustada el 90 % de las veces. Encuentre la probabilidad que la m´ aquina est´e bien ajustada si: a) se tom´ o una muestra de 10 art´ıculos y no se encontr´ o ninguno defectuoso b) se tom´ o una muestra de 10 art´ıculos y 2 resultaron defectuosos (Recuerde el Ejercicio ??) c) los art´ıculos fueron inspeccionados de a uno y el primer defectuoso se encontr´ o en la d´ecima inspecci´ on. 3.13. AlwaysCola Ltda. tiene dos productos: A-cola y B-cola. Basados en los resultados de una encuesta reciente, la compa˜ n´ıa ha proporcionado las siguientes estimaciones: Producto A-cola B-cola Ambas Ninguna

Hombres 66 % 30 % 14 %

Mujeres 50 %

Los n´ umeros en la tabla representan el porcentaje de personas que consumen el respectivo producto (por ejemplo: El 66 % de los hombres consume A-cola). La encuesta tambi´en revel´ o que el 45 % de los consumidores de A-cola son mujeres, y que el 21 % de las personas consume solo B-cola. Si el porcentaje de hombres en la poblaci´ on es 50 %, complete la tabla y encuentre el porcentaje de consumidores de AlwaysCola. 3.14. Suponga P (A) = 0.3, P (B) = 0.5 y P (A/B 0 ) = 0.4. Encuentre: a) b) c) d)

P (B 0 ) P (A ∩ B 0 ) P (A ∩ B) P (A ∪ B)

Cap´ıtulo 4

Variables Aleatorias y Funciones de Probabilidad 4.1.

Ejemplo Introductorio

Considere los siguientes experimentos: Experimento 1: Lanzar dos dados distinguibles y registrar los resultados respectivos. Experimento 2: Lanzar dos dados distinguibles y registrar la suma de los resultados. Sean S1 y S2 los espacios muestrales asociados al experimentos 1 y 2, respectivamente. En ejemplos anteriores se ha establecido que S1 = {(1, 1), (1, 2), . . . , (1, 6), (2, 1), (2, 2), . . . , (6, 6)} y S2 = {2, 3, . . . , 12}. La idea en este ejemplo es relacionar estos dos experimentos y sus espacios de probabilidad. Asumiendo que los dados son balanceados, se sabe que los resultados en S1 son equi-probables. Observar que para calcular la distribuci´on de probabilidades de S2 , puede verse los elementos de S2 como eventos en S1 . La Tabla 4.1 presenta estos c´alculos. Sea F1 la familia de todos los eventos posibles en S1 . La Tabla 4.1 muestra que S2 ⊂ F1 . Por lo tanto el espacio de probabilidad asociado con el Experimento 1 provee toda la informaci´ on necesaria para definir el espacio de probabilidad del Experimento 2. Notar que S1 * F2 , lo que implica que esta no es una relaci´on de equivalencia, es decir, no es posible calcular la distribuci´on de probabilidades del Experimento 1 utilizando la distribuci´on de probabilidades del Experimento 2. 31

Ricardo Gatica E.

Resultado en S2 2 3 4 5 6 7 8 9 10 11 12

Probabilidad para Ingenieros

32

Tabla 4.1: Distrinuci´on de Probabilidades Experimento 2. Evento en S1 Resultados Probabilidad favorables (1,1) 1 1/36 (1,2), (2,1) 2 2/36 (1,3), (2,2), (3,1) 3 3/36 (1,4), (2,3), (3,2),(4,1) 4 4/36 (1,5), (2,4), (3,3), (4,2), (5,1) 5 5/36 (1,6), (2,5), (3,4), (4,3), (5,2), (6,1) 6 6/36 (2,6), (3,5), (4,4), (5,3), (6,2) 5 5/36 (3,6), (4,5), (5,4), (6,3) 4 4/36 (4,6), (5,5), (6,4) 3 3/36 (5,6), (6,5) 2 2/36 (6,6) 1 1/36

Para entender la relaci´on descrita en el parrafo anterior, puede pensarse que el Experimento 2 est´a compuesto de 2 fases. La primera fase consiste en lanzar los dados y registrar los resultados individuales. La segunda fase consiste en calcular y registrar la suma de los resultados. Observar, que de hecho, la primera fase corresponde al Experimento 1. Adem´as, la segunda fase es simplemente una operaci´on determin´ıstica. En otras palabras, puede pensarse en S2 como un segundo espacio muestral asociado con el Experimento 1. Nota: En general, puede definirse un experimento como compuesto por una fase aleatoria y una fase determin´ıstica. Si dos experimentos tienen la misma fase aleatoria, puede pensarse en ellos como el mismo experimento con dos espacios muestrales distintos asociados. Observar que esto no implica la equivalencia de sus espacios de probabilidad. Para formalizar la relaci´on entre S1 y S2 , se procede como sigue: Sea P1 la funci´on de probabilidad asociada con el Experimento 1, y P2 la funci´on de probabilidad asociada con el Experimento 2. Sea X : S1 → S2 una funci´on definida por X(i, j) = i + j. Entonces, se tiene que para todo k ∈ S2 P2 ({k}) = P1 ({(i, j) ∈ S1 : X(i, j) = k}) = P1 ({(i, j) ∈ S1 : i + j = k}). Observar que la funci´on X es una representaci´on matem´atica de la segunda fase del Experimento 2. Muchas otras funciones podr´ıan definirse en S1 , generando una variedad de espacios muestrales asociados con el experimento. Este tipo de funciones son llamadas variables aleatorias. Notar que el car´acter aleatorio de X viene del hecho que su dominio es un espacio muestral, y no de su naturaleza funcional (la que es determin´ıstica).

Ricardo Gatica E.

Probabilidad para Ingenieros

33

Figura 4.1: Ilustraci´on del concepto de variable aleatoria

4.2.

Variables Aleatorias

Definici´ on 4.1. Sea E un experimento, y S un espacio muestral asociado con E. Una funci´ on X que asigna a cada elemento s ∈ S un n´ umero real X(s) se denomina variable aleatoria (v.a.)1 . Nota: Impl´ıcito en la definici´on de variable aleatoria esta el requerimiento que X(s) est´e definido para todo s ∈ S, y que X(s) ∈ 1/X < 2} Encuentre P {X < 2.5/X ≥ .5}.

4.5. Un punto es seleccionado al azar desde un intervalo de largo L, dividiendo as´ı el intervalo en dos segmentos. Encuentre la probabilidad que la raz´ on entre el segmento m´ as corto y el m´ as largo sea menor a .25. 4.6. La vida u ´til de cierto componente electr´ onico es una v.a.c. con f (x) = 100/x2 , x > 100. a) Encuentre la probabilidad que el componente dure menos de 200 hrs., si se sabe que est´ a a´ un en condiciones operativas despues de 150 hrs. b) Si tres de tales componentes son instalados en una m´ aquina, encuentre la probabilidad que exactamente uno de ellos deba ser reemplazado antes de 150 hrs. c)Encuentre el m´ınimo n´ umero de componentes que debe ser instalados en una m´ aquina de manera que la probabilidad que al menos un componente dure m´ as 150 hrs. sea igual o superior a .95. 4.7. Sea X una variable aleatoria con la siguiente   0 si    x/3 si F (x) = x/2 si    1 si a) Grafique F (·). b) ¿Es X discreta o continua?.

f.d.a.: x 0} P {X > 0/Y > 8} La f.d.a. y la f.d.p. de Y .

Cap´ıtulo 5

Principales Caracter´ısticas de las Variables Aleatorias En este cap´ıtulo se presentan varias medidas que se utilizan para describir en forma resumida la distribuci´on de probabilidad de una variables aleatoria.

5.1.

Valor Esperado

El concepto de promedio o media de un conjunto de n´ umeros nos es P familiar. Si tenemos n valores x1 , x2 , . . . , xn , entonces la media aritm´etica se define como x ¯ = ni=1 (xi /n). Por ejemplo, suponga que usted participa en el siguiente juego: Una moneda balanceada es lanzada 3 veces o hasta obtener cara (lo que suceda primero). Si se obtiene cara en el primer, segundo o tercer lanzamiento usted ganar´a $2, $4 u $8, respectivamente. Si no obtiene cara, usted perder´a $20. De este modo, si X es la variable aleatoria que representa la ganancia neta, entonces la distribuci´ on de probabilidad de X est´a dada por {(2, 1/2), (4, 1/4), (8, 1/8), (−20, 1/8)}. Si ud juega n veces ¯ representar´a el y define Xi como la cantidad de dinero que usted gana en la ronda i, entonces X ¯ promedio ganado por juego (note que X es una combinaci´on lineal de variables aleatorias, por lo tanto es una variable aleatoria). En general, parece razonable que usted estar´a dispuesto a participar en el juego si existen “buenas posibilidades” que la ganancia promedio por juego sea positiva. Si se define n0 como el n´ umero de veces que no obtenemos cara, y para i = 1, 2, 3, ni como el n´ umero de veces que obtenemos cara en el i-´esimo lanzamiento, se tiene que: Ganancia promedio =

2n1 + 4n2 + 8n3 − 20no n1 n2 n3 n0 = 2 +4 +8 −20 = 2f1 +4f2 +8f3 −20f0 n n n n n

49

Ricardo Gatica E.

Probabilidad para Ingenieros

50

donde fi representa las frecuencias relativas respectivas. Como l´ımn→∞ fi = pi , se tiene que: l´ım Ganancia promedio = 2p1 + 4p2 + 8p3 − 20p0 = 2 · 1/2 + 4 · 1/4 + 8 · 1/8 − 20 · 1/8 = 0.5

n→∞

La propiedad de regularidad nos dice que la ganancia promedio por juego va a tender a este valor luego de muchos, muchos juegos. Definici´ on 5.1. Sea X una variable aleatoria con cierta distribuci´ on de probabilidad. Se define el Valor Esperado(tambi´en llamado media o esperanza) de X, denotado por E(X), como: 1.

Si X es una variable aleatoria discreta X

E(X) =

pi xi

(5.1)

xf (x)dx

(5.2)

xi ∈Rx

2.

Si X es una variable aleatoria continua Z E(X) = Rx

Nota: Observe que E(X) no necesita ser un valor en RX (como muestra el ejemplo introductorio). Nota: El valor esperado de una variable aleatoria no es una variable aleatoria, es una constante, es una caracter´ıstica num´erica de la distribuci´on de probabilidad. Notaci´ on: Com´ unmente, E(X) se denota tambi´en por µX , o, cuando no existe posibilidad de confusi´on, simplemente por µ. Sea E un experimento y X una variable aleatoria asociada a E. Como se ha indicado anteriormente, si E se repite n veces y se difine Xi como la variable aleatoria asociada con la i-´esima ¯ = Pn (Xi /n) tiende a E(X) a medida que n aumenta. Veremos m´ as repetici´on. Entonces X i=1 adelante que La Ley de los Grandes N´ umeros permite modelar esta tendencia. Observar que el concepto de valor esperado es an´alogo al concepto de “centro de masa” en mec´anica. En este sentido, el valor esperado representa el “centro” de la distribuci´on de probabilidad. Por esta razon, se dice que E(X) es una medida de tendencia central. En un sentido general, se espera que los valores de la variable aleatoria se concentren alrededor de E(X). Ejemplo 5.1. Sea E un experimento que consiste en lanzar dos dados balanceados, y sea X la variable aleatoria que representa la suma de los valores de los dados. Entonces: E(X) = 2 ·

1 2 3 4 5 6 5 4 3 2 1 + 3 · + 4 · + 5 · + 6 · + 7 · + 8 · + 9 · + 10 · + 11 · + 12 · =7 36 36 36 36 36 36 36 36 36 36 36

Ricardo Gatica E.

Probabilidad para Ingenieros

51

Ejemplo 5.2. (La Distribuci´ on Geom´ etrica) Si X es una variable aleatoria geom´etrica (ver Ejemplo 4.7), entonces el valor esperado de X est´ a dado por: E(X) =

∞ X

i(1 − p)i−1 p = p(1 − p)−1

i=1

∞ X

i(1 − p)i = p(1 − p)−1

i=1

h

i 1 1−p = (1 − (1 − p))2 p

Ejemplo 5.3. (La Distribuci´ on Uniforme): Si X ∼ U [a, b] (Ejemplo 4.11), entonces Z

b

E(X) = a

x x2 b b2 − a2 b+a dx = = = b−a 2(b − a) a 2(b − a) 2

Ejemplo 5.4. Sea X una variable aleatoria continua con f (x) = 2x, 0 ≤ x ≤ 1. Entonces Z

1

Z x · 2xdx =

E(X) = 0

1

2x2 dx =

0

2x3 1 2 = 3 0 3

Propiedades del valor Esperado [Nelson] Sean X e Y variables aleatorias, y sea c una constante, entonces: E1. E(X + Y ) = E(X) + E(Y ) E2. E(cX) = c · E(X) E3. E(X + c) = E(X) + c E4. E(c) = c E5. E(X) ≤ E(|X|) E6. E(XY ) = E(X)E(Y ) si X e Y son independientes. Nota: Para comprender totalmente la propiedad E6., se necesita el concepto de variables aleatorias independientes. Este concepto se estudiar´a formalmente en el Cap´ıtulo 8. En este punto se provee un definici´on m´as bien intuitiva: Dos variables aleatorias X e Y son independientes si el valor adquirido por una de ellas no influencia de ninguna manera el valor adquirido por la otra. De este modo, conocer el valor de, por ejemplo, X no proporciona informaci´on respecto del valor de Y .

Ricardo Gatica E.

Probabilidad para Ingenieros

52

Valor Esperado de una Funci´ on de una Variable Aleatoria Como se estableci´o en la Secci´on 4.6, si X es una variable aleatoria e Y = H(X), entonces Y tambi´en es una variable aleatoria. Si se quiere evaluar E(Y ),puede hacerse directamente utilizando la Definici´on 5.1. Pero esto requerir´ıa conocer la distribuci´on de probabilidad de Y . Encontrar la distribuci´on de probabilidad de Y puede ser una tarea dif´ıcil, especialmente si H(X) es una funci´on complicada. El Teorema 5.1 provee una forma alternativa (usualmente m´as f´acil) para calcular E(Y ). Teorema 5.1 (Meyer). Sea X una variable aleatoria y sea Y = H(X). Se tiene que: a) Si X es una variable aleatoria discreta con distribuci´ on de probabilidad {(xi , p(xi )), i = 1, 2 . . .}, entonces X E(Y ) = H(xi )p(xi ) (5.3) x∈Rx

b) Si X es una variable aleatoria continua con f.d.p. f (x), entonces: Z H(x)f (x)dx E(Y ) =

(5.4)

Rx

Ejemplo 5.5. Sea X ∼ U [10, 30] e Y = (X − 20)2 . Entonces Z

30

E(Y ) = 10

(x − 20)2

1 (x − 20)3 30 2000 dx = = 33.33 = 20 60 60 10

Quiz: Calcular E(Y ) utilizando la definici´on 5.1 (vea fY (y) en el Ejemplo 4.17).

5.2.

Varianza

Suponga que usted quiere decidir entre dos marcas de ampolletas, la marca A y la marca B. Ambas, A y B aseguran que la duraci´on de sus ampolletas tiene un valor esperado de 1000 horas. Esto implica que la duraci´on promedio de muchas ampolletas va a ser cercana a 1000 horas en ambos casos. Pero esta informaci´on es incompleta, no indica cu´an lejano de este valor puede ser la vida u ´til de una ampolleta en particular. Por ejemplo, asuma que la duraci´on de una ampolleta de tipo A est´a uniformemente distribuida entre 900 y 1100, y que la duraci´on de una ampolleta B es casi siempre 700 horas, pero de vez en cuando hay una ampolleta que dura m´as de 2000 horas (para que en total promedien 1000), ¿cu´al escoger´ıa Ud.? La varianza es una medida cuantitativa que nos ayudar´a a distinguir entre estas situaciones. Es una medida de la dispersi´on de la variables aleatoria alrededor del valor esperado.

Ricardo Gatica E.

Probabilidad para Ingenieros

53

Definici´ on 5.2. Sea X una variable aleatoria. Se define la varianza de X, donotada por V (X), como V (X) = E[(X − E(X))2 ] = E[(X − µ)2 ] (5.5) Definici´ on 5.3. Se define la Desviaci´ on Estandar de X como: p σX = V (X)

(5.6)

Nota: Observar que V (X) se expresa en unidades cuadradas de X y σx se expresa en las mismas unidades que X Nota: Observar que: V (X) = E[(X − E(X))2 ] = E[X 2 − 2XE(X) + (E(X))2 ] = E(X 2 ) − E(2XE(X)) + (E(X)2 ) = E(X 2 ) − 2E(X)E(X) + (E(X)2 ) = E(X 2 ) − (E(X)2 ) Nota: Observe que (X − E(X))2 es simplemente una funci´on de X. Por lo tanto V (X) es s´olo el valor esperado de una funci´on de X. 2 , o simplemente σ 2 . Notaci´ on: Com´ unmente, la varianza se denota tambi´en por σX

Ejemplo 5.6. Sea X la suma de dos dados (vea el Ejemplo 5.1), entonces: E(X) = (−5)2 ·

2 3 4 1 + (−4)2 · + (−3)2 · + (−2)2 · 36 36 36 36 5 6 5 4 3 2 1 2 2 2 + (−1) · +0· +1 · +2 · + 32 · + 42 · + 52 · = 5.8333 36 36 36 36 36 36 36

Ejemplo 5.7. Sea X ∼ U [a, b], entonces Z V (X) = a

b

(x − (a + b)/2)2 (b − a)2 dx = b−a 12

Quiz: Considere X como en el Ejemplo 5.4. Encuentre la varianza de X. Propiedades de la Varianza. Sean X e Y variables aleatorias, y c una constante, entonces: V1. V (c) = 0

Ricardo Gatica E.

Probabilidad para Ingenieros

54

Figura 5.1: Localizaci´on v/s Dispesi´on

V2. V (cX) = c2 V (X) V3. V (X + c) = V (X) V4. V (X + Y ) = V (X) + V (Y ) − 2E[(X − E(X))(Y − E(Y ))] V5. V (X + Y ) = V (X) + V (Y ), si X e Y son independientes. V6. V (X) = E[(X − c)2 ] − [E(X − c)]2 El coeficiente de la Variaci´ on (Nelson) El valor esperado y la varianza proveen dos caracterizaciones diferentes de una variables aleatoria X. Puede pensarse en E(X) como una medida de la “localizaci´ on” de X, mientras que V (X) proporciona informaci´on respecto de la “dispersi´ on” de X. Estas medidas son independientes en el sentido de que el valor esperado no contiene informaci´on respecto de la dispersi´on, y la varianza no da referencia alguna respecto de la localizaci´on de la variable. Observe, por ejemplo, que si X es desplazada en c unidades (se suma la constante c a X), el valor esperado se modifica a E(X + c) = E(X) + c, pero la varianza permanece inalterada, es decir, V (X + c) = V (X). La Figura 5.1 ilustra los conceptos de localizaci´on y dispersi´on. Otra caracter´ıstica cualitativa de una variable aleatoria se denomina “Variabilidad”. Suponga que X ∼ U [50, 150] e Y ∼ U [9950, 10050]. Observe que V (X) = V (Y ) = 833, 33. Sin embargo, parece razonable decir que X es m´as “variable” que Y , porque en t´erminos porcentuales podedemos hacer una predicci´on mucho m´as precisa de Y que la que podemos hacer de X (¿por qu´e?). Esto motiva la definici´on de una medida que compare el valor esperado y la varianza. Definici´ on 5.4. Sea X una variable aleatoria. Se define el Coeficiente de Variaci´ on de X como: CX =

σX E(X)

Ricardo Gatica E.

Probabilidad para Ingenieros

55

As´ı mismo, se define el Coeficiente de Variaci´ on cuadrado como: 2 CX =

V (X) [E(X)]2

Observe que en el ejemplo del p´arrafo anterior CX = 0, 288 y CY = 0, 0288. Varianza de una Funci´ on de Variable Aleatoria Como en el caso del valor esperado, si X es una variable aleatoria e Y = H(X), V (Y ) puede calcularse usando la Definici´on 5.2, o usando el Teorema 5.1 de la siguiente manera: V (Y ) = E[(Y − E(Y ))2 ] = E[(H(X) − E(H(X)))2 ] = E[(H(X))2 ] − [E(H(X))]2 Quiz: Encuentre V (Y ) para Y definida en el ejemplo 5.5.

5.3.

Dos Teoremas Fundamentales

Teorema 5.2 (La Desigualdad de Markov). [Nelson] Si X es una variable aleatoria y h(x) es una funci´ on no-negativa y no-decreciente, entonces: P (X ≥ x) ≤

E(h(X)) h(x)

En particular, si X es no-negativa, entonces P (X ≥ x) ≤ E(X)/x. Ejemplo 5.8. Si el tiempo esperado de respuesta de un sistema computacional es 1 segundo, la Desigualdad de Markov nos dice que a lo m´ as el 10 % de los usuarios espera m´ as de 10 segundos. Teorema 5.3 (La Desigualdad de Chebyshev). Sea X una variable aleatoria con E(X) = µ, c una constante y ε una constante positiva, entonces: P {|X − c| ≥ ε} ≤ E[(X − c)2 ]/ε2 Dos consecuencias obvias de (5.7) son: a) Si c = µ, se obtiene P {|X − µ| ≥ ε} ≤

V (X) ε2

b) Si c = µ y ε = kσX , entonces P {|X − µ| ≥ kσX } ≤

1 k2

(5.7)

Ricardo Gatica E.

Probabilidad para Ingenieros

56

Ejemplo 5.9. Una consecuencia de b) es que cualquier variable aleatoria tiene una probabilidad de a lo m´ as 11 % de estar alejada m´ as de 3 desviaciones estandar desde el valor esperado (hacer los c´ alculos). La Desigualdad de Chebyshev es muy u ´til para calcular cotas asociadas a la probabiidad de eventos, cuando no tenemos la distribuci´on de probabilidades exacta de una variable aleatoria, pero conocemos el valor esperado y su varianza. En particular, la consecuencia a) muestra como la varianza mide el “grado de concetraci´on” de X alradedor de E(X), nos dice que grandes desviaciones desde E(X) son improbables si V (X) es peque˜ na. Nota: En efecto, la Desigualdad de Chebyshev es una consecuencia de la Desigualdad de Markov. Quiz: Demuestre la Desigualdad de Chebyshev utilizando la Desigualdad de Markov.

5.4.

Momentos

El Valor esperado y la Varianza son las caracter´ısticas principales de una variable aleatoria. Ellas pertenecen a un conjunto m´as amplio de medidas num´ericas, denominadas momentos, que caracterizan completamente la distribuci´on de probabilidades de una variable aleatoria. Esto quiere decir, que el conjunto de todos los momentos determinan inequ´ıvocamente la distribuci´on, y viceversa. Definici´ on 5.5. Sea X una variable aleatoria. El r-´esimo momento de X alrededor del origen se defina como σr = E(X r ), y el r-´esimo momento central de X se define como µ0r = E[(X − µ)r ]. Nota: Observe que E(X) = µ1 y V (X) = µ02 . Nota: Cualquiera de los dos conjuntos de momentos, {µ0i } o {µi }, basta para describir la distribucion de probabilidades de la variable aleatoria. En las primeras secciones de este cap´ıtulo se ha indicado qu´e tipo de informaci´on es proporcionada por E(X) y V (X). Otros momnetos tambi´en poseen una f´acil interpretaci´on. Por ejemplo µ03 = E[(X − µ)3 ] se asocia con la simetr´ıa de la distribuci´on. Si la distribuci´on presenta un u ´nico valor m´aximo, se tiene que: µ03 > 0 ⇒ La distribuci´on es asim´etrica negativa. µ03 = 0 ⇒ La distribuci´on es sim´etrica. µ03 < 0 ⇒ La distribuci´on es asim´etrica positiva.

Ricardo Gatica E.

Probabilidad para Ingenieros

57

Figura 5.2: Simetr´ıa de una Distribuci´on

5.5.

Distribuciones Condicionales y Valor Esperado Condicional

Distribuci´ on Condicional Sean A y B eventos en un espacio muestral S. En el Cap´ıtulo 3 se defini´o la Probabilidad Condicional de A dado B (P (A/B)) como la probabilidad del evento A dado que se sabe que el resultado del experimento est´a en B (B ya ocurri´o). Tambi´en se indic´o en el Cap´ıtulo 3 que la funci´on P (·/B) es una funci´on de probabilidad y, consecuentemente, satisface todas las propiedades de una funci´on general de probabilidad. Cuando A y B son eventos asociados con una variable aleatoria X, la definici´on permanece igual, pero necesitamos reemplazar S por RX . La funci´on P (·/B) en este caso induce la definici´on de Distribuci´on Condicional. Definici´ on 5.6. Sea X una variable aleatoria discreta con distribuci´ on de probabilidad {(xi , p(xi )), i = 1, 2, . . .} y B ⊆ Rx con P (B) 6= 0. Se define la funci´ on de probabilidad condicional puntual de X dado B como ( p(xi )/P (B) si xi ∈ B, pX/B (xi ) = P {X = xi /B} = para i = 1, 2, . . . . (5.8) 0 en otro caso. Notaci´ on: Cuando no hay posibilidad de confusi´on, se utiliza la notaci´on pA (Xi ) = pX/A (xi ). Definici´ on 5.7. Sea X una variable aleatoria continua con p.d.f. f (x), y B ⊆ Rx con P (B) 6= 0. Se define la funci´ on de densidad de la probabilidad condiconal de X dado B como: ( f (x)/P (B) si x ∈ B, fX/B (x) = (5.9) 0 en otro caso.

Ricardo Gatica E.

Probabilidad para Ingenieros

58

Notaci´ on: Cuando no hay posibilidad de confusi´on, se utiliza la notaci´on fA (x) = fX/A (x). Quiz: Demuestre que fX/B (x) =

∂ (P {X ≤ x/B}) ∂x

Valor Esperado Condicional Luego de definir el concepto de distribuciones condicionales, parece natural definir el valor esperado condicional, esto es, el valor esperado de la variable aleatoria X cuando el rango del espacio se reduce de RX a B. Definici´ on 5.8. Sea X una variable aleatoria y B ⊆ RX , con P (B) 6= 0. Se define el Valor Esperado Condicional de X dado B como: a) Si X es una variable aleatoria discreta con distribuci´ on de probabilidad {(xi , p(xi )), i = 1, 2, . . .}, X E(X/B) = xi pX/B (xi ) (5.10) xi ∈B

b) Si X es una variable aleatoria continua con f.d.p. f(x), Z xfX/B (x) E(X/B) =

(5.11)

x∈B

Nota: Las definici´on de Valor esperado Condicional de una funci´on de una variable aleatoria es an´aloga. Quiz: Encuentre una expresi´on para la varianza condicional de X dado B. Teorema 5.4 (El Teorema del Valor Esperado Total). Sea B1 , B2 , . . . , Bk una partici´ on de Rx . Entonces, k X E(X) = E(X/Bi )P (Bi ) (5.12) i=1

Ejemplo 5.10. Sea X una variable aleatoria continua con f (x) = 2x, 0 ≤ x ≤ 1 (recuerde los ejemplos 4.10, 4.14 y 5.4). Sea A = {X > 0.5}, entonces: P (A) = P (X > 0.5) = F (1) − F (0.5) = 0.75 P (A0 ) = P (X ≤ 0.5) = F (0.5) = 0.25 2x 8x = , 0.5 < x ≤ 1 0.75 3 2x fX/A0 (x) = = 8x, 0 ≤ x ≤ 0.5 0.25 fX/A (x) =

Ricardo Gatica E.

Probabilidad para Ingenieros

1

Z E(X/A) =

Z xfX/A (x)dx =

0.5

0

Z

0.5

1

8 x( x)dx = 3 0.5 Z

0

1

8 2 8 1 7 x dx = x3 = 3 9 0.5 9

.5

0.5

xfX/A0 (x)dx =

E(X/A ) =

Z

Z x(8x)dx =

0

E(X) = E(X/A)P (A) + E(X/A0 )P (A0 ) =

59

0

5

8 5 1 8x2 dx = x3 = 3 0 3

7 1 2 · 0.75 + · 0, 25 = 9 3 3

Notar que este es el mismo resultado obtenido en el ejemplo 5.4. Nota: Puede verificarse en el Ejemplo 5.10 que Z 1 Z 1 8 8x2 1 fX/A (x)dx = xdx = = 1. 6 0,5 0.5 0.5 3 Como obviamente fX/A ≥ 0, puede comprobarse que se satisfacen las propiedades D1. y D2. de la Definici´on 4.8. Esto es cierto en general. Es decir, las distribuciones condicionales satisfacen todas las propiedades de una distribuci´on general de probabilidad. Distribuciones Condicionales en general. Reconsidere las definiciones 5.6 y 5.7. Sea E un experimento y S un espacio muestral asociado con E. Asuma que X es una variable aleatoria definida en S. Sea B ⊆ S un evento en S (no necesariamente en Rx ) con P (B) 6= 0. Entonces todav´ıa tenemos que P (·/B) es una funci´ on de probabilidad y, por lo tanto, induce a una Distribuci´ on Condicional para X, esto es, la Distribuci´ on de Probabilidad de X dado que el espacio muestral se redujo de S a B. El problema en este caso es que pX/B (·) o fX/B (·) (dependiendo de la naturaleza de X) no pueden encontrarse utilizando (5.8) o (5.9) y por lo tanto, deben ser tomadas como dadas. Sin embargo, la Definicion 5.8, y el Teorema 5.4, siguen siendo completamente v´alidos. El Ejemplo 5.11 ilustra este concepto. Notaci´ on: RX/B denotar´a el espacio del rango condicional de X dado que el espacio muestral se reduce de S a B. Nota: En el Teorema 5.4, B1 , B2 , . . . , Bk debe ser un partici´on de S. En la definici´on 5.8, la sumatoria y la integral deben hacerse en RX/B , en vez de sobre B. Ejemplo 5.11. Un estudiante tiene 3 alternativas para resolver un problema. El m´etodo A demora una cantidad de tiempo que se distribuye uniformemente entre 2 y 3 horas, el m´etodo B toma un tiempo al azar cuya f.d.p est´ a dada por f (x) = x/4, 1 ≤ x ≤ 3, y el m´etodo 3 toma una cantidad de tiempo cuya f.d.p est´ a dada por f (x) = 0.5e−0.5x , x ≥ 0. Se busca el tiempo esperado que el estudiante demorar´ a en resolver el problema.

Ricardo Gatica E.

Probabilidad para Ingenieros

60

Observar primero que, en este caso, las distribuciones condicionales son dadas. Si X es el tiempo que el estudiante demora en resolver el problema, y se define A = {el estudiante escoge el m´etodo A}, B = {el estudiante escoge B}, y C = {el estudiante escoge C}, se tiene que: 5 fX/A (x) = 1, 2 < x < 3 y E(X) = , 2 fX/B (x) = x/4, 1 ≤ x ≤ 3 y E(X/B) =

R3

fX/B (x) = 0.5e−0.5x , x ≥ 0 y E(X/C) =

1

(x2 /4)dx =

R∞ 0

26 , 12

0.5xe−0.5x dx = 2.

Luego, asumiendo que le estudiante escoge al azar entre los m´etodos A,B y C, se tiene, E(X) = E(X/A)P (A) + E(X/B)P (B) + E(X/C)P (C) =

5.6.

5 1 26 1 1 20 · + · +2· = . 2 3 12 3 3 9

Ejercicios

5.1. Una moneda balanceada es lanzada 3 veces. Encuentre el valor esperado y la varianza del n´ umero de caras obtenidas. 5.2. Una moneda balanceada es lanzada 3 veces o hasta que se obtiene cara. Encuentre: a) El valor esperado y la varianza del n´ umero de caras b) El valor esperado y la varianza del n´ umero de sellos c) El valor esperado y la varianza del n´ umero total de lanzamientos. 5.3. Una caja contiene 3 bolas blancas y 7 rojas. Encuentre el valor esperado del n´ umero de de bolas blancas en una selecci´ on de 4 bolas. a) Con reemplazo b) Sin reemplazo 5.4. Un experimento tiene un costo de prueba de $100, y probabilidad 0.2 de ser exitoso. Hay un presupuesto de $1000 y el experimento ser´ a repetido hasta que sea exitoso o se acabe el presupuesto. Si el experimento es exitoso se obtiene una ganancia de $2000. Encuentre el valor esperado de la ganancia neta. 5.5. Sean X e Y dos variables aleatorias independientes tal que E(X) = 10, σX = 2, E(Y ) = 6 y E(Y 2 ) = 52. Encuentre: a) E(10X + 4) b) V (3X + 100) c) E(−X) d) V (−X) e) E(X 2 )

Ricardo Gatica E.

Probabilidad para Ingenieros

61

f ) V (Y ) g) E(X  +Y)  3X + 2Y h) E 4   3X + 2Y i) V 4 j) E(X − Y ) k) V (X − Y ) l) V (2X − 3Y ) 5.6. Sea X una variable aleatoria continua con la   ax f (x) = a   a(3 − x) a) b) c) d)

Encuentre Encuentre Encuentre Encuentre

siguiente f.d.p. 0 ≤ x ≤ 1, 1 ≤ x ≤ 2, 2 ≤ x ≤ 3.

E(X). V (X). E(X/X < 1). E(X/X > 2).

5.7. Cuando se procesa petr´ oleo, la temperatura de destilado T (en grados cent´ıgrados) es crucial para la calidad del producto final. Si T es menos de 200, el producto se conoce como nafta, y genera una ganancia neta de $0.2 por gal´ on. Si 200 ≤ T ≤ 220, se conoce como petr´ oleo refinado de alta calidad, y genera una ganancia neta de $0.5 por gal´ on. Si T ≥ 220, el producto se conoce como petr´ oleo refinado y genera una ganancia neta de $0.3 por gal´ on. Si T se distribuye uniformemente entre 150 y 300, encuentre la ganancia esperada por gal´ on. 5.8. La vida u ´til de un aparato el´ectrico, en a˜ nos, es una variable aleatoria continua X, con f (x) = 0.5e−0.5x , x ≥ 0. El costo de manufactura es $50, y el precio de venta es de $120. El fabricante asegura la devoluci´ on total del dinero si el aparato dura menos de 1 a˜ no. Encuentre el valor esperado y la varianza de la ganancia del fabricante por unidad. 5.9. Se sabe que una caja contiene 2 objetos defectuosos y 4 no-defectuosos. Los objetos se inspeccionan de uno a la vez hasta que se identifican los 2 defectuosos. Encuentre el n´ umero esperado de inspecciones que se debe realizar. 5.10. El radio R de una esfera es una v.a.c. con f (r) = 6r(1 − r), 0 < r < 1. Encuentre el coeficiente de variaci´ on del volumen de la esfera. 5.11. Sea X una variable aleatoria continua con f (x) = 1/x2 , x ≥ 1, e Y otra variable aleatoria continua definida de la siguiente manera: ( X 3 si X ≤ 2, Y = 8 si X > 2. Encuentre E(X) y E(Y).

Ricardo Gatica E.

Probabilidad para Ingenieros

62

5.12. La demanda diaria de pan fresco en una panader´ıa, en miles de kilos, es una variable aleatoria continua D, con f (d) = ae−ad , d ≥ 0 y a = 1/1000. La producci´ on diaria es de 1100 kilos. El due˜ no de la panader´ıa env´ıa el pan que no se vende a una instituci´ on ben´efica. Encuentre: a) La probabilidad de que la instituci´ on reciba pan fresco en un d´ıa cualquiera. b) La probabilidad de que en el lapso de una semana, en por lo menos 6 d´ıas, la instituci´ on reciba m´ as de 50 kilos de pan. c) La demanda esperada diaria. d) La cantidad esperada de pan que la instituci´ on recibe diariamente. e) La cantidad esperada de pan que la instituci´ on recibe semanalmente. 5.13. La cantidad demandada mensual de cierto producto es una variable aleatoria continua D con f (d) = kd, 20 ≤ d ≤ 30. El costo unitario del producto es de $3 y el precio de venta es de $7. Debido a que el producto se vuelve obsoleto muy r´ apidamente, todo lo que no se ha vendido para el final del mes, debe descartarse a un costo de $1 por unidad. Asuma que le productor fabrica Q unidades mensualmente. a) Encuentre una expresi´ on para la ganancia del productor, en funci´ on de Q y de D. b) Encuentre el valor esperado de la ganancia del productor en funci´ on de Q y de D. c) Determine la producci´ on mensual que maximiza la ganancia esperada. 5.14. Un dado se lanza 10 veces. Si se obtienen exactamente 6 unos, encuentre el valor esperado de n´ umeros dos que se obtiene. 5.15. Sea X una variable aleatoria continua con f (x) = 3x2 /28, −1 ≤ x ≤ 3, e Y = X 2 . Encuentre: a) E(Y ) y V (Y ). b) E(Y /X > 1). c) E(X/Y < 1). 5.16. Un estudiante que trabaja en un problema tiene 3 m´etodos para resolverlo. El m´etodo A le toma una cantidad de tiempo que se distribuye uniformemente entre 2 y 3 horas, y que no soluciona el problema. Utilizando el m´etodo B el estudiante se da por vencido sin haber solucionado el problema luego de un per´ıodo de tiempo que es una variable aleatoria continua con f (x) = x/4, 1 ≤ x ≤ 3. El m´etodo C resuelve le problema luego de una cantidad de tiempo aleatorio cuya f.d.p. es f (x) = 0.5e−0.5x , x ≥ 0. El estudiente escoge un m´etodo al azar entre ´estos, pero sin duda, descarta aquellos que ya ha intentado sin ´exito. Encuentre el tiempo esperado que el estudiante necesita para resolver el problema. 5.17. Diez parejas casadas (20 personas) se sientan al azar en 20 asientos en las siguinetes configuraciones: a) En c´ırculo b) En fila Encuentre, en cada caso, el n´ umero esperado de esposas que est´ an sentadas al lado de su marido. 5.18. Sean X, Y y Z, variables aleatorias independientes tal que: E(X) = 10, E(X 2 ) = 164, E(Y ) = 12, V (Y ) = 10, y E(X · Z) = 80. Encuentre:

Ricardo Gatica E. a) V (X) b) E(4X + 5Y ) c) V (4X + 5Y ) d) E(5X − 2Y ) e) V (5X − 2Y ) f ) E(Z) g) E(X/Y )

Probabilidad para Ingenieros

63

Cap´ıtulo 6

Proceso Bernoulli y Proceso Poisson Un proceso estoc´astico es un modelo matem´atico de un experimento que evoluciona o se repite en el tiempo, generando una secuencia de variables aleatorias. Ejemplos de procesos estoc´asticos son los siguientes: El precio diario de una acci´on. La demanda mensual de cierto producto. El tiempo entre fallas de una m´ aquina. El n´ umero de clientes que arriban a un banco en cada hora de la jornada bancaria. Es este cap´ıtulo se estudiar´an el proceso Bernoulli y el proceso Poisson. Estos procesos generan algunas de las variables aleatorias m´as frecuentemente usadas en la pr´actica para representar un variedad de fen´omenos. Adem´as, en cierto sentido, estos procesos son an´alogos, el primero en un ambiente de tiempo discreto (el tiempo se mide en periodos) y el segundo en un ambiente de tiempo continuo.

6.1.

El Proceso Bernoulli

La Distribuci´ on Bernoulli Definici´ on 6.1. Sea X una variable aleatoria discreta con RX = {0, 1}, y f.p.p. dada por P {X = 1} = p y P {X = 0} = 1 − p. Se dice que X tiene distribuci´ on Bernoulli, o que X es una variable aleatoria Bernoulli, con par´ ametro p.

64

Ricardo Gatica E.

Probabilidad para Ingenieros

65

Las variables Bernoulli, t´ıpicamente aparecen en el siguiente contexto: Si E un experimento y S en espacio muestral asociado con X. sea A ⊆ S un evento con P (A) = p. Si se define ( 1 si A ocurre X= 0 si A0 ocurre , entonces X es una v.a. Bernoulli. Ejemplo 6.1. Sea E un experimento que consiste en lanzar una moneda balanceada exactamente una vez. Sea X = 1 si se obtiene cara y X = 0 si se obtiene sello. Entonces X es v.a. Bernoulli con par´ ametro p = .5. Ejemplo 6.2. Sea E un experimento que consiste en lanzar un dado balanceado exactamente una vez. Sea X = 1 si se obtiene un n´ umero mayor a 4, y sea X = 0 en otro caso. Entonces, X es v.a. Bernoulli con p = 1/3. En el contexto descrito m´as arriba, cada una de las repeticiones del experimento E es llamada un ensayo de Bernoulli, y los eventos A y A0 son referidos como ´exito y fracaso, respectivamente. Propiedad 6.1. Sea X una variable aleatoria Bernoulli con par´ ametro p. Entonces: 1.

E(X) = p

2.

V (X) = p(1 − p)

Definici´ on 6.2. Considere una sequencia de ensayos de Bernoulli que satisface: a) Los essayos son mutuamente independientes. b) Todos los ensayos tienen el mismo par´ amentro p. Para i = 1, 2, . . ., sea Xi la variable aleatoria Bernoulli asociada con el i-´esimo ensayo. Se denomina proceso Bernoulli a la secuencia X1 , X2 , . . .. Nota: Informalmente, se denomina tambi´en proceso Bernoulli a la secuencia de ensayos de Bernoulli. Varias caracter´ısticas de un proceso Bernoulli pueden estudiarse a trav´es de variables aleatorias discretas. A continuaci´on se estudian tres de ellas. Las dos primeras corresponden a la distribuci´on Geom´etrica y a la distribuci´on Binomial, que se introdujeron en los ejemplos 4.7 y 4.8, respectivamente. La Distribuci´ on Ge´ om´ etrica Considere un proceso de Bernoulli con par´ametro p, y defina X como el n´ umero de ensayos necesarios para obtener el primer ´exito. Entonces la distribuci´on de probabilidades de X est´a dada por P {X = k} = (1 − p)k−1 p, k = 1, 2, . . . . (6.1)

Ricardo Gatica E.

Probabilidad para Ingenieros

66

Definici´ on 6.3. Se dice que una variable aleatoria discreta X con RX = {1, 2, . . .} y f.p.p dada por (6.1), es una variable aleatoria Geom´etrica, o que tiene una distribuci´ on Geom´etrica con par´ ametro p, lo que se denota X ∼ Geo(p). Observe que dado un n, la secuencia Xn+1 , Xn+2 , . . ., es tambi´en un proceso Bernoulli, y es independiente de X1 , X2 , . . . , Xn . Por esta raz´on, la distribuci´on Geom´etrica no solo permite modelar el n´ umero de ensayos hasta el primero de todos los ´exitos del proceso, sino tambi´en que el n´ umero de ensayos necesarios para obtener un ´exito empezando en cualquier instante de tiempo. En particular, permite modelar el n´ umero de ensayos entre dos ´exitos sucesivos, esto es el n´ umero de ensayos entre un ´exito y el siguiente, excluyendo el primero e incluyendo el segundo. Esto es una consecuencia directa del hecho que los ensayos son independientes, lo que permite asumir que el proceso se reinicia cada vez que ocurre un ´exito. Propiedad 6.2. Sea X una variable aletoria Geom´etrica con par´ ametro p. Entonces: 1.

1 E(X) = . p

2.

V (X) =

1−p . p2

Quiz: Demuestre la Propiedad 6.2. Quiz: Encuentre la funci´on de distribuci´on acumulada de un a v.a. Geom´etrica. Teorema 6.1 (La propiedad de no-memoria de la distribuci´ on Geom´ etrica). Sea X una variable aleatoria Geom´etrica con par´ ametro p. Se cumple que P {X > s + t/X > s} = P {X > t}. Adem´ as, la distribuci´ on Geom´etrica es la u ´nica distribuci´ on discreta con esta propiedad. El Teorema 6.1 establece que si el evento A (´exito) no ocurre en los primeros s ensayos, la probabilidad que no ocurra en los pr´oximos t ensayos es igual a la probabilidad que no ocurra en los primeros t ensayos. En este sentido, se dice que la distribuci´on Geom´etrica no tiene memoria, el modelo olvida lo que ha pasado hasta el instante actual para hacer c´alculos de probabilidad respecto de los ensayos futuros. La Distribuci´ on Binomial Considere un proceso Bernoulli con par´ametro p. Sea X el n´ umero de ´exitos en un set cualquiera de n ensayos del proceso (t´ıpicamente se supone que estos ensayos son sucesivos, pero esto no es necesario). La funci´on de probabilidad puntual de X est´a dada por   n k P {X = k} = p (1 − p)n−k , k = 0, 1, . . . , n. (6.2) k

Ricardo Gatica E.

Probabilidad para Ingenieros

67

Observar que si para i = 1, 2, . . . , n, Zi representa la variable Bernoulli asociada al i-´esimo ensayo en consideraci´on, entonces X = Z1 + Z2 + . . . + Zn .

(6.3)

Definici´ on 6.4. Se dice que una variable aleatoria discreta X con RX = {0, 1, . . . , n} y f.p.p dada por (6.2), es una variable aleatoria Binomial, o que tiene una distribuci´ on Binomial con par´ ametros n y p, lo que se denota X ∼ b(n, p). Propiedad 6.3. Sea X una variable alatoria Binomial con par´ ametros n y p, entonces: 1.

E(X) = np.

2.

V (X) = np(1 − p).

Quiz: Utilice (6.3) para demostrar la Propiedad 6.3. Teorema 6.2 (Propiedad reproductiva de la distribuci´ on Binomial). Sean Yi ∼ b(ni , p), para i = 1, 2, . . . , k, y sea X = Y1 + Y2 + . . . + Yk . Se tiene que X ∼ (n1 + n2 + . . . + nk , p). El Teorema 6.2 establece que la suma de un conjunto de variables aleatorias binomiales con el mismo par´ametro p (el par´ametro n puede variar), es tambi´en una variable aleatoria Binomial. Las distribuciones que cumplen este tipo de propiedad se dice que tienen la propiedad reproductiva. La Distribuci´ on Pascal Considere un proceso Bernoulli con par´ametro p. Sea X el n´ umero de ensayos necesarios para obtener el r-´esimo ´exito. La distribuci´on de probabilidades de X est´a dada por   k−1 r P {X = k} = p (1 − p)k−r , k = r, r + 1, . . . . (6.4) r−1 Para derivar (6.4), observe que el evento {X = k} es equivalente al evento {se producen r − 1 ´exitos en los primeros k − 1 ensayos, y el k-´esimo ensayo es un ´exito}. La primera parte de este evento corresponde a una probabilidad binomial y la segunda parte corresponde a una probabilidad Bernoulli. Como los ensayos son independientes, se tiene   k − 1 r−1 P {X = k} = P {r − 1 ´exitos en k − 1 ensayos}P {´exito} = p (1 − p)k−r p. r−1 Definici´ on 6.5. Se dice que una variable aleatoria discreta X con RX = {r, r + 1, . . .}, y f.p.p. dada por (6.4), es una variable aleatoria Pascal, o que tiene una distribuci´ on Pascal con par´ ametros r y p, lo que se denota X ∼ bn(r, p).

Ricardo Gatica E.

Probabilidad para Ingenieros

68

Nota: La distribuci´on Pascal es tambi´en conocida como la distribuci´on Binomial negativa. Nota: La notaci´on propuesta para las distribuciones Geom´etrica y Pascal no es est´andar en la literatura. De hecho, no existe una notaci´on est´andar para estas distribuciones, como si es el caso para ela Binomial. Propiedad 6.4. Sea X una variable aleatoria Pascal con par´ ametros r y p. Se tiene: 1.

r E(X) = . p

2.

V (X) =

r(1 − p) . p2

Un argumento similar al usado en el caso de la Geom´etrica permite concluir que la distribuci´ on Pascal no solo permite modelar el n´ umero de ensayos hasta el r-´esimo ´exito en el proceso Bernoulli, sino que tambi´en el n´ umero de ensayos necesarios para obtener el r-´esimo ´exito empezando en cualquier instante de tiempo. Claramente, cuando r = 1, la distribuci´on Pascal se reduce a la Geom´etrica. Es decir, la Geom´etrica es un caso particular de la distribuci´on Pascal. La relaci´on entra ambas, sin embargo es m´as profunda. Para observar esta relaci´on, comsidere un proceso Bernoulli con par´ametro p. Sea Y1 = n´ umero de ensayos hasta el primer ´exito (inclu´ıdo). Yi = n´ umero de ensayos desde el (i − 1)-´esimo (exclu´ıdo) hasta el i-´esimo (inclu´ıdo) ´exito. Se tiene que Y1 , Y2 , . . ., son variables aleatorias Geom´etricas independientes, todas con par´ametro p. Si X = Y1 + Y2 + . . . + Yr , entonces X es el n´ umero de ensayos hasta el r-´esimo ´exito, por tanto X es Pascal con par´ametros r y p. Usando esta observaci´on se tiene: E(X) = E(Y1 ) + E(Y2 ) + . . . + E(Yr ) = r V (X) = V (Y1 ) + V (Y2 ) + . . . + V (Yr ) = r

1 r = , y p p

r(1 − p) 1−p = , 2 p p2

lo que demuestra la Propiedad 6.4. La relaci´on entre las distribuciones Geom´etrica, Binomial y Pascal, en el contexto del proceso Bernoulli, se muestra en la Figura 6.1. Ejemplo 6.3. Suponga que los ´ıtems producidos por una m´ aquina son inspeccionados uno a uno. La probabilidad que un ´ıtem sea defectuoso es .04. a) Encuentre la probabilidad que 100 ´ıtems sucesivos sean todos no-defectuosos. Sea X el n´ umero de defectuosos en 100 ´ıtems, entonces X ∼ b(100, .04), y P {X = 100} = .96100 .

Ricardo Gatica E.

Probabilidad para Ingenieros

69

Figura 6.1: El proceso Bernoulli

b) Encuentre el valor esperado de ´ıtems defectuosos en un lote de 100 ´ıtems. E(X) = 100 · .04 = 4. c) ¿Cada cu´ antos ´ıtems se espera obtener un defectuoso? Sea Y el n´ umero de inspecciones necesarias para obtener el primer defectuoso, entonces Y ∼ Geo(.04), y E(Y ) = 1/.04 = 25. d) Encuentre la probabilidad que el quinto ´ıtem defectuoso se encuentre exactamente en la 30-´esima inspecci´ on. Sea Z el n´ umero de inspecciones para obtener el quinto defectuoso, entonces  necesarias  29 Z ∼ bn(5, .04), y P (Z = 30) = .045 (.96)25 . 4 Teorema 6.3. Sea X ∼ b(n, p) e Y ∼ bn(r, p). Se tiene: 1.

P {Y ≤ n} = P {X ≥ r}.

2.

P {Y > n} = P {X < r}.

Demostraci´ on. Para verificar 1., observar que {X ≥ r} implica que hay al menos r ´exitos en n ensayos, por lo tanto, se necesitan a lo m´as n ensayos para obtener r ´exitos. La parte 2. se demuestra en forma similar. Ejemplo 6.4. Considere una moneda cargada con probabilidad de obtener cara igual a 0.4. Se desea encontrar la probabilidad que se necesiten m´ as de 10 lanzamientos para obtener dos caras. Si se define Y = bn(2, .4), la probabilidad buscada es P {Y > 10} =

 ∞  X k−1 .42 .6k−2 . 1

k=11

Ricardo Gatica E.

Probabilidad para Ingenieros

70

Si se define X ∼ b(10, .4), usando el Teorema 6.3 se tiene que P {Y > 10} = P {X < 2} = P {X = 0} + P {X = 1} = .610 +

6.2.



 10 .4 · .69 . 1

El proceso Poisson

La Distribuci´ on Poisson Definici´ on 6.6. Sea λ > 0. Si X es una variable aleatoria discreta con RX = {0, 1, . . .}, y f.p.p. dada por e−λ λk , k = 0, 1, . . . , (6.5) P {X = k} = k! se dice que X es una variable aleatoria Poisson, o que tiene distribuci´ on Poisson, con par´ ametro λ, lo que se denota X ∼ P s(λ). La distribuci´on Poisson es usada frecuentemente para representar el n´ umero de ocurrencias de un fen´omeno en un intervalo de tiempo. Por ejemplo, el n´ umero de clientes que entran a un centro de servicio en un d´ıa, el n´ umero de llamadas telef´onicas recibidas por un operador en una hora, la demanda semanal por cierto producto, etc. Tambi´en se usa para modelar algunos fen´omenos espaciales como, por ejemplo, el n´ umero de defectos en una pieza de algun material, o el n´ umero de errores tipogr´aficos por p´agina en un libro. Observar que a diferencia de la distribuciones asociadas al proceso Bernoulli, no se ha descrito un experimento en que la distribuci´on Poisson emerge naturalmente. Esto implica que cada vez que se quiera usar, se necesita verificar que efectivamente la distribuci´on Poisson es una aproximaci´on v´alida para el fen´omeno en estudio. Esto se hace normalmente utillizando informaci´ on pasada y alg´ un tipo de test estad´ıstico. Los ejemplos del p´arrafo anterior representan casos en que t´ıpicamente estos test resultan positivos. Propiedad 6.5. Sea X una variable aleatoria Poisson con par´ ametro λ. Se tiene: 1.

E(X) = λ.

2.

V (X) = λ.

Ejemplo 6.5. Sea X el n´ umero de buques que arriban al puerto de Valpara´ıso diariamente. Asuma que X ∼ P s(2). a) La probabilidad que en un d´ıa en particular lleguen exactamente 3 naves es e−2 23 . P {X = 3} = 3!

Ricardo Gatica E.

Probabilidad para Ingenieros

71

b) La probabilidad que en un d´ıa cualquiera llegue al menos un barco es P {X ≥ 1} = 1 − P {X = 0} = 1 − e−2 . c) El n´ umero esperado de narcos que llegan en un d´ıa cualquiera es E(X) = 2. c) La varianza del n´ umero de narcos que llegan en un d´ıa cualquiera es V (X) = 2. Teorema 6.4 (Propiedad reproductiva de la distribuci´ on Poisson). Sean X1 , X2 , . . . , Xk , variables aleatorias independientes. Asuma Xi ∼ P s(λi ), i = 1, 2, . . . , k. Sea Z = X1 + X2 + . . . + Xk , entonces X ∼ P s(λ1 + λ2 + . . . + λk ). Ejemplo 6.6. Sea X1 ∼ P s(50) el n´ umero de llamadas locales recibidas por un operador en un d´ıa t´ıpico. Similarmente, sea X2 ∼ P s(40) el n´ umero de llamadas de larga distancia. Entonces Z = X1 + X2 es el n´ umero total de llamadas recibidas por el operador, y Z ∼ P s(90). Teorema 6.5. Sea X ∼ P s(λ). Asuma que X representa el n´ umero de ocurrencias de cierto evento A. Suponga que una fracci´ on p de los eventos tienen la propiedad B, es decir, B ⊆ A y P(B/A)=p. Sea Y el n´ umero de ocurrencias del evento B, entonces Y ∼ P s(λp). Ejemplo 6.7. El n´ umero total de clientes que entran un d´ıa domingo a una tienda por departamentos es una variable aleatoria X ∼ P s(400). Se sabe que en promedio el 10 % de las personas que entran a la tienda efectivamente compran. Sea Y el n´ umero de clientes que efectivamente hacen un compra,. entoces Y ∼ P s(40). Observar que el Teorema 6.5 no implica que Y = pX. De hecho dado que X toma cierto valor x, el n´ umero de ocurrencias del evento B es una variable aletoria Binomial con par´ametros x y p. En el caso del Ejemplo 6.7, se tiene que si se sabe que X = 300, la distribuci´oncondicional de Y  300 es binomial con par´ametros n = 300 y p = .1, es decir P {Y = k/X = 300} = .1k .9300−k . k Teorema 6.6 (Aproximaci´ on Poisson a la distribuci´ on Binomial). Sea X ∼ b(n, p). Asuma que n tiende a infinito y p tiende a cero. Se cumple que P {X = k} ≈

e−np (np)k . k!

El Teorema 6.6 establece que si n es grande y p es peque˜ no, una variable aleatoria Binomial con par´ametros n y p puede ser aproximada por una variable aleatoria Poisson con par´ametro np. Ejemplo 6.8. La probabiliad que un ´ıtem sea defectuoso es .0001. Se desea encontrar la probabilidad que un lote de 10000 ´ıtems contenga exactamente 12 defectuosos. Sea X el n´ umero de defectuosos en el lote, entonces X ∼ b(10000, .0001). Por el Teorema 6.6, X puede ser aproximada por una variable aletoria Poisson con par´ ametro 10000 × .0001 = 10. Por lo tanto, e−10 1012 P {X = 12} = . 12!

Ricardo Gatica E.

Probabilidad para Ingenieros

72

Figura 6.2: La distribuci´on Exponencial

La Distribuci´ on Exponencial Definici´ on 6.7. Sea λ > 0. Si X es una variable aleatoria continua con RX = [0, ∞), y f.d.p. dada por f (x) = λe−λx , x ≥ 0, (6.6) se dice que X es una variable aleatoria Exponencial , o que tiene distribuci´ on Exponencial, con par´ ametro λ, lo que se denota X ∼ Exp(λ). La Figura 6.2 muetra la forma gen´erica de la f.d.p. de una variable aleatoria Exponencial. La distribuci´on Exponencial es a menudo utilizada para representar tiempos de servicio, tiempos de proceso, tiempos entre arrivos a un centro de servicio, vida u ´til de art´ıculos electr´onicos, tiempos entre fallas de m´aquinas, etc. Propiedad 6.6. Sea X una variable aleatoria Exponencial con par´ ametro λ. Se cumple: 1.

E(X) =

2.

V (X) =

3.

1 . λ

1 . λ2 ( 1 − e−λx F (x) = 0

si x ≥ 0 . otro caso

Teorema 6.7 (No-memoria de la distribuci´ on Exponencial). Sea X ∼ Exp(λ), y sean s y t dos n´ umeros no-negativos cualesquiera. Se cumple que P {X > s + t/X > s} = P {X > t}. Adem´ as, la Exponencial es la u ´nica distribuci´ on continua con esta propiedad.

Ricardo Gatica E.

Probabilidad para Ingenieros

73

Demostraci´ on. Para demostrar la primera parte observar que P {X > s + t/X > s} =

P {X > s + t} e−λ(s+t) = = e−λt . P {X > s} e−λs

La demostraci´on de la segunda parte del teorema escapa al alcance de este texto. Ejemplo 6.9. Suponga que el tiempo (en minutos) entre llegadas a una estaci´ on de servicio es una variable aleatoria X ∼ Exp(.5). a) Si la estaci´ on esta vac´ıa en el instante actual, la probabilidad que contin´ ue vac´ıa despues −2.5 de 5 minutos es P {X > 5} = e . Similarmente, la probabilidad que el pr´ oximo veh´ıculo llegue antes de 3 minutos es P {X < 3} = 1 − e−1.5 . Note que en ninguno de los casos se considera el tiempo transcurrido desde la u ´ltima llegada. Esto se debe al hecho que la distribuci´ on exponencial no tiene memoria. b) El tiempo esperado hasta la pr´ oxima llegada es E(X) = 2 minutos. Las distribuciones Gamma y Erlang Definici´ on 6.8. Para k > 0, se define la funci´ on Gamma como Z ∞ Γ(k) = xk−1 e−x dx. 0

En particular, si k es entero, se tiene Γ(k) = k!. Definici´ on 6.9. Sea k > 0 y λ > 0. Si X es una variable aleatoria continua con RX = [0, ∞), y f.d.p. dada por λk xk−1 e−λx f (x) = , x ≥ 0, (6.7) Γ(k) se dice que X es una variable aleatoria Gamma, o que tiene distribuci´ on Gamma, con par´ ametros λ y k. Propiedad 6.7. Sea X una variable aleatoria Gamma con par´ ametros λ y k. Se cumple: 1.

E(X) =

k . λ

2.

V (X) =

k . λ2

Observe que si k = 1, la Ecuaci´on (6.7) se reduce a (6.6), lo que implica que la distribuc´ı´on Exponencial es un caso particular de la Gamma. La siguiente definici´on provee otro caso particular de la distribuci´on Gamma, el cual tambi´en incluye la Exponencial.

Ricardo Gatica E.

Probabilidad para Ingenieros

74

Definici´ on 6.10. Sea λ > 0 y k un entero positivo. Si X es una variable aleatoria continua con RX = [0, ∞), y f.d.p. dada por f (x) =

λk xk−1 e−λx , k!

x ≥ 0,

(6.8)

se dice que X es una variable aleatoria Erlang, o que tiene distribuci´ on Erlang, con par´ ametros λ y k. Observe que para k entero, la reducci´on desde (6.7) a (6.8) es directa. Consecuentemente, el valor esperado y la varianza de una variable aleatoria Erlang est´an tambi´en dado por la Propiedad 6.7. El Teorema 6.8 establece una relaci´on importante entre las distribuciones Exponencial y Erlang. Teorema 6.8. Sean X1 , X2 , . . . , Xk variables aleatorias independientes e identicamente distribuidas (iid) con Xi ∼ Exp(λ). Sea Z = X1 + X2 + . . . + Xk , entonces Z es una variable aleatoria Erlang con par´ ametros λ y k. El Teorema 6.8 dice que la suma de un conjunto de variables Exponencial id´enticas tiene una distribuci´on Erlang. Este resultado se usar´a m´as adelante para mostrar que la relaci´on entre las distribuciones Exponencial y Gamma es an´aloga a la relaci´on entre las distribuciones Geom´etrica y Pascal. El Proceso Poisson El proceso Bernoulli, descrito en la Secci´on 6.1, permite modelar la ocurrencia de un evento (´exito) en una secuencia de ensayos de Bernoulli. En este contexto, La terna Binomial-Geom´etricaPascal permite analizar tres caracter´ısticas importantes del proceso: el n´ umero de ´exitos en un conjunto de n ensayos, el n´ umero de ensayos entre dos exitos sucesivos, y el n´ umero de ensayos necessarios para obtener r ´exitos. El proceso Bernoulli puede entenderse en una base temporal, donde el tiempo avanza en periodos discretos (por ejemplo d´ıas) y a cada periodo corresponde un u ´nico ensayo de Bernoulli. Por ejemplo, el proceso podr´ıa contar los d´ıas en que cierto ´ındice de contaminaci´on es excedido en la ciudad de Santiago, o el n´ umero de semanas sin accidentes en una planta manufacturera, etc. Sin embargo, muchas veces es mucho m´as realista pensar que el fen´omeno evoluciona en tiempo continuo. Por ejemplo, en general, interesa el instante preciso en que una m´aquina falla y la duraci´on del desperfecto, y no si la m´aquina falla o no en un d´ıa determinado. El proceso Poisson puede ser visto como un an´alogo al proceso Bernoulli, pero en una base temporal continua. En este caso la terna Bimomial-Geom´etrica-Pascal es reemplazada por la terna Poisson-Exponencial-Erlang. Definici´ on 6.11. Sea X1 , X2 , . . ., una secuencia de variables aleatorias independientes e id´enticamente distribuidas (iid). Suponga que Xi representa el tiempo transcurrido entre la (i − 1)´esima y la i-´esima ocurrencia del cierto evento. Defina

Ricardo Gatica E. S0 = 0 Sn = X 1 + X 2 + . . . + X n ,

Probabilidad para Ingenieros

75

para n = 1, 2, . . ..

Sn representa el instante de la n-´esima ocurrencia del evento. Se define como proceso de conteo a la familia de variables aleatorias {N (t), t ≥ 0}, donde N (t) es el n´ umero de ocurrencias del evento en el intervalo (0, t], esto es N (t) = m´ ax{n ≥ 0 : Sn ≤ t}, t ≥ 0.

(6.9)

Se difine adem´ as N (s, t] como el n´ umero de ocurrencias del evento en el intervalo (s, t], es decir N (s, t] = N (t) − N (s) para todo 0 < s < t. Definici´ on 6.12. Sea X1 , X2 , . . ., una secuencia de variables aleatorias independientes e id´enticamente distribuidas. Si Xi ∼ Exp(λ), i = 1, 2, . . ., se dice que el proceso de conteo {N (t), t ≥ 0} es un proceso Poisson con tasa λ. Ejemplo 6.10. Si el tiempo, en minutos, entre llamadas recibidas en una estaci´ on telef´ onica se distribuye exponencial con par´ ametro λ = 5, y N (t) es el n´ umero de llamadas recibidas hasta el tiempo t, entonces {N (t), t ≥ 0} es un proceso Poisson con tasa 5 llamadas/minutos. Ejemplo 6.11. Si el tiempo, en horas, entre llegadas de veh´ıculos a una estaci´ on de servicio es Exp(30), y N (t) es el n´ umero de veh´ıculos que llegan hasta el tiempo t, entonces {N (t), t ≥ 0} es un proceso Poisson con tasa 30 veh´ıculos/hora. Notaci´ on: Si {N (t), t ≥ 0} es un proceso Poisson con tasa λ, se utilizar´a la notaci´on compacta N (t) ∼ P P (λ). Teorema 6.9. Sea {N (t), t ≥ 0} un proceso Poisson con par´ ametro λ. Se tiene: 1.

Para todo t > 0, N (t) es una variable aleatoria Poisson con par´ ametro λt. Es decir, P {N (t) = k} =

e−λt (λt)k , k = 0, 1, . . . . k!

2.

N (s, s + t] es una variable aleatoria Poisson con par´ ametro λt.

3.

Para todo s < t ≤ u < v, N (s, t] y N (u, v] son variables aleatorias independientes.

Nota: La parte 3. del Teorema 6.9 dice que el n´ umero de ocurrecias del evento en intervalos de tiempo disjuntos son variables independientes. Nota: Observar que la parte 1. del Teorema 6.9 es un caso particular de la parte 2. Nota: El rec´ıproco del Theorema 6.9 es tambi´en cierto. Es decir, si 1., 2. y 3. se cumplen, entonces {N (t), t ≥ 0} es un proceso Poisson.

Ricardo Gatica E.

Probabilidad para Ingenieros

76

La demostraci´on del Theorema 6.9 escapa al alcance de este texto. Sin embargo, para proveer un poco de intuici´on al respecto, se examinar´a la relaci´on entre el n´ umero de ocurrencias y el tiempo entre ocurrencias del evento en un proceso Poisson: Considere el instante de tiempo de la primera ocurrencia del evento, X1 = S1 , y observe que el evento {X1 > t} = {el primer evento ocurre despues de t} es equivalente a {N (t) = 0} = {ocurren cero eventos entre 0 y t}. Por lo tanto, se tiene FX1 (t) = P {X1 ≤ t} = 1 − P {X1 > t} = 1 − P {N (t) = 0} = 1 − e−λt . Por la Propiedad 6.6 parte .3, se sabe que FX1 (·) corresponde a la distribuci´on acumulada de una variable aleatoria Exponencial con par´ametro λ. Usando el Theorema 6.9, puede verificarse que X2 , X3 , . . . son tambi´en Exponenciales con par´ametro λ. Consecuentemente, el Teorema 6.8 implica que Sn es una variable aleatoria Erlang con par´ametros λ y n. Usando la propiedad de no memoria de la distribuci´on Exponencial, se tiene que el tiempo necesario para tener n ocurrencias del evento, empezando en cualquier instante de tiempo es tambien Erlang con par´ametros λ y n. De esta manera, se completa la analog´ıa entre las ternas Binomial-Geom´etrica-Pascal y Poisson-Exponencial-Erlang. Quiz: Use la f.d.p. de la distribuci´on Erlang para demostrar la parte 1. del Teorema 6.9. Nota: Con frecuencia se utilizara la expresi´on ”el n-´esimo evento”en lugar de ”la n-´esima ocurrencia del evento. Ejemplo 6.12. Los clientes llegan a un estaci´ on de servicio de acuerdo a un proceso Poisson con tasa 30 veh´ıculos/hora. Suponga es actualmente 8:00 A.M. a) La probabilidad que el pr´ oximo veh´ıculo llegue despu´es de las 8:10 se obtiene de la siguiente manera: Sea X el tiempo hasta la pr´ oxima llegada, entonces X ∼ Exp(30). Se busca P {X > 1/6} = e−30·1/6 = e−5 . Alternativamente, se puede definir Y como el n´ umero de llegadas entre las 8:00 y las 8:10, en tal caso se tiene que Y = N (1/6) ∼ P s(30/6), y P {X > 1/6} = P {Y = 0} = e−5 . b) La probabilidad que exactamente 20 veh´ıculos lleguen entre 8:30 y 9:00 es P {N (8.5, 9] = 20} =

e−15 1520 . 20!

c) La probabilidad que 20 veh´ıculos lleguen entre 8:00 y 9:00, 50 veh´ıculos lleguen entre 9:00 y 11:00, y no lleguen veh´ıculos entre 11:00 y 12:00 es P {N (8, 9] = 20}P {N (9, 11] = 50}P {N (11, 12]} =

e−30 3020 e−60 6050 −30 · ·e . 20! 50!

Ricardo Gatica E.

Probabilidad para Ingenieros

77

d) La probabilidad que 40 veh´ıculos lleguen entre 9:00 y 10:00, dado que solo 10 llegaron entre 8:00 y 9:00 es simplemente P {N (9, 10] = 40} =

e−30 3040 , 40!

debido a la independencia del n´ umero de llegadas en intervalos disjuntos. En la parte e) se explotar´ a la siguiente consecuencia del Teorema 6.9: P {N (s + t) = n, N (s) = k} P {N (s) = k} P {N (s) = k, N (s, s + t] = n − k} = P {N (s) = k} P {N (s) = k}P {N (s, s + t] = n − k} = P {N (s) = k} = P {N (s, s + t] = n − k}

P {N (s + t) = n/N (s) = k} =

(6.10)

e) La probabilidad que 65 veh´ıculos lleguen entre 9:00 y 10:30, dado que 40 llegaron entre 9:00 y 10:00 es P {N (9, 10.5] = 65/ N (9, 10] = 40} = P {N (10, 10.5] = 25} =

e−15 1525 . 25!

Superposici´ on y Separaci´ on de Procesos Poisson En esta secci´on se examinan dos consecuencias importantes de los teoremas 6.4 y 6.5. Superposici´ on es la operaci´on de juntar dos o m´as procesos de conteo para generar un nuevo proceso. Por ejemplo, en un banco, el conteo de clientes puede superponerse al conteo de noclientes para formar el proceso de conteo del total de personas que demandan servicio. La propiedad reproductiva de la distribuci´on Poisson permite concluir que la superposici´on de procesos Poisson es tamb´ıen un proceso Poisson. Teorema 6.10. Sean {Ni (t), t ≥ 0}, i = 1, 2, . . . , k, procesos Poisson independientes. Sea λi la tasa de proceso i. Defina N (t) = N1 (t) + N2 (t) + . . . + Nk (t). Entoces {N (t), t ≥ 0} es proceso Poisson con tasa λ = λ1 + λ2 + . . . + λk . Ejemplo 6.13. Los trabajos enviados para su ejecuci´ on en un computador central est´ an divididos en tres clases de prioridad. Los trabajos de prioridad baja llegan de acuerdo a un proceso Poisson con tasa 15 trabajos/minuto. Similarmente,los trabajos de prioridad media llegan de acuerdo a u P P (10) y los de prioridad alta de acuerdo a un P P (5).

Ricardo Gatica E.

Probabilidad para Ingenieros

78

a) Sea {N (t), t ≥ 0} el proceso de llegada total, entonces N (t) ∼ P P (30). b) La probabilidad que lleguen exactamente 50 trabajos en los pr´ oximos 2 minutos es e−60 6050 . 50! Teorema 6.11. Sean {N (t), t ≥ 0} y {Ni (t), t ≥ 0}, i = 1, 2 . . . , k, procesos Poisson definidos como el el Teorema 6.10. Defina Zn = j si el n-´esimo evento (llegada) en el proceso total {N (t), t ≥ 0} proviene del proceso {Nj (t), t ≥ 0}. Entonces, Zn , n = 1, 2, . . ., es una secuencia de variables aleatorias iid con f.p.p. dada por P {N (2) = 50} =

λi , i = 1, 2, . . . , k. λ Ejemplo 6.14. Considere nuevamente el Ejemplo 6.13. Se desea calcular la probabilidad que entre las primeras 50 llegadas, se encuentren exactamente 5 trabajos de prioridad alta. El Teorema 6.11 implica que la probabilidad que cualquier trabajo sea de prioridad alta es 5/30 = 1/6. Por tanto, si X es el n´ umero de trabajos de prioridad alta entre las 50 primeras llegadas, se tiene que X ∼ b(50, 1/6), y    5  45 50 1 5 P {X = 5} = . 5 6 6 P {Zn = i} =

Separaci´ on es la operaci´on de generar dos o m´as procesos de conteo a partir de un proceso total. La separaci´ on ocurre t´ıpicamente cuando se desea dividir un flujo de llegada en diferentes clases de acuerdo a alguna propiedad de las entidades que llegan. El siguiente es una extesi´ on del Teorema 6.5, y establece que despu´es de separar un proceso Poisson, cada proceso individual es tambi´en Poisson. Teorema 6.12. Sea {N (t), t ≥ 0} un P P (λ). Suponga que N (t) cuenta el n´ umero de ocurrencias de cierto evento A. Suponga que A puede clasificarse en k categor´ıas excluyentes A1 , A2 , . . . , Ak con probabilidades p1 , p2 , . . . , pk , respectivamente. Es decir, A1 , A2 , . . . , Ak es una partici´ on de A y P (Ai /A) = pi . Para i = 1, 2, . . . , k, sea {Ni (t), t ≥ 0} el proceso de conteo de los eventos Ai . Se cumple que {Ni (t), t ≥ 0} es proceso Poisson con tasa λi = λpi . Adem´ as los k procesos individuales son mutuamente independientes. Ejemplo 6.15. La llegada de veh´ıculos a una estaci´ on de servicio es un proceso Poisson con λ = 60 veh´ıculos/hora. El 70 % de los veh´ıculos son autom´ oviles y el 30 % son camionetas. Si N (t) denota el proceso de llegada total, N1 (t) la llegada de autom´ oviles y N2 (t) la llegada de camionetas: a) {N1 (t), t ≥ 0} es P P (42), y {N2 (t), t ≥ 0} es P P (18). b) La probabilidad que 25 autom´ oviles lleguen en un periodo de una hora es P {N1 (1) = 25} =

e−42 4225 . 25!

Ricardo Gatica E.

Probabilidad para Ingenieros

79

c) La probabilidad que 25 autom´ oviles lleguen en un periodo de una hora, dado que 60 camionetas llegaron en el mismo periodo es P {N1 (1) = 25/N2 (1) = 60} = P {N1 (1) = 25}, debido a la independencia de los procesos indivuales. d) La probabilidad que 80 veh´ıculos lleguen en una hora dado que 20 autom´ oviles llegaron en el mismo periodo es P {N (1) = 80, N1 (1) = 20} P {N1 (1) = 20} P {N1 (1) = 20, N2 (1) = 60} = P {N1 (1) = 20} P {N1 (1) = 20} P {N2 (1) = 60} = P {N1 (1) = 20} = P {N2 (1) = 60}

P {N (1) = 80/N1 (1) = 20} =

=

6.3.

e−18 1860 . 60!

Ejercicios

6.1. El n´ umero de barcos que llega al Puerto de Valpara´ıso en un d´ıa cualquiera es una v.a. Poisson con λ = 2. En la actualidad el puerto puede atender solo tres naves por d´ıa. Si llegan m´ as de tres naves, la diferencia es desviada al puerto de San Antonio. a) Encuentre la probabilidad que en un d´ıa cualquiera, el puerto deba desviar naves a San Antonio. b) Encuentre la probabilidad que en un periodo de un mes (30 d´ıas), el puerto deba desviar naves a San Antonio en al menos tres ocasiones. c) Encuentre el numero esperado de d´ıas que el puerto desv´ıa naves a San Antonio en un periodo de un mes. d) ¿Cada cu´ antos d´ıas en promedio, el puerto desv´ıa naves? e) Encuentre el n´ umero esperado de naves que llegan por d´ıa. f ) Encuentre el n´ umero esperado de naves que llegan por mes. g) Encuentre el n´ umero esperado de naves atendidas por d´ıa. h) Encuentre le n´ umero esperado de naves desviadas a San Antonio por d´ıa. i) ¿En cu´ anto debieran crecer las instalaciones, de manera que que el puerto atienda todas la naves que llegan, al menos el 90 % de los d´ıas? 6.2. Las estad´ısticas muestran que aproximadamente el 0.1 % de la poblaci´ on est´ a involucrada en cierto tipo de accidente cada a˜ no. Una empresa aseguradora tiene 10000 clientes asegurados (seleccionados aleatoriamente de la poblaci´ on). Encuentre la probabilidad que no m´ as de 5 de los clientes efectivamente sufran el accidente.

Ricardo Gatica E.

Probabilidad para Ingenieros

80

6.3. EL n´ umero de fallas de transistores en un computador sigue un proceso Poisson con tasa 0.1 fallas por hora. Cierto c´ alculo requiere 20 horas de computaci´ on para completarse. El c´ alculo se interrumpe si tres o m´ as transistores fallan. Encuentre la probabilidad que el el c´ alculo no termine. 6.4. Una fuente radioactiva emite part´ıculas de acuerdo a un proceso Poisson con tasa 10 part´ıculas por hora. El aparato que cuenta las emisiones falla en registrar una part´ıcula con probabilidad 0.1. a) Encuentre la distribuci´ on de probabilidades del n´ umero de part´ıculas registradas en un periodo de una hora, en un periodo de tres horas, y en un periodo de un d´ıa. b) Encuentre el n´ umero esperado de part´ıculas registradas en un periodo de una hora, en un periodo de tres horas, y en un periodo de un d´ıa. c) Actualmente es 2:00 pm, encuentre la probabilidad que 40 part´ıculas sean registradas entre 4:00 y 7:00. d) Encuentre la probabilidad que 40 part´ıculas sean registradas entre 4:00 y 7:00, dado que 16 particulas fueron registradas entre 2:00 y 4:00. e) Si 50 part´ıculas son emitidas entre 4:00 y 7:00, encuentre el n´ umero esperado de part´ıculas registradas en el mismo periodo. f ) Encuentre la distribuci´ on de probabilidades y el valor esperado del tiempo que transcurre entre dos emisiones no registradas sucesivas. g) Encuentre la probabilidad que entre las 5:00 y las 7:00 todas las emisiones sean registradas. h) Encuentre la probabilidad que 15 part´ıculas sean registradas entre 2:00 y 5:00, si 5 part´ıculas son registradas entre 2:00 y 3:00. i) Encuentre la probabilidad que 9 part´ıculas sean registradas en un periodo de una hora, si 12 particulas son emitidas en el mismo periodo. j) Encuentre la probabildiad que 10 part´ıculas sean registradas enter 2:00 y 4:00, dado que solo 2 part´ıculas son emitidas entre 2:00 y 3:00. k) Encuentre la probabilidad que 12 part´ıculas fueron emitidas entre 6:00 y 7:00, dado que 9 part´ıculas fueron registradas en el mismo periodo. 6.5. La demanda mensual por cierto ´ıtem tiene una distribuci´ on Poisson con par´ ametro λ = 8 unidades. Los ´ıtems que no han sido vendidos al final del mes deben ser descartados. EL precio de venta del ´ıtem es $10 y el costo de producci´ on es $3. Si la producci´ on mensual es de 10 unidades, encuentre la valor esperado de la utilidad obtenida por el fabricante. 6.6. El tiempo de servicio (en minutos) por cliente de un cajero de banco es exponencial con par´ ametro λ = .2. Considere una sucursal con un solo cajero. a) Un cliente ha empezado en este instante su servicio, y Ud. est´ a primero en la fila. Encuentre la probabilidad que Ud. tenga que esperar entre 3 y 8 minutos. b) Suponga ahora que Ud. ya lleva 5 minutos el principio de la fila. Encuentre la probabilidad que tenga de esperar entre 3 y 8 minutos adicionales. c) Suponga que hay 3 clientes antes que Ud. en la fila (incluyendo al que est´ a siendo atendido). Encuentre la probilidad que tenga que esperar al menos 10 minutos antes de empezar su servicio.

Ricardo Gatica E.

Probabilidad para Ingenieros

81

6.7. Suponga que Ud. est´ a en la fila de un banco. El banco tiene dos cajeros. Cada cajero tiene un tiempo de servicio (en minutos) con distribuci´ on Exponencial con par´ ametro λ = .2. Ud. est´ a primero en la fila, y los dos cajeros est´ an ocupados con otros clientes. a) Encuentre la probabilidad que Ud. tenga que esperar m´ as de 3 minutos para iniciar su servicio. b) Encuentre la probabilidad que Ud. tenga que esperar entre 3 y 7 minutos. c) Encuentre la distribuci´ on y el valor esperado del tiempo de espera. 6.8. Suponga que los autos llegan a una estaci´ on de servicio de acuerdo a un proceso Poisson con tasa 30 autos/hora. Similarmente, las camionetas llegan de acuerdo a un proceso Poisson con tasa 20 camionetas/hora. a) Encuentre el valor esperado del n´ umero total de veh´ıculos que llegan en un periodo de dos horas. b) Encuentre la probabilidad que 60 veh´ıculos lleguen a la estaci´ on de servicio en las pr´ oximas dos horas. c) Si 15 autos llegan en la pr´ oxima hora, encuentre le n´ umero esperado de veh´ıculos que llegar´ an en el mismo periodo. d) Considere una llegada cualquiera, ¿cu´ al es la probabilidad que el veh´ıculo sea auto?. e) Si en un periodo de una hora llegan 100 veh´ıculos, encuentre el valor esperado del n´ umero de autos que llegan en el mismo periodo. 6.9. Asuma que en promedio el 10 % de las personas que entran a una tienda efectivamente realiza una compra. Encuentre: a) La probabilidad que entre las 50 primeras personas que entran a la tienda, se produzcan exactamente 5 ventas. b) El n´ umero esperado de ventas entre los primeras 50 personas que entran a la tienda. c) La probabilidad que la sexta compra la realice el 50-´esimo cliente potencial. d) El n´ umero esperado de personas que se necesita que entren a la tienda pra realizar 6 ventas. e) La probabilidad que se necesiten m´ as de 10 clientes potenciales para realizar 2 ventas. 6.10. Los casos de emergencia llegan a un hospital de acuerdo a un Proceso Poisson con tasa 6 pacientes por hora. El 30 % de los paciemtes son mujeres. En este instante es 8:00 am. a) La probabilidad que la primera emergencia llegue antes de las 8 : 15. b) La probabilidad que la segunda emergencia llegue antes de las 8 : 15. c) La probabilidad que se produzcan 20 emergencias entre 8:00 y 11:00, dado que se produjeron 10 entre 8:00 y 9:00. d) La probabilidad que 3 mujeres lleguen entre 8:00 y 9:00. e) La probabilidad que 3 mujeres lleguen entre 8:00 y 9:00, dado que se producen 10 emergencias en total en ese periodo. f ) El valor esperado del instante de llegada de la tercera mujer.

Ricardo Gatica E.

Probabilidad para Ingenieros

82

6.11. Suponga que los autos, camionetas y motos, llegan a una estaci´ on de servicio de acuerdo a procesos Poisson independientes con tasas 30 autos/hora, 20 camionetas/hora y 10 motos /hora, respectivamente. En este instante es 10:00 am. El u ´ltimo veh´ıculo lleg´ o a las 9:55. Encuentre: a) La distribuci´ on y el valor esperado del n´ umero total de veh´ıculos que llegan en un periodo de 2 horas. b) La probabilidad que exactamente 100 veh´ıculos lleguen en un periodo de 2 horas. c) La probabilidad que 15 autos, 25 camionetas y 5 motos lleguen en un periodo de una hora. d) La probabilidad que el primer auto llegue despues de 5 minutos. e) La probabilidad que 80 veh´ıculos lleguen entre 10:00 y 11:00, dado que 30 veh´ıculos llegaron entre 10:00 y 10:30. f ) La probabilidad que 30 veh´ıculos lleguen entre 10:00 y 10:30, dado que 80 veh´ıculos llegan entre 10:00 y 11:00. 6.12. Considere los mismos procesos Poisson del Ejercicio 6.11. Suponga que 20 % de los autos y 10 % de las camionetas son marca Mazda (suponga que Mazda no fabrica motos). Encuentre: a) La tasa de llegada de autos y camionetas marca Mazda. b) La distribuci´ on y el valor esperado del n´ umero de veh´ıculos marca Mazda que llegan a la estaci´ on en un periodo de una hora. c) La probabilidad que 5 autos marca Mazda lleguen entre 10:00 y 11:00, dado que en total llegan 30 autos en el mismo periodo. d) Los valores esperado del tiempo de llegada del pr´ oximo y del quinto auto marca Mazda. e) El n´ umero esperado de veh´ıculos marca Mazda que llegan entre 11:00 y 13:00, si en el mismo periodo llegan en total 40 autos, 40 camionetas, y 20 motos.

Cap´ıtulo 7

La distribuci´ on Normal y los Teoremas de L´ımite 7.1.

La Distribuci´ on Normal

La distribuci´on normal es considerada como la distribuci´on continua m´as importante. Se dice que es la piedra fundamental de la inferencia estad´ıstica. Su importancia proviene de las siguientes caracter´ısticas: a) Se ha demostrado emp´ıricamente que muchas poblaciones y fen´omenos reales pueden modelarse a trav´es de una distribuci´on normal, o una de sus distribuciones relacionadas. b) Muchas variables aleatorias continuas y discretas se pueden aproximar mediante una distribuci´on normal. c) Debido al Teorema del L´ımite Central (que se introducir´a m´as adelante), la distribuci´ on normal se utiliza para aproximar la suma y el promedio de un n´ umero grande de variables aleatorias con cualquier distribuci´on. En particular, si un fen´omeno puede modelarse como el resultado de muchas contribuciones peque˜ nas e (aproximadamente) independientes, entonces puede ser aproximado por una distribuci´on normal. De hecho, es este principio el que en muchos casos justifica las dos propiedades anteriores. d) La distibuci´on normal tiene muchas propiedades matem´aticas u ´tiles, que facilitan su manipulaci´on algebraica. Definici´ on 7.1. Se dice que una variable aleatoria continua X con RX = (−∞, ∞) y funci´ on de densidad de probabilidades dada por

83

Ricardo Gatica E.

Probabilidad para Ingenieros

84

Figura 7.1: f.d.p. de la distribuc´on Normal

f (x) = √

(x−µ)2 1 e− 2σ2 , −∞ < x < ∞ 2πσ

(7.1)

es una variable aleatoria normal con par´ ametros µ y σ 2 , lo que se denota X ∼ N (µ, σ 2 ). Los 2 par´ ametros µ y σ deben satisfacer −∞ < µ < ∞ y σ > 0. Teorema 7.1. Sea X ∼ N (µ, σ 2 ). Entonces E(X) = µ

(7.2)

V (X) = σ 2

(7.3)

La distribuci´on normal tiene la conocida forma de campana que se presenta en la Figura 7.1. La campana est´a centrada, y es sim´etrica respecto a la media µ. Nota: Cuando sea necesario para evitar ambiguedad, se utilizar´a la notaci´on: µX = E(X) y 2 = V (X). σX Teorema 7.2. Sea X ∼ N (µ, σ 2 ), e Y = aX + b, entonces Y ∼ N (aµ + b, a2 σ 2 ). Teorema 7.3 (Propiedad reproductiva de la distribuci´ on normal). Sean X1 , X2 . . . Xk 2 variables aleatorias independientes tal que Xi ∼ N (µi , σi ), para i = 1, 2, . . . , k. Sea Y = X1 + P P X2 + . . . + Xk . Entonces Y ∼ N ( ki=1 µi , ki=1 σi2 ) Observar que al combinar el Teorema 7.2 y el Teorema 7.3, se tiene que cualquier combinaci´ on lineal de un n´ umero finito de variables aleatorias es tambi´en una variables aleatoria normal. La media y la varianza de la nueva variable aleatoria se calculan utilizando las propiedades generales del valor esperado y de la varianza, discutidas en el Cap´ıtulo 5. De esta manera, si

Ricardo Gatica E.

Probabilidad para Ingenieros

85

X1 , X 2 . P . . Xk se definenP como en el Teorema 7.3, e Y = a1 X1 + a2 X2 + . . . + ak Xk + b. Entonces Y ∼ N ( ki=1 ai µi + b, ki=1 a2i σi2 ). La distribuci´ on normal est´ andar Definici´ on 7.2. Si X es una variable aleatoria normal con µ = 0 y σ 2 = 1, se dice que X tiene una distribuci´ on normal est´ andar. La f.d.p de X se denota por φ(x), y est´ a dada por x2 1 φ(x) = √ e− 2 , −∞ ≤ x ≤ ∞. 2π

(7.4)

La funci´on de densidad de la distribuci´on normal no puede integrarse de manera exacta. Consecuentemente, la distribuci´on acumulada de una variable aleatoria normal no tiene una forma conocida y todos los c´alculos de probabilidad deben hacerse utilizando aproximaciones num´ericas. Las calculadoras modernas pueden realizar estos c´alculos sin problemas. Sin embargo, tradicionalmente, las probabilidades se obten´ıan de tablas para la distribuci´on acumulada de la distribuci´on normal estandar, denotada por Φ(x), utilizando el Teorema 7.2 de la siguiente manera: Sea X ∼ N (µ, σ 2 ), entonces:   a−µ x−µ b−µ P {a ≤ x ≤ b} = P ≤ ≤ σ σ σ   a−µ b−µ =P ≤ N (0, 1) ≤ σ σ     b−µ a−µ =Φ −Φ σ σ Notaci´ on: Para α < 0.5, el percentil 100(1 − α) de la distribuci´on normal se denota por zα . Es decir, P {N (0, 1) ≤ zα } = Φ(zα ) = 1 − α. Ejemplo 7.1. El di´ ametro en mil´ımetros X de un cable el´ectrico se distribuye normal con media 0.5 y desviaci´ on estandar 0.005. Las especificaciones dicen que el di´ ametro debe ser entre 0.49 y 0.51. Entonces la probabilidad que el cable satisfaga las especificaciones es:     0.51 − 0.5 0.49 − 0.5 Φ −Φ = Φ(2) − Φ(−2) ≈ 0.95 0.005 0.005 El Ejemplo 7.1 sugiere el siguiente problema: Si la distribuci´on normal tiene un rango de todos los n´ umeros reales (incluyendo los negativos), ¿c´omo puede el di´ametro del cable, que debe ser positivo, ser modelado como una variable aleatoria normal?. La validez del modelo viene dada por el hecho que P (X < 0) = Φ(−0.5/0.005) = Φ(−100) ∼ = 0. Es decir, la probabilidad te´orica que la variable aleatoria tome un valor negativo es pr´acticamente cero. En general, puede verificarse que Φ(−3) ≈ 0.0015 y Φ(−4) ≈ 0. De este modo, la probabilidad que una variable aleatoria normal tome un valor negativo es despreciable si σ ≤ µ/4 (¿por qu´e?). En dichos casos,

Ricardo Gatica E.

Probabilidad para Ingenieros

86

modelar un valor no-negativo utilizando una variable aleatoria normal, es perfectamente v´alido. Incluso para el caso σ ≤ µ/3, la distribuci´on normal puede todav´ıa ser una buena aproximaci´on. Ejemplo 7.2. Un administrador de inventarios ha estimado que el tiempo de reaprovisionamiento (el tiempo que pasa desde el instante en que ´el da una orden a su proveedor hasta que los productos ordenados llegan a la bodega) de cierto producto se distribuye normal con media 8 d´ıas y desviaci´ on estandar 1.5. Utilizando esta informaci´ on, el administrador desea calcular cu´ antos d´ıas antes de la fecha en que el stock actual se acabe, debe poner una orden de reaprovisionamiento para que la probabilidad de quedar en d´eficit sea a lo m´ as 0.02. Sea X ∼ N (8, 1.52 ) el tiempo de reaprovisionamiento. Se busca un valor R tal que P (X > R) ≤ 0.02. Entonces, de     X −8 R−8 R−8 P {X > R} = P > =1−Φ ≤ 0.02 1.5 1.5 1.5 se tiene que R−8 ≥ z0.02 , 1.5 o equivalentemente que R ≥ 1.5z0.02 + 8 = 11.08. De este modo, si el administrador pone una orden de reemplazo 12 d´ıas antes que el inventario actual se acabe, la probabilidad de d´eficit ser´ a a lo m´ as 0.02. Ejemplo 7.3. El radio de un pist´ on es una variable aleatoria X ∼ N (30, 0.052 ). El radio interior del cilindro es una variable aleatoria Y ∼ N (30.25, 0.062 ). El espacio entre el cilindro y el pist´ on est´ a dado por Z = X − Y . Se tiene que E(Z) = 30.25 − 30.00 = 0.25, y V (Z) = 0.052 + 0.062 = 0.0061, y por tanto, Z ∼ N (0.25, 0.061). La probabilidad que un pist´ on tomado al azar encaje en un cilindro est´ a dada por:  P (Z ≥ 0) = 1 − P (Z < 0) = 1 − Φ

−0.25 √ 0.0061

 = 0.9993

. Quiz Considere el Ejemplo 7.3. Si Ud. tiene 80 pares pist´on-cilindro seleccionados al azar, encuentre la probabilidad que exactamente 75 pares calzen (que el pist´on entre en el cilindro). ¿Piensa Ud. que esta probabilidad es la misma que la probabilidad de obtener 75 pares que calzen desde un grupo de 80 pistones y 80 cilindros?.

Ricardo Gatica E.

7.2.

Probabilidad para Ingenieros

87

Distribuciones Aproximadas por la Distribuci´ on Normal

Teorema 7.4. Sea X ∼ b(n, p). Si n es grande, X puede ser aproximada por una distribuci´ on 2 Normal con par´ ametros µ = np y σ = np(1 − p). Es decir, para n grande se cumple que ! x − np P {X ≤ x} ≈ P {N (np, np(1 − p)) ≤ x} = Φ p . np(1 − p) Nota: Una expresion m´as formal para el Teorema 7.4 est´a dada por ( ) X − np l´ım P p < z = Φ(z). n→∞ np(1 − p) Teorema 7.5. Sea X ∼ P (λ). Entonces, si λ es grande, X puede ser aproximada por un distribuci´ on Normal con par´ ametros µ = λ y σ 2 = λ. Nota: Si se considera una proceso Poisson con tasa λ, entonces el Teorema 7.5 implica que el n´ umero de eventos en un intervalo de tiempo largo (λt debe ser gande) se distribuye aproximadamente normal con par´ametros µ = λt y σ 2 = λt. Muchas otras distribuciones importantes pueden aproximarse por la distribuci´on normal, en particular, todas aquellas que pueden representarse como la suma de variables aleatorias independientes. Esto es una consecuencia del Teorema del L´ımite Central que se presentar´a en la Secci´on 7.4. Entre las distribuciones con esta caracter´ıtica, ya se han visto la distribuci´ on Pascal (que puede ser modelada como la suma de variable aleatorias Geom´etricas independientes) y la distribuci´ on Gamma/Erlang (que puede ser modelada como una suma de variables aleatorias Exponenciales independientes).

7.3.

La Ley de los Grandes N´ umeros

La Media y la Varianza del Promedio Muestral Considere una secuencia de variables aleatorias X1 , X2 , . . . , Xn , entonces P la media aritm´etica ¯ = n Xi . Utilizando (o simplemente la media) de X1 , X2 , . . . , Xn es la variable aleatoria X i=1 n las propiedades del valor esperado y de la varianza, se puede verificar que:

¯ = E(X)

n X E(Xi ) i=1

n

(7.5)

Ricardo Gatica E.

¯ = V (X)

Probabilidad para Ingenieros

n X V (Xi ) i=1

n2

, si X1 , X2 , . . . , Xn son independientes.

88

(7.6)

Si X1 , X2 , . . . , Xn son variables aleatorias independientes e id´enticamente distribuidas (iid) con E(Xi ) = µ, y V (Xi ) = σ 2 , para todo i = 1, 2, . . . , n. Entonces se dice que X1 , X2 , . . . , Xn es ¯ es el promedio muestral. En este caso, (7.5) y (7.6) se reducen a: una muestra y que X ¯ =µ E(X)

(7.7)

2 ¯ =σ V (X) n

(7.8)

Las muestras com´ unmente aparecen en el siguiente contexto: Considere un experimento E que puede ser repetido muchas veces bajo exactamente las mismas condiciones. Sea X una variable aleatoria gen´erica asociada con E. Considere n repeticiones independientes del experimeto y sea Xi la variable aleatoria asociada con la i-´esima repetici´on, entonces X1 , X2 , . . . Xn es una muestra de la variable aleatoria gen´erica X. Se dice que el n´ umero n es el tama˜ no de la muestra. Por ejemplo, asuma, como en el Ejemplo 7.3, que X ∼ N (30, 0.05) es el radio de un pist´on (la variable aleatoria gen´erica) y tenemos un conjunto de 80 de tales pistones numerados 1, 2, . . . , 80. Para i = 1, 2, . . . , 80, sea Xi el radio del pist´on i, entonces X1 , X2 , . . . , X80 es una muestra de tama˜ no 80. Se ha asumido en este ejemplo que la precisi´on de la m´aquina que produce los pistones no cambia entre cada pist´on. En este sentido, el experimento ”producir un pist´on”puede ser repetido muchas veces bajo las mismas condiciones. Nota: El t´ermino muestra tambi´en se usa para referirse a la secuencia x1 , x2 , . . . , xn de valores espec´ıficos tomados por las variables aleatorias X1 , X2 , . . . , Xn . Informalmente tambi´en se usa para referirse al conjunto de objetos desde el cual se va a extraer X (los 80 pistones en el ejemplo anterior). El concepto de muestra es un concepto clave en Estad´ıstica. Teorema 7.6. La Ley de los Grandes N´ umeros: Asuma que X1 , X2 , . . . , Xn , es una muestra de variables aleatorias independientes e id´enticamente distribu´ıdas, con E(Xi ) = µ y V (Xi ) = σ 2 , para todo i = 1, 2, . . . , n. Entonces, por la Desigualdad de Chebyshev se tiene 2 ¯ − µ| < ε) ≥ 1 − σ , P (|X nε2

(7.9)

lo que implica, ¯ − µ| < ε) = 1 l´ım P (|X

n→∞

(7.10)

Ricardo Gatica E.

Probabilidad para Ingenieros

89

Observar que el Teorema 7.6 es en cierta forma, una declaraci´on formal de la propiedad de regularidad estad´ıstica mencionada anteriormente. El teorema dice que medida que el tama˜ no de la muestra (el n´ umero de reticiones del experimento) crece, el promedio muestral tiende, probabil´ısticamente, a ser cada vez m´as cercano al valor esperado de la variable aleatoria gen´erica X. Esto es una consecuencia del hecho que mientras m´as grande es n menor es la varianza del promedio muestral (ver Ecuaci´on (7.8)). Quiz: Aplique la Desigualdad de Chebyshev para derivar una “versi´on Bernoulli” de la Ley de los Grandes N´ umeros. Esto es, demuestre que l´ımn→∞ P (|fA − P (A)| < ε) = 1, donde fA y P (A) son la frecuencia relativa y la probabilidad del evento A, respectivamente. Ejemplo 7.4. Asuma que X es una variable aleatoria con E(X) = 30 y V (X) = 25. Se busca el tama˜ no de muestra requerido para tener un 96 % de seguridad que el promedio muestral no ¯ − 30| ≤ 2) ≥ difiere del valor esperado en m´ as de dos unidades. De (7.9) se tiene que P (|X 1 − 25/4n. Resolviendo 1 − 25/4n ≥ 0.96, se obtiene n ≥ 157. Observe que este resultado no depende en lo absoluto de E(X). Depende solamente de la varianza. Quiz: Repita el Ejemplo 7.4 asumiendo X ∼ N (30, 25)

7.4.

El Teorema del L´ımite Central (TLC)

Las aproximaciones descritas en la Seccion 7.2 son casos particulares de un resultados mucho m´as general, importante y notable en la Teor´ıa de la Probabilidad y en Estad´ıstica: El Teorema del L´ımite Central. A grandes rasgos, este teorema dice que la suma de un gran n´ umero de variables aleatorias, con cualquier tipo de distribuci´on, se distribuye aproximadamente Normal. Teorema 7.7 (Teorema del L´ımite Central). Considere una secuencia X1 , X2 , . . . , Xn de variables aleatorias independientes con E(Xi ) = µi y V (Xi ) = σi2 , para i = 1, 2, . . . , n. Sea Y = X1 + X2 + . . . + Xn . Entonces, bajo Y tiene una distribuci´ on Pn generales, Pnciertas condiciones 2 2 aproximadamente Normal con µY = i=1 µi , y σY = i=1 σi . Formalmente,   Y − µY l´ım P ≤ y = Φ(y). n→∞ σY Las condiciones generales referidas en el Teorema 7.7 b´asicamente requieren que cada variable aleatoria individual contribuya con una cantidad despreciable a la suma total. Esto es, cada variable individual tiene una varianza peque˜ na y es incapaz de influenciar significativamente el valor total de la suma. Un caso particular del Teorema 7.7 se obtiene cuando la secuencia X1 , X2 , . . . , Xn representa ¯ es aproximadamente una muestra iid. En esta caso Y es aproximadamente N (nµ, nσ 2 ) y X 2 N (µ, σ /n).

Ricardo Gatica E.

Probabilidad para Ingenieros

90

Ejemplo 7.5. Asuma que una mujer chilena t´ıpica tiene una altura promedio de 65 pulgadas, con una varianza de 9 pulgadas cuadradas. a) Se busca la probabilidad que la altura promedio en una muestra promedio de 30 mujeres est´ a entre 64 y 66. Sea X la variable aleatoria que representa la altura de una mujer. Por el Teorema del ¯ ∼ N (65, 0.3). Por tanto, L´ımite Central (TLC), se tiene que X   ¯ − 65  64 − 65 X 66 − 65 ¯ √ P 64 ≤ X ≤ 66 = P ≤ √ ≤ √ 0.3 0.3 0.3 = P {−1.82 ≤ N (0, 1) ≤ 1.82} = Φ(1.82) − Φ(−1.82) = 0.931. b) Se busca el tama˜ no de muestra requerido para asegurar que el promedio muestral est´e entre ¯ ∼ 64.5 y 65.5 con un 95 % de probabilidad. Nuevamente por el TLC, se tiene que X N (65, 9/n). Por lo tanto, ( ) ¯ − 65 64.5 − 65 X 65.5 − 65 ¯ ≤ 65.5}) = P p P {64.5 ≤ X ≤ p ≤ p 9/n 9/n 9/n √ √ = Φ(0.167 n) − Φ(−0.167 n) √ = 1 − 2Φ(−0.167 n) √ √ Resolviendo 1 − 2Φ(−0.167 n) ≥ 0.95, se tiene Φ(−0.167 n) ≤ 0.025, lo que implica √ −0.167 n ≤ −z0.025 = −1.96 o, equivalentemente, n ≥ 138. Ejemplo 7.6. La vida u ´til (en d´ıas) de una ampolleta tiene media 10 y varianza 16. Cuando una ampolleta se quema es reemplazada por una similar. Se busca la probabilidad que en los pr´ oximos tres a˜ nos (1095 d´ıas) se necesiten m´ as de 100 ampolletas. Para i = 1, 2, . . . , 100, sea Xi la variable aleatoria que representa la vida u ´til de la i-´esima ampolleta. Entonces Y = X1 + X2 + . . . + X100 representa el tiempo total cubierto por las primeras 100 ampolletas. Por el TLC, Y ∼ N (1000, 1600). Se desea calcular   Y − 1000 1095 − 1000 √ √ P {Y < 1095} = P < 1600 1600 = Φ(2.38) = 0.9913.

7.5.

Ejercicios

7.1. El n´ umero de barcos que llegan a una refiner´ıa cada d´ıa es una variable aleatoria Poisson con par´ ametro λ = 3. Las instalaciones actuales del puerto permiten el servicio de 3 naves

Ricardo Gatica E.

Probabilidad para Ingenieros

91

diarias. Si llegan m´ as de 3 naves, los que sobrepasan este n´ umero deben ser enviados a otro puerto. a) Encuentre la distribuci´ on del n´ umero de naves que llegan al puerto en un per´ıodo de 6 meses (180 d´ıas). b) Encuentre la probabilidad que en un per´ıodo de 6 meses lleguen entre 340 y 400 naves al puerto. c) Encuentre la probabiliadd que en un d´ıa particular el puerto deba mandar naves a otro puerto. d) Encuentre la probabilidad que en un per´ıodo de 6 meses el puerto mande naves a otro puerto en no m´ as de 80 d´ıas. e) Encuentre la probabilidad que en un periodo de 6 meses, se atiendan entre 250 y 300 naves. (Ayuda: Usted debe utilizar las aproximaciones normales a las otras distribuciones en este problema ) 7.2. El grosor de una placa de metal hecha por una m´ aquina se distribuye normalmente con media 4.3 mm y desviaci´ on estandar 0.12 mm. Si se ponen juntas 12 placas: a) ¿Cu´ al es la distribucion del grosor total de las 12 placas? b) Encuentre la probabilidad que el grosor total est´e entre 51 y 52 mm. c) Encuentre el m´ınimo n´ umero de placas requeridas para que el grosor promedio est´e entre 4.25 y 4.35 mm con probabilidad de al menos 99.7 %.

Cap´ıtulo 8

Variables Aleatorias Multidimensionales En los cap´ıtulos 4 y 5 se estudi´o el concepto de variables aleatorias unidimensionales. Esto es variables aleatorias que representan una caracter´ıstica num´erica u ´nica de un experimento o un fen´omeno. El inter´es se centra ahora en estudiar el comportamiento de dos o m´as caracter´ısticas num´ericas de un experimento en forma simult´anea. Por ejemplo; la altura y el peso de una persona: el volumen y el peso de los paquetes recibidos en la oficina de correos; la inflaci´ on y la tasa de desempleo en una econom´ıa; el precio, calidad y demanda de cierto producto; el ingreso, costos de educaci´on y costos de alimentaci´on de las familias chilenas, etc. En cada uno de estos ejemplos parece intuitivamente obvio que las dimensiones que hay que estudiar no son independientes. La discusi´on se concentra en el caso bidimensional. Esto no representa limitaci´ on alguna, pues todos los conceptos y herramientas presentados son f´acilmente extendibles al caso de m´as de dos dimensiones.

8.1.

Variables Aleatorias Bidimensionales y Distribuciones de Probabilidad Conjunta

Definici´ on 8.1. Sea E un experimeto y S un espacio muestral asociado con E. Sean X e Y dos funciones que asignan a cada elemento s ∈ S n´ umeros reales X(s) e Y (s), respectivamente. Se denomina variable aleatoria bidimensional al par ordenado (X, Y ). Definici´ on 8.2. El rango (X, Y ), denotado por RXY , es el conjunto de todos los valores posibles del par (X, Y ). Definici´ on 8.3. Sea E un experimento y S un espacio muestral asociado con E. Sean X1 = X1 (s), X2 = X2 (s), . . . , Xn = Xn (s), n funciones, cada una de las cuales asigna un n´ umero 92

Ricardo Gatica E.

Probabilidad para Ingenieros

93

real a cada elemento s ∈ S . Se denomina variable aleatoria n-dimensional al vector (X1 , X2 , . . . , Xn ) (tambi´en llamado vector aleatorio n-dimensional). Como en el caso unidimensional, se busca asociar el concepto de probabilidad con la variable aleatoria bidimensional (X, Y ). Nuevamente, la distribuci´on de probabilidad de (X, Y ) ser´a derivada de las probabilidades asociadas con el espacio muestral original utilizando el concepto de eventos equivalentes. Definici´ on 8.4. Sea E un experimento y S un espacio muestral asociado con E. Sea (X, Y ) una variable aleatoria bidimensional definida en S. Sea B ⊆ RXY y A ⊆ S. Se dice que A y B son equivalentes si A = {s ∈ S : (X(s), Y (s)) ∈ B}. Si A y B son equivalentes, la probabilidad del evento B est´ a dada por P (B) = P (A) = P {s ∈ S/(X(s), Y (s)) ∈ B}. De manera an´aloga al Cap´ıtulo 4, se distinguir´a entre dos tipos b´asicos de variables aleatorias bidimensionale: discretas y continuas. Definici´ on 8.5. Se dice que una variable aleatoria bidimensional (X, Y ) es discreta si el rango RXY es finito o infinito contable. Es decir, RXY puede ser escrito como RXY = {(xi , yj ), i = 1, 2, . . . , j = 1, 2, . . .}. Definici´ on 8.6. Sea (X, Y ) una variable aleatoria bidimensional discreta. La funci´ on de probabilidad puntual conjunta (f.p.p.) de (X, Y ) es la funci´ on p(·, ·) que asocia a cada (xi , yj ) ∈ RXY un valor pij = p(xi , yj ) = P {X = xi , Y = yj } que satisface: a) pij ≥ 0 b)

PP

(xi ,yj )∈Rxy

pij = 1

La colecci´ on de tr´ıos (xi , yj , pij ), se denomina distribuici´ on de probabilidad de (X, Y ). En forma similar al caso unidimensional, puede verificarse que la probabilidad de un evento B ⊆ RXY est´a dada por P (B) =

XX (xi ,yj )∈B

pij

(8.1)

Ejemplo 8.1. Considere una variable aleatoria bidimensional discreta (X, Y ) con funci´ on de probabilidad conjunta dada en la Tabla 8.1. Se tiene:

Ricardo Gatica E.

Probabilidad para Ingenieros

94

a) P {X = 2, Y = 3} = p2,3 = 0.05 b) P {X ≤ 1, Y = 2} = p0,2 + p1,2 = 0.05 + 0.05 = 0.1 c) P {X ≤ 1, Y ≥ 2} = p0,2 + p1,2 + p0,3 + p1,3 = 0.05 + 0.05 + 0 + 0.1 = 0.2 d) P {Y = 0} = p0,0 + p1,0 + p2,0 = 0.1 + 0.05 + 0.2 = 0.35 e) P {X = Y } = p0,0 + p1,1 + p2,2 = 0.1 + 0.2 + 0.1 = 0.4 f ) P {X > Y } = p1,0 + p2,0 + p2,1 = 0.05 + 0.2 + 0 = 0.25

Tabla 8.1: Distribuci´on de probabilidad Ejemplo 8.1 x/y 0 1 2

0 0.1 0.05 0.2

1 0.1 0.2 0

2 0.05 0.05 0.1

3 0 0.1 0.05

Ejemplo 8.2 (La distribuci´ on trinomial). Considere un experimento E con tres posibles resultados. Sean p1 , p2 y p3 las probabilidades de los resultados 1, 2 y 3, respectivamente (p1 + p2 + p3 = 1). Suponga que ud. repite el experimento n veces y defina Xi como el n´ umero de veces que el resultado del experimento es i. Note que para i = 1, 2, 3, Xi ∼ b(n, pi ). Sin embargo, X1 , X2 y X3 no son independientes, porque X1 +X2 +X3 = n. La funci´ on de probabilidad puntual conjunta de la variable aleatoria tridimensional (X1 , X2 , X3 ), est´ a dada por:

pijk

  n! pi pj pk = P {X1 = i, X2 = j, X3 = k} = i!j!k! 1 2 3  0

si i+j+k=n,

(8.2)

de otra manera

Se dice que una variable aleatoria tridimensional con f.p.p conjunta dada por 8.2 tiene una distribuci´ on trinomial, o que es una variable aleatoria trinomial con par´ ametros n, p1 , p2 y p3 . Quiz: Derive la expresion 8.2. Quiz: Considere el Ejemplo 8.2. Encuentre la distribuci´on conjunta de la variable aleatoria bidimensional (X1 , X2 ). Definici´ on 8.7. Se dice que una variable aleatoria bidimensional (X, Y ) es continua si el rango RXY es un subconjunto no contable del espacio Euclidiano. Definici´ on 8.8. Sea (X, Y ) una variable aleatoria continua bidimensional. La Funci´ on de densidad de probabilidad conjunta (f.d.p) de (X, Y ) es una funci´ on f (·, ·) definida en RXY que permite representar el espacio de probabilidades de (X, Y ) y satisface:

Ricardo Gatica E.

Probabilidad para Ingenieros

95

Figura 8.1: Ilustraci´on Ejemplo 8.3d)

a) f (x, y) ≥ 0, para todo (x, y) ∈ RXY ZZ f (x, y)dxdy = 1

b) RXY

ZZ f (x, y)dxdy, para todo A ⊆ RXY

c) P (A) = A

Ejemplo 8.3. Sea (X, Y ) una variable aleatoria bidimensional con ( 1 xy si 4 ≤ x ≤ 6, 4 ≤ y ≤ 8 f (x, y) = 240 0 otro caso Z

5Z 6

Z

5Z 6

1 xydydx = 0.1875 4 4 4 4 240 Z 5Z 7 Z 5Z 7 1 b) P {X ≤ 5, 5 ≤ Y ≤ 7} = f (x, y)dydx = xydydx = 0.225 4 5 4 5 240 Z 5Z 8 Z 5Z 8 1 c) P {X ≤ 5} = P {X ≤ 5, 4 ≤ Y ≤ 8} = f (x, y)dydx = xydydx = 0.45 4 4 4 4 240 Z 6Z x Z 6Z x 1 d) P {X > Y } = f (x, y)dydx = xydydx = 0.5365 (ver Figura 8.1) 240 4 4 4 4 a) P {X ≤ 5, Y ≤ 6} =

f (x, y)dydx =

Ejemplo 8.4. Sea (X, Y ) una variable aleatoria bidimensional con ( 8xy si 0 ≤ x ≤ 1, x ≤ y ≤ 1 f (x, y) = 0 otro caso

Ricardo Gatica E.

Probabilidad para Ingenieros

96

Figura 8.2: Ilustraci´on Ejemplo 8.4

Z

.5 Z .6

a) P {X ≤ .5, Y ≤ .6} = 0

(ver Figura 8.2a) Z .5 Z b) P {Y ≥ .5} = 0

Z

x

8xydydx = 0.1175 0

1

.5

.5 Z .6

f (x, y)dydx =

Z

x

1Z 1

Z

.5 Z .5

8xydydx = 1 −

8xydydx + .5

8xydydx = 0.9375 0

x

x

(ver Figura 8.2b) Ejemplo 8.5. Sea (X, Y ) una variable aleatoria bidimensional definida en RXY ⊆ R2 . Si ( 1 para (x, y) ∈ RXY f (x, y) = Area(RXY ) 0 otro caso Se dice que (X, Y ) tiene una distribuci´ on uniforme en RXY , o lo que es equivalente, que es una variable aleatoria uniforme en RXY . En este caso, para cada A ⊆ RXY , P (A) =

8.2.

Area(A) . Area(Rxy )

Probabilidades y Valor Esperado de una Funci´ on de una Variable Aleatoria Bidimensional

Sea (X, Y ) una variable aleatoria bidimensional, y sea Z = H(X, Y ). De la misma manera que en el caso unidimensional, es claro que Z es una variable aleatoria. Tambi´en como en el caso unidmensional, en la mayor´ıa de las situaciones no es necesario encontrar la distribuci´on de probabilidad de Z. Los c´alculos de probabilidad asociados con Z pueden realizarse utilizando el concepto de eventos equivalentes de la siguiente manera:

Ricardo Gatica E.

Probabilidad para Ingenieros

97

P {Z ∈ B} = P {(x, y) ∈ RXY : H(x, y) ∈ B} Similarmente, el valor esperado de Z puede encontrarse utilizando la siguiente extensi´on directa del Teorema 5.1. Teorema 8.1. Sea (X, Y ) una variable aleatoria bidimensional, y sea Z = H(X, Y ). Entonces a) Si (X, Y ) es discreta E(Z) = E(H(X, Y )) =

XX xi ,yj ∈RXY

H(xi , yj )p(xi , yj )

(8.3)

b) Si (X, Y ) es continua ZZ H(x, y)f (x, y)dxdy

E(Z) = E(H(X, Y )) =

(8.4)

RXY

Nota: Observe que si se define H(X, Y ) = X, entonces el Teorema 8.1 dice que E(X) = RR xf (x, y)dydx para (X, Y ) continua (el caso de (X, Y ) discreta se deja como ejercicio). RXY De manera similar podemos calcular E(Y ). Otra forma de calcular E(X) y E(Y ), es utilizando la distribuci´on marginal de X e Y , que ser´an definidas en la siguiente secci´on. Ejemplo 8.6. Sea (X, Y ) una variable aleatoria bidimensional con ( 1 xy si 4 ≤ x ≤ 6, 4 ≤ y ≤ 8 f (x, y) = 240 , 0 otro caso entonces Z

6Z 8

E(X) =

Z

6Z 8

xf (x, y)dydx = 4

4

4

4

1 xydydx = x 240

Z

6Z 8

4

4

1 2 x ydydx = 5.066. 240

Sea Z = X + Y , entonces (ver Figura 8.3) Z

6 Z 10−x

P {Z ≤ 10} = P {X + Y ≤ 10} = 4

Z

4

6Z 8

E(Z) = E(X + Y ) =

Z

1 xydydx. 240

6Z 8

(x + y)f (x, y)dydx = 4

4

Quiz: Complete los c´alculos anteriores.

4

4

1 (x + y)xydydx. 240

Ricardo Gatica E.

Probabilidad para Ingenieros

98

Figura 8.3: Ilustraci´on Ejemplo 8.6

8.3.

Distribuciones Marginales

Considere una variable aleatoria discreta bidimensional (X, Y ) con rango RXY . Claramente los componentes individuales X e Y son variables aleatorias unidimensionales. Las distribuciones de probabilidades de los componentes individuales, X e Y , pueden derivarse de la distribuci´on de probabilidad conjunta de (X, Y ). Las distribuciones individuales se denominan distribuciones marginales. Considere una variable aleatoria bidimensional discreta con rango RXY , y una funci´on de probabilidad puntual conjunta p(x, y). Las distribuciones marginales de X e Y est´an dadas por: pX (xi ) = P {X = xi } =

X

p(xi , yj )

(8.5)

p(xi , yj )

(8.6)

{j:(xi ,yj )∈Rxy }

pY (yj ) = P {Y = yj } =

X {i:(xi ,yj )∈Rxy }

Nota: Observar que en (8.5) se fija el indice i (es decir, de toma un xi espec´ıfico) y se suma sobre todos los posibles valores de j. Similarmente, en (8.6), se fija j y se suma sobre todos los posibles valores de i. Ejemplo 8.7. Considere una variable aleatoria bidimensional (X, Y ) con la funci´ on de probabilidad conjunta dada en la Tabla 8.2. Las distribuciones marginales de X e Y , est´ an dadas respectivamente en la u ´ltima fila y en la u ´ltima columna de la tabla. Considere ahora una variable aleatoria bidimensional continua (X, Y ) con rango RXY y funci´on de densidad conjunta f (x, y). Las funciones de densidad marginales de X e Y est´an dadas por:

Ricardo Gatica E.

Probabilidad para Ingenieros

99

Tabla 8.2: x/y 0 1 2 pY (yj )

0 0.1 0.05 0.2 0.35

1 0.1 0.2 0 0.3

2 0.05 0.05 0.1 0.2

3 0 0.1 0.05 0.15

pX (xi ) 0.25 0.4 0.35

Z fX (x) =

f (x, y)dy

(8.7)

f (x, y)dx

(8.8)

{y:(x,y)∈Rxy }

Z fY (y) = {x:(x,y)∈Rxy }

Nota: Observar que en(8.7) se fija un valor X = x, y se integra sobre todos los valores posibles de Y para ese valor x espec´ıfico. En (8.8) se hace lo contrario. Los ejemplos siguientes ilustran el concepto. Ejemplo 8.8. Sea (X, Y ) una variable aleatoria bidimensional con ( f (x, y) =

1 240 xy

0

si 4 ≤ x ≤ 6, 4 ≤ y ≤ 8 . de otra manera

entonces, 8

Z fX (x) = 4

6

Z fY (y) = 4

1 1 xydy = x 240 10

4≤x≤6

(8.9)

1 1 xydx = y 240 24

4≤y≤8

(8.10)

Ejemplo 8.9. Sea (X, Y ) una variable aleatoria bidimensional con: ( 8xy f (x, y) = 0

si 0 ≤ x ≤ 1, x ≤ y ≤ 1 , de otra manera

entonces, Z

1

fX (x) =

8xydy = 4x(1 − x2 )

0≤x≤1

(8.11)

x

Z fY (y) = 0

y

8xydx = 4y 3

0≤y≤1

(8.12)

Ricardo Gatica E.

Probabilidad para Ingenieros

100

Figura 8.4: Rango de (X, Y ) en el Ejemplo 8.8

Figura 8.5: Rango de (X, Y ) en el Ejemplo 8.9

Comparando (8.9) y (8.11) se observa que los l´ımites de integraci´on en (8.9) son constantes, pero los l´ımites de integraci´on en (8.11) dependen de x. Esto es una consecuencia de la forma de los rangos respectivos (vea la Figura 8.4 y la Figura 8.5). En el Ejemplo 8.8, para cualquier valor de X, los valores posibles de Y van de 4 a 8 (4 ≤ y ≤ 8). En el Ejemplo 8.9 para X = x fijo, Y va desde x a 1 (x ≤ y ≤ 1). Un an´alisis similar se puede hacer para (8.10) y (8.12). Nota: Como se sugiere en el comentario anterior, en muchos problemas relacionados con variables aleatorias bidimensionales, es fundamental graficar el rango de (X, Y ) en el plano Euclidiano. Nota: Las distribuciones marginales son u ´tiles cuando queremos cacular esperanzas o probabilidades de varios sucesos relacionados a un componente u ´nico de una variable aleatoria multi-dimensional. Ejemplo 8.10. Considere nuevamente la variable aleatoria del Ejemplo 8.8. Se tiene:

Ricardo Gatica E.

Probabilidad para Ingenieros

Z

6

6

11 1 xdx = 10 20

Z

6

Z

P {X ≥ 5} =

fX (x)dx = 5

5 6

Z P {4 ≤ Y ≤ 6} =

1 5 ydy = 24 12

fY (y)dy = 4

4

Z 6 1 1 2 E(X) = xfX (x)dx = x xdx = x dx = 5.066 10 4 4 4 10 Ejemplo 8.11. Considere nuevamente la variable aleatoria del Ejemplo 8.9. Se tiene: Z

6

101

Z

Z

6

1

P {X ≥ 0.5} =

1

Z

4x(1 − x2 )dx = 0.56

fX (x)dx = 0.5

0.5

Z

0.8

Z

P {0.2 ≤ Y ≤ 0.8} = 0.2

Z E(Y ) =

8.4.

4y 3 dy = 0.6

1

0.2

Z yfY (y)dy =

0

0.8

fY (y)dy = 1 3

Z

1

y4y dy = 0

4y 4 dy = 0.8

0

Distribuciones Condicionales

Considere una variable aleatoria bidimensional (X, Y ), las distribuciones marginales permiten hacer c´alculos de probabilidad relacionados con una de las variable, independiente del valor que tome la otra variable. El inter´es en esta secci´on se centra en el c´alculo de probabilidades relacionadas con una variable, por ejemplo X, cuando se sabe que la otra variable, Y , toma un valor espec´ıfico Y = y. Con este prop´osito se introduce el concepto de distribuciones condicionales. Definici´ on 8.9. Sea (X, Y ) una variable aleatoria bidimensional discreta con rango RXY y funci´ on de probailidad puntual conjunta p(x, y). Se define la funci´ on de probabilidad puntual condicional de X dado Y = yj , como sigue: pX/Y =yj (xi ) = P {X = xi /Y = yj } =

p(xi , yj ) pY (yj )

para todo xi

(8.13)

Similarmente, la funci´ on de probabilidad puntual condicional de Y dado X = xi , se define por pY /X=xi (xj ) = P {Y = yj /X = xi } =

p(xi , yj ) pX (xi )

para todo yj

(8.14)

Nota: Observe que en (8.13), yj est´ a fijo. Por tanto, puede definirse una distribuci´ on condicional para cada valor posible yj de Y . Lo mismo sucede en (8.14)

Ricardo Gatica E.

Probabilidad para Ingenieros

102

Ejemplo 8.12. Considere la variable bidimensional discreta descrita en el Ejemplo (8.1). La distribuci´ on condicional de X dado Y = 2 se obtiene de la siguiente manera. 0.05 = 0.25 0.2 0.05 = 0.25 pX/Y =2 (1) = P {X = 1/Y = 2} = 0.2 0.1 = 0.5 pX/Y =2 (2) = P {X = 2/Y = 2} = 0.2 pX/Y =2 (0) = P {X = 0/Y = 2} =

Note que pX/Y =2 (0) + pX/Y =2 (1) + pX/Y =2 (2) = 1, esto muestra que pX/Y =2 (x) es una distribuci´ on de probabilidad v´ alida. Otras distribuciones condicionales est´ an dadas en las tablas (8.3) y (8.4). Observe que cada fila de las tablas representa una distribuci´ on de probabilidad diferente. Las columnas, en cambio, no tienen un significado espec´ıfico. Tabla 8.3: X pX/Y =0 (xi ) pX/Y =1 (xi ) pX/Y =2 (xi ) pX/Y =3 (xi )

0 2/7 1/3 0.25 0

1 1/7 2/3 0.25 2/3

2 3/7 0 0.5 1/3

Tabla 8.4: y pY /X=0 (yj ) pY /X=1 (yj ) pY /X=2 (yj )

0 2/5 1/8 4/7

1 2/5 1/2 0

2 1/5 1/8 2/7

3 0 1/4 1/7

Definici´ on 8.10. Sea (X, Y ) una variable aleatoria bidimensional continua con rango espacial RXY y funci´ on de densidad conjunta f (x, y). Se define la funci´ on de densidad condicional de X dado Y = y, como sigue

fX/Y =y (x) =

f (x, y) fY (y)

para x ∈ RX/Y = {x : (x, y) ∈ RXY }

(8.15)

Similarmente la distribuci´ on condicional de Y dado X = x se define por

fY /X=x (y) =

f (x, y) fX (x)

para y ∈ RY /X = {x : (x, y) ∈ RXY }

(8.16)

Ricardo Gatica E.

Probabilidad para Ingenieros

103

Nota: Como en el caso discreto, en (8.15) y est´ a fija, por lo tanto cada valor posible y de Y induce a una distribuci´ on condicional fX/Y =y (x) de X distinta. Nota: Las distribuciones condicionales tienen todas las propiedades de las distribuciones generales. En particular, Z fX/Y =y (x)dx = 1 RX/y

Ejemplo 8.13. Considere la variable aleatoria (X, Y ) descrita en el Ejemplo (8.9). Recuerde que: ( 8xy si 0 ≤ x ≤ 1, x ≤ y ≤ 1 f (x, y) = , 0 otro caso fX (x) = 4x(1 − x2 ), 3

0≤x≤1y 0≤y≤1

fY (y) = 4y , Por lo tanto, fX/Y =y = fY /X=x =

2x 8xy = 2 3 4y y 8xy 2y = 2 4x(1 − x ) 1 − x2

0≤x≤1 x≤y≤1

Note que la manera m´ as f´ acil de encontrar RX/y es utilizando el gr´ afico de RXY (Figura (8.2)). Observe tambi´en que cada una de las expresiones anteriores provee una descripci´ on general de una familia de distribuciones condicionales. Asignando diferentes valores num´ericos a y (respectivamente, x) obtendremos diferentes distribuciones condicionales espec´ıficas para X (respectivamente, Y). Por ejemplo: 2x = 8x 0.52 2x fX/Y =0.8 = = 3.125x 0.82 2y fY /X=0.4 = = 2.5y 1 − 0.42 fX/Y =0.5 =

0 ≤ x ≤ 0.5 0 ≤ x ≤ 0.8 0.4 ≤ y ≤ 1

El lector puede verificar que en cada caso la integral sobre el rango condicional equivale a 1. En los siguientes ejemplos se muestra el tipo de c´ alculos que puede efectuarse utilizando las distribuciones condicionales: Z P {X ≤ 0.3/Y = 0.5} =

0.3

Z fX/Y =0.5 (x)dx =

0

0.3

8xdx = 0.36 0

Ricardo Gatica E.

Probabilidad para Ingenieros Z

0.8

P {X ≥ 0.5/Y = 0.8} =

Z

0.8

fX/Y =0.8 (x)dx = 0.5

3.125xdx = 0.61 0.5

Z

0.9

P {0.6 ≤ Y ≤ 0.9/X = 0.4} =

Z

0.9

fY /X=0.4 (y)dy = 0.6

8.5.

104

2.5ydy = 0.56 0.6

Valor Esperado Condicional

Como en el caso de la Secci´on 5.5 , si se tiene una distribuci´on condicional, resulta natural definir el valor esperado condicional. Esto es, por ejemplo, el valor esperado de X dado que conocemos que Y toma un valor espec´ıfico Y = y. Definici´ on 8.11. Sea (X, Y ) una variable aleatoria bidimensional, definimos el valor esperado condicional de X dado que Y = y como: a) Si (X, Y ) es discreta X

E(X/Y = yj ) =

xi pX/Y =yj (xi )

(8.17)

xfX/Y =y (x)dx

(8.18)

RX/y

b) Si (X, Y ) es continua Z E(X/Y = y) = RX/y

El valor esperado de Y dado X = x se define de forma similar. Ejemplo 8.14. Considere nuevamente (X, Y ) como se defini´ o en el Ejemplo (8.9) y (8.13). Entonces Z y 2 Z y Z y 2x 2 2x dx = y E(X/Y = y) = xfX/Y =y (x) = x 2 dx = 2 y 3 0 0 0 3y Note que E(X/Y = y) es una funci´ on de y, de modo que valores de y generan diferentes valores esperados condicionale. Por ejemplo,

1 3 8 E(X/Y = 0.8) = (2/3) · 0.8 = 15 E(X/Y = 0.5) = (2/3) · 0.5 =

El lector puede verificar que estos valores son los mismos obtenidos al integrar las respectivas distribuciones condicionales dadas en el Ejemplo 8.13. Por ejemplo:

Ricardo Gatica E.

Probabilidad para Ingenieros

Z

105

0.5

x · 8xdx.

E(X/Y = 0.5) = 1/3 = 0

Observe que como E(X/Y = y) es una funci´on de y, e y es un valor de la variable aleatoria Y , entonces E(X/Y ) es una funci´on de Y , y por lo tanto es tambi´en una variable aleatoria. El siguiente teorema es an´alogo al Teorema 5.4 (de la Esperanza Total). Teorema 8.2. Sea (X, Y ) una variable aleatoria bidimensional. Entonces E(X) = E(E(X/Y ))

(8.19)

Nota: Observe que para el caso en que (X, Y ) es continua (8.19) implica Z E(X/Y = y)fy (y)dy E(X) = RY

El lector puede encontrar una expresi´on similar para el caso discreto.

8.6.

Independencia y Correlaci´ on

Definici´ on 8.12. Sea (X, Y ) una variable aleatoria bidimensional, se dice que X e Y son independientes si a) Si (X, Y ) es discreta p(xi , yj ) = pX (xi ) · pY (yj )

para todo (xi , yj ) ∈ RXY

(8.20)

b) Si (X, Y ) es continua f (x, y) = fX (x) · fY (y)

para todo (x, y) ∈ RXY

(8.21)

Teorema 8.3. Sea (X, Y ) una variable aleatoria bidimensional, si X e Y son independientes, entonces a) Si (X, Y ) es discreta pX/Y =yj (xi ) = pX (xi ) para todo (xi , yj ) ∈ RXY . pY /X=xi (yj ) = pY (yj )

Ricardo Gatica E.

Probabilidad para Ingenieros

106

b) Si (X, Y ) es continua fX/Y =y (x) = fX (x) para todo (x, y) ∈ RXY . fY /X=x (y) = fY (y) Nota: La Definici´on 8.12 es una formalizaci´on del mismo concepto de independencia que hemos utilizado anteriormente. Dice que dos variables aleatorias X e Y son independientes si un evento asociado con X es independiente de cualquier evento relacionado con Y . Ejemplo 8.15. Considere (X, Y ) como en el Ejemplo (8.8). Claramente: f (x, y) =

1 1 1 xy = x · y = fX (x)fY (y). 240 10 24

Por lo tanto X e Y son independientes. Ejemplo 8.16. Considere (X, Y ) como en el Ejemplo (8.9). Note que: f (x, y) = 8xy 6= 4x(1 − x2 ) · 4y 3 = fX (x)fY (y). Por lo tanto X e Y no son independientes. Cuando dos variables aleatorias X e Y no son independientes, es deseable medir el ”grado de asociaci´on entre X e Y . Las siguientes definiciones permiten hacer esto. Definici´ on 8.13. Sea (X, Y ) una variable aleatoria bidimensional. Definimos la covarianza entre X e Y como: Cov(X, Y ) = E[(X − E(X))(Y − E(Y ))] = E(XY ) − E(X)E(Y )

(8.22)

Nota: De la Propiedad V4. de la Varianza en la Secci´on 5.2 tenemos que: V (X + Y ) = V (X) + V (Y ) − 2E[(X − E(X))(Y − E(Y ))] = V (X) + V (Y ) + 2Cov(X, Y ) Teorema 8.4. Si X e Y son independientes, entonces E(XY ) = E(X)E(Y ) (Propiedad E6. del valor esperado en la Secci´ on 5.1), y Cov(X, Y ) = 0. Nota: Lo contrario del Teorema (8.4) no es cierto en general, es decir, Cov(X, Y ) = 0 no implica que X e Y sean independientes. Definici´ on 8.14. Sea (X,Y) una variable aleatoria bidimensional. Sedefine el coeficiente de correlaci´ on entre X e Y como: Cov(X, Y ) ρXY = (8.23) σX σY

Ricardo Gatica E.

Probabilidad para Ingenieros

107

Se puede demostrar que el coeficiente de correlaci´ on satisface −1 ≤ ρXY ≤ 1. ρXY puede interpretarse como una medida de dependencia lineal entre X e Y , como sigue: Un valor de ρXY cercano a +1 o −1 implica que la relaci´ on entre X e Y es cercana a la lineal. Un valor de ρXY cercano a cero implica que la relaci´ on entre X e Y es distinta a la lineal. De hecho, ρXY = 1 si y s´ olo si Y = aX + b, con a > 0, y ρXY = −1 si y s´ olo si X = aY + b, con a < 0 Nota: Covarianza y la correlaci´ on son conceptos clave en Estad´ıstica. Particularmente en t´ opicos como regresi´ on y dise˜ no experimental.

View more...

Comments

Copyright � 2017 SILO Inc.