Uploaded by sergioconesa99

TEMA 2

advertisement
TEMA 2. VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES DE PROBABILIDAD
1. CONCEPTO DE VARIABLE ALEATORIA
Dado un espacio de probabilístico (Ω, A, P), se ha definido, en el tema anterior, la
probabilidad, como una función
P: A → R
que asocia a cada suceso (conjunto) contenido en A un número real que, como se ha visto,
está comprendido en [0,1]. Se trata pues de una función que asocia a un conjunto un número
y, por tanto, es una función definida sobre conjuntos y no sobre números reales, como es lo
habitual. Por lo tanto, al no ser una función definida sobre R, no se le pueden aplicar las reglas
clásicas del cálculo infinitesimal, lo que constituye una barrera para poder construir un
desarrollo basado en el cálculo clásico, en cuanto a la teoría derivada del concepto de
probabilidad (función) adoptado.
Se hace pues necesario, llegar a trabajar con funciones reales de valores reales y, para ello, se
introducen los conceptos que se dan a continuación.
Dado un espacio probabilístico (Ω, A, P), una variable aleatoria X, es una función
X: Ω → R
que asocia a cada elemento de Ω un valor real, y tal que la imagen inversa de X, de cualquier
intervalo de la forma (-∞,x+ es un suceso de A.
En esta definición hay que considerar varias cuestiones. La primera es que la variable aleatoria
tiene como misión asociar a cada resultado (elemental) del experimento un valor numérico. Se
puede decir, por tanto, que la variable aleatoria tiene como misión transformar los resultados
del experimento en números. Actúa así como una función codificadora, o como un proceso de
cuantificación, con lo cual se consigue que, en lugar de trabajar con resultados de cualquier
tipo, se pueda trabajar siempre con números reales.
En el caso de que se esté realizando un experimento que consiste en lanzar un dado, la
variable aleatoria tiene un alcance limitado, dado que los resultados son ya numéricos; pero si
se trata de lanzar una moneda, se tendría que Ω=,cara, cruz-, con lo cual se puede definir una
variable aleatoria como:
X=
0
1
๐‘ ๐‘– ๐‘’๐‘™ ๐‘Ÿ๐‘’๐‘ ๐‘ข๐‘™๐‘ก๐‘Ž๐‘‘๐‘œ ๐‘’๐‘  ๐‘๐‘Ž๐‘Ÿ๐‘Ž
๐‘ ๐‘– ๐‘’๐‘™ ๐‘Ÿ๐‘’๐‘ ๐‘ข๐‘™๐‘ก๐‘Ž๐‘‘๐‘œ ๐‘’๐‘  ๐‘๐‘Ÿ๐‘ข๐‘ง
Se observa así lo dicho anteriormente: la variable aleatoria transforma los resultados del
experimento en números y, en consecuencia, a partir de aquí se puede trabajar con los valores
{0,1} sin perder información.
La cuestión es cómo se mantiene, en la transformación realizada, la información asociada a la
probabilidad de un suceso. Y para hay que tener lo dicho sobre la imagen inversa de cualquier
intervalo de la forma (-∞,x+, la cual se define como:
X-1{(-∞,x+-=,wั”Ω / X(w)≤x-
1
Es decir, en la imagen inversa se encuentran todos los resultados del experimento ( y por tanto
se trata de un subconjunto de Ω, un suceso), que cumplen la condición de que la variable
aleatoria lo ha transformado en un número ≤x. Y al subconjunto de Ω formado por esos
resultados del experimento, se le exige que sea uno de los sucesos contenidos en A y se va a
indicar por:
X-1{(-∞,x+-=,wั”Ω / X(w)≤x-= por sencillez=,X(w)≤x-=,X≤xPor lo tanto, en lo sucesivo, y en la práctica, se va a considerar que ,X(w)≤x- o bien ,X≤x- es un
suceso y, como tal, tendrá asociada una probabilidad por la función P.
Ejemplo
Se considera una bolsa con 2 bolas azules, 3 bolas blancas y 5 verdes. Se extrae una bola, al
azar, de la bolsa. El espacio de resultados asociado a este experimento es:
Ω=,azul, blanca, verdesiendo P(azul)=2/10, P(blanca)=3/10, P(verde)=5/10.
Se define una función X como:
0
๐‘ ๐‘– ๐‘™๐‘Ž ๐‘๐‘œ๐‘™๐‘Ž ๐‘’๐‘ฅ๐‘ก๐‘Ÿ๐‘Ž๐‘–๐‘‘๐‘Ž ๐‘’๐‘  ๐‘Ž๐‘ง๐‘ข๐‘™
X= 1 ๐‘ ๐‘– ๐‘™๐‘Ž ๐‘๐‘œ๐‘™๐‘Ž ๐‘’๐‘ฅ๐‘ก๐‘Ÿ๐‘Ž๐‘–๐‘‘๐‘Ž ๐‘’๐‘  ๐‘๐‘™๐‘Ž๐‘›๐‘๐‘Ž
2 ๐‘ ๐‘– ๐‘™๐‘Ž ๐‘๐‘œ๐‘™๐‘Ž ๐‘’๐‘ฅ๐‘ก๐‘Ÿ๐‘Ž๐‘–๐‘‘๐‘Ž ๐‘’๐‘  ๐‘ฃ๐‘’๐‘Ÿ๐‘‘๐‘’
A partir de la cual se van a construir las distintas imágenes inversas del intervalo (-∞,x], para
diversos valores de xั”R.
๏‚ท
๏‚ท
๏‚ท
๏‚ท
Para todo x<0, X-1{(-∞,x]}=,wั”Ω / X(w)≤x, con x<0-=,ØPara x<1; X-1{(-∞,x]}=,wั”Ω / X(w)≤x, con x<1-=, wั”Ω / X(w)=0-=,azulPara x<2; X-1{(-∞,x]}=,wั”Ω / X(w)≤x, con x<2}={ wั”Ω / X(w)=0 o 1}={azul,
blanca}
Para x≥2; X-1{(-∞,x]}=,wั”Ω / X(w)≤x, con x≥2-=, wั”Ω / X(w)=0,1,2-=,azul,
blanca, verde-=Ω
Por lo tanto se puede poner que:
๏‚ท
๏‚ท
๏‚ท
๏‚ท
Para todo x<0, -=,X≤x, x<0-= {Ø}
Para x<1; ,X≤x, x<1-= {azul}
Para x<2; ,X≤x, x<2-= {azul, blanca}
Para x≥2; ,X≤x, x≥2-=,azul, blanca, verde-=Ω
Y, en definitiva, para que la función X definida anteriormente, sea una variable aleatoria (v.a.)
tiene que ocurrir que los subconjuntos de Ω: Ø, {azul}, {azul, blanca} y {azul, blanca, verde}
sean miembros de la σ-álgebra A. Sin embargo, si se parte que la σ-álgebra elegida es “partes
de Ω”, se puede afirmar que en ella están todos los subconjuntos que se pueden formar con
los elementos de Ω con lo cual, los subconjuntos encontrados anteriormente serán sucesos,
asociados al experimento y, en consecuencia X es una variable aleatoria.
A partir de aquí se puede hablar con propiedad de las siguientes probabilidades:
๏‚ท
๏‚ท
Para todo x<0, -=P,X≤x, x<0-= 0
Para x<1; P,X≤x, x<1-= 2/10
2
๏‚ท
๏‚ท
Para x<2; P,X≤x, x<2-= 5/10
Para x≥2; P,X≤x, x≥2-=1
Independientemente de que lo explicado anteriormente sea más o menos prolijo, las ideas
principales con las que hay que contar son las siguientes:
๏‚ท
๏‚ท
๏‚ท
๏‚ท
Una variable aleatoria (en adelante v.a.) tiene como misión asignar valores numéricos
a los resultados de un experimento aleatorio.
A cada número real, mediante la v.a. se le asocia el sucesos {wั”Ω / X(w)≤x- que se
indicará, habitualmente, por sencillez ,X(w)≤x- o más reducidamente ,X≤x-, el cual,
como suceso que es tendrá siempre asociada una probabilidad, la cual “hereda” de los
sucesos elementales de los que proviene.
Salvo que se diga lo contrario, siempre que se introduzca una función X que
transforma los resultados de un experimento en valores numéricos, se considerará
que es una variable aleatoria, sin necesidad de probar que la imagen inversa es un
suceso, para todo x.
Por tanto, en lo sucesivo se hablará de la v.a. X y de probabilidades asociadas a los
valores de X o a intervalos asociados a los valores de X, sin entrar, necesariamente en
más detalles.
No obstante lo anterior, hay que recordar que la v.a. sigue siendo una función definida sobre
un conjunto. No se ha resuelto aún el problema inicialmente señalada de la necesidad de
trabajar con una función definida sobre números reales. Para ello se introduce el siguiente
concepto.
2. FUNCIÓN DE DISTRIBUCIÓN DE UNA VARIABLE ALEATORIA
Se define como Función de Distribución, de una v.a. X, a una función F
F: R → R+
Que hace corresponder a cada punto xั”R la probabilidad del suceso ,X≤x-, es decir, donde
F(x)=P(X≤x)
Como puede verse, esta función ya es una función definida entre número reales, expresando
además la probabilidad de los sucesos indicados. Con esta función se da el paso necesario para
trabajar en el campo real y, por tanto, le son de aplicación todas las reglas del cálculo
infinitesimal habituales.
2.1. Propiedades de la Función de distribución.
La Función de distribución, F, de una v.a. X, cumple las siguientes propiedades:
1.- F +∞ = limx→∞ F(x) = 1 y F −∞ = limx→−∞ F x = 0
En efecto, aplicando la definición de Función de distribución, se puede poner:
๏‚ท
๏‚ท
F +∞ = P X ≤ +∞ = P w ∈ Ω โŸ‹X w ≤ +∞ = P Ω = 1
F −∞ = P X ≤ −∞ = P w ∈ Ω โŸ‹X w ≤ −∞ = P Ø = 0
2.-F es siempre una función no decreciente
Es decir, se ha de cumplir que, dados dos valores cualesquiera x,y del dominio de
definición de F, tales que x<y, entonces F(x)≤F(y).
3
Para verlo se considera el valor de la función en cada punto x,y:
F x = P w ∈ Ω โŸ‹ X w ≤ x = P(Ax )
F y = P w ∈ Ω โŸ‹ X w ≤ y = P(Ay )
Por la construcción de ambos sucesos, se tiene que todo w que pertenece a Ax también
pertenece a Ay y por lo tanto Ax estará incluido en Ay, con lo que P(Ax)≤P(Ay) y, en
consecuencia, F(x)≤F(y).
3.- La función de distribución es continua a la derecha de cada punto
Es decir, en cualquier punto x0 del dominio de definición de F(x), se verifica que:
lim๐‘ฅ→๐‘ฅ 0 ๐น ๐‘ฅ = ๐น(๐‘ฅ0 )
siempre que los {xi} que forman la sucesión sean todos mayores que x0
F(x)
1
0,8
0,6
F(xo)
0,4
0,2
0
xo ← xi
Hay que recordar, que una función se dice que es continua cuando en todo punto de su
dominio de definición, el límite por la derecha y el límite por la izquierda, coinciden, y son
iguales al valor de la función en ese punto. Por tanto, la propiedad 3) no permite decir que la
Función de distribución de cualquier variable aleatoria es una función continua.
Asimismo, hay que señalar que las tres propiedades anteriores constituyen una
caracterización de la Función de distribución. Esto quiere decir que toda Función de
distribución las cumple, pero también que cualquier función que cumpla esas tres propiedades
es la Función de distribución de alguna variable aleatoria. Por lo tanto, cuando se pida,
demostrar que una función concreta es una Función de distribución, se deberá comprobar que
cumple las tres propiedades anteriores. En caso de no cumplirlas no será una Función de
distribución.
Ejemplo 1 (continuación)
Para construir la Función de distribución, F(x), de este ejemplo, teniendo en cuenta
tanto la definición como la existencia de los sucesos asociados a ella, se realiza el siguiente
proceso, que consiste en ir tomando valores de x, de izquierda a derecha
๏‚ท
x<0: F(x)=P wฯตΩ โŸ‹ X w ≤ x = P Ø = 0, dado que no hay ningún w
al que se la haga corresponder por F un valor por debajo de 0.
๏‚ท
๏‚ท
๏‚ท
0≤x<1: F(x)=P wฯตΩ โŸ‹ X w ≤ x = P 0 = 0,2 puesto que solo w = azul
cumple la condición.
1≤x<2: F(x)=P wฯตΩ โŸ‹ X w ≤ x = P 0,1 = 0,5 dado que ahora son los
4
resultados azul y blanco los que cumplen la condición.
๏‚ท
x≥2: F(x)=P wฯตΩ โŸ‹ X w ≤ x = P 0,1,2
= P Ω = 1 puesto que ahora
son todos los resultados los que cumplen la condición
Esto supone que la Función de distribución se puede poner como:
F(x)=0
para x<0
F(x)=0,2, para 0≤x<1
F(x)=0,5, para 1≤x<2
F(x)=1, para x≥2
1
0,5
0,2
0
1
2
3. TIPOS DE VARIABLES ALEATORIAS
Aun cuando existen diversos tipos de variables aleatorias, aquí se van a estudiar dos casos
concretos: variables aleatorias discretas y variables aleatorias continuas.
3.1. Variables aleatorias discretas
Una variable aleatoria X, definida sobre un espacio probabilístico (Ω, A, P), se dice que es
discreta cuando el conjunto de valores que puede tomar es finito o infinito numerable.
Un número de valores se dice que es infinito numerable cuando se puede poner en
correspondencia con los números naturales. Es decir, cuando ordenados los valores de la
variable de menor a mayor, se puede poner como x1, x2,….
En consecuencia, en adelante se dirá que una v.a. X tomará los valores x1, x2,…., en número
finito o infinito.
En este caso, se tiene que P*X=x+=P*wั”Ω โŸ‹ X(w)=x], que será la probabilidad de que la v.a.
tome cada uno de sus valores posibles, de tal modo que, asociado a cada valor xi se tendrá la
probabilidad de que la v.a. tome dicho valor, y se expresará por:
P[X=xi]=p(xi)=pi i=1,2,…..
De este modo se dirá que se conoce el comportamiento de una v.a. X, o dicho más
correctamente, se conoce la distribución de una v.a. X discreta, cuando se conocen los valores
que puede tomar y la probabilidad con la que puede tomar cada uno de ellos; es decir, cuando
se conozca el conjunto de parejas (xi, pi) para i=1,2,….
5
A la expresión que asigna a cada valor de la v.a. su probabilidad se le denomina función de
probabilidad, o también función de masa o de cuantía. Y debe cumplir las siguientes
propiedades:
1. P[X=xi]=p(xi)=pi≥0, para todo i=1,2,…..
2.
i pi =1
que como puede observarse no son sino las propiedades lógicas y esperables: las
probabilidades han de ser valores no negativos, y la suma de todas las probabilidades ha de ser
la unidad.
Como es natural, la función de probabilidad y la función de distribución han de estar
relacionadas, lo cual ocurre en el siguiente modo:
๏‚ท
F(x)=P[X≤x]= x i ≤x p(xi ), es decir la suma de las probabilidades de todos los
valores menores o iguales que x.
El punto x no necesariamente tiene que coincidir con un valor de la variable, sino que puede
ser algún valor comprendido entre dos valores cualesquiera, consecutivos. Lo que no obvia,
que la función de distribución en un valor concreto de la v.a. se pueda poner como:
๏‚ท
F(xi)=P[X≤xi]=
x j ≤x i
p(xj )=p(x1)+p(x2)+…+p(xi)
con lo cual queda expresada la función de distribución, en cualquier
función de probabilidad.
(1)
punto, a partir de la
Pero la expresión obtenida en (1) permite ahora encontrar la probabilidad en un punto, a
partir del conocimiento de la función de distribución, del siguiente modo:
๏‚ท
F(xi)=P[X≤xi]=
๏‚ท
F(xi-1)=P[X≤xi-1]=
x j ≤x i
p(xj )=p(x1)+p(x2)+…+p(xi)
x j ≤x i−1 p(xj )=p(x1)+p(x2)+…+p(xi-1)
Y, restando, se tiene que P[X=xi]=p(xi)=F(xi)-F(xi-1), válida para i=1,2… Lo que permite expresar
la función de probabilidad a partir del conocimiento de la función de distribución.
Vista esta relación, se puede decir ahora que se conoce la distribución que sigue una v.a.
discreta, cuando se conocen los valores que puede tomar y sus probabilidades respectivas
(función de probabilidad) o bien, cuando se conocen los valores que puede tomar y la función
de distribución en cada uno de ellos.
3.2. Variables aleatorias continuas
Una variable aleatoria X, definida sobre un espacio probabilístico (Ω, A, P), se dice que es
continua cuando existe una función no negativa f(x), denominada función de densidad, tal que
para cada número real x, se tiene que:
F(x)=P*X≤x+=
x
−∞
f x dx
(2)
Es decir, cuando existe una función, llamada función de densidad, que permite expresar la
función de distribución a partir de ella, como la integral definida expresada en (2).
La función de densidad, es una aplicación de f: R → R, que ha de cumplir dos condiciones:
1. f(x)≥0, en todo punto de su dominio de definición
6
2.
+∞
f
−∞
x dx = 1
Respecto a la segunda condición, no es más que la expresión de que la función de distribución
en ∞ vale uno. Es decir:
x
+∞
F +∞ = lim
x→∞ −∞
f x dx =
f x dx = 1
−∞
Esto supone que una función cualquiera, para ser función de densidad, ha de verificar las dos
propiedades anteriores.
De la expresión (2) se tiene la forma de obtener la función de distribución, a partir del
conocimiento de la función de densidad. La situación contraria, es decir, cómo obtener la
función de densidad, conocida la función de distribución es el proceso inverso de la
integración. Por tanto, se puede decir que, dada la función de distribución F(x), la función de
densidad se obtiene como:
f x =
dF(x)
= F ′ (x)
dx
siempre que se pueda realizar el proceso de derivación; lo que conlleva que F(x) ha de ser
derivable en todo punto x del dominio de definición de F(x).
Una integral definida, como aparecen ahora en la función de distribución, tiene como
interpretación la medida del área comprendida entre el integrando, f(x), el eje X y los límites
de integración. Por tanto, se puede afirmar que el valor de la función de distribución en un
punto, es el área señalada en el gráfico siguiente:
F(x)
X
x
Esto supone que se puede hablar de área, cuando se hable del valor de la función de
distribución en un punto y, además, que se pueda razona en términos de áreas, cuando se
opere con ella o también cuando se trate de calcular probabilidades concretas. Así, para
calcular entre dos puntos, P[a<X≤b], se tendrá:
P a<๐‘‹ ≤๐‘ =P X≤b −P X≤a =F b −F a =
b
=
a
b
f x dx −
−∞
f x dx =
−∞
f x dx
a
Esto permite disponer de una expresión general para la probabilidad entre dos puntos,
expresada como la diferencia entre los valores que toma la función de distribución entre
ambos:
๐‘ƒ ๐‘Ž <๐‘‹ ≤๐‘ =๐น ๐‘ −๐น ๐‘Ž
Pero también como
b
Pa<X≤b =
f x dx
a
7
(3)
O bien gráficamente como:
F(b)
X
b
F(a)
a
F(b)-F(a)
X
b
a
X
En cuando a la probabilidad sobre un conjunto, por extensión de lo anterior, se obtiene del
modo siguiente:
P X∈A =
f x dx
x∈A
La expresión (3) es, lógicamente, válida tanto para variables discretas como para variables
continuas. Y es una expresión en la que hay que tener especial cuidado con los valores que
incluye, al aparecer “<” y “≤”. Este hecho es particularmente importante en variables discretas,
sin embargo, cuando se trata de variables continuas, ya no es tan relevante, por la sencilla
razón que en el caso de variables aleatorias continuas la probabilidad en un punto vale cero. Y,
en consecuencia, es indiferente considerar, en este caso, el signo < o ≤, y también el > o el ≥.
En efecto, la probabilidad en un punto, en el caso continuo, se puede expresar,
intuitivamente1, como
x+ε
P X = x = limP x − ε < ๐‘‹ ≤ ๐‘ฅ + ๐œ€ = lim
ε→0
ε→0 x−ε
x
f x dx =
f x dx = 0
x
Ejemplo 2. Se considera la siguiente distribución de probabilidad discreta:
xi
1
2
3
4
5
6
7
8
9
10
p(xi)
0,05
0,1
0,04
0,08
0,12
0,2
0,04
0,15
0,1
0,12
Y se pide calcular las siguientes probabilidades:
๏‚ท P[X≤4]=p(1)+p(2)+p(3)+p(4)=0,05+0,1+0,04+0,08=0,27
๏‚ท P]X>7]=P[X=8,9,10]=0,15+0,1+0,12=0,37
๏‚ท P[4<X<7]=P[5,6]=0,12+0,2=0,32
๏‚ท P[4<X≤7]=P[5,6,7]= 0,12+0,2+0,04=0,36
๏‚ท P[4≤X≤7]=P[4,5,6,7]= 0,08+0,12+0,2+0,04=0,44
Donde como se puede ver la consideración del signo < o ≤ es relevante.
1
La demostración correcta requiere aplicarla fórmula de los incrementos finitos.
8
Ejemplo 3. Se considera una v.a. X, cuya función de densidad viene dada por:
f(x)=0,5x cuando 0<x<2 y 0 en el resto de R
Esta función es, en efecto, una función de densidad, ya que verifica que:
1. f(x)≥0 en todo punto del intervalo de definición (0,2)
2.
+∞
f
−∞
x dx =
2
0,5xdx
0
x2
1
= 0,5[ 2 ]20 = 0,5 2 − 0 = 2 2 = 1
Se pide ahora calcular las siguientes probabilidades:
๏‚ท
Función de distribución: F(x)=P*X≤x+=
x
f
−∞
x dx =
x
0,5xdx
0
=
x2
,
4
con lo cual se tiene
que :
F x =0
x2
F x =
4
F x =1
๏‚ท
๏‚ท
๏‚ท
๏‚ท
๏‚ท
x≤0
0<๐‘ฅ<2
x≥2
๐‘ƒ ๐‘‹ < 1 = ๐‘ƒ ๐‘‹ ≤ 1 =0,25
P*0,2<X<1+=P*0,2<X≤1+=P*X≤1+-P*X≤0,2+=F(1)-F(0,2)=0,25-0,01=0,24
P*0,2≤X<1+=P*0,2≤X≤1+=P*X≤1+-P*X≤0,2+=F(1)-F(0,2)=0,25-0,01=0,24
P[X>1]=1-P*X≤1+=0,75
P*X≥1+=1-P[X<1]=1-P*X≤1+=0,75
4. VARIABLES ALEATORIAS BIDIMENSIONALES
Cuando en un experimento aleatorio cada uno de sus resultados refleja dos características
concretas, se hace necesario introducir una perspectiva bidimensional. Es, por ejemplo, el
caso en que el experimento consiste en lanzar un dado en el que, además de los números,
cada cara tiene un determinado color. Por lo tanto, cada resultado que se obtiene al lanzar el
dado tiene dos características: puntuación y color.
Cuando esto ocurre, se hace necesario extender el concepto de variable aleatoria al campo
bidimensional, lo que se hace en las mismas condiciones que en el caso unidimensional y en el
siguiente modo.
Sea un espacio probabilístico (Ω, A, P), donde el espacio de resultados Ω está formado por
parejas de elementos; cada uno correspondiente a las dos características observables del
experimento. Se define la v.a. bidimensional (X,Y) como un vector aleatorio de dimensión dos,
en el que cada una de sus componentes es a su ve una variable aleatoria, definidas ambas
sobre (Ω, A, P), siendo X la v.a. asociada a la primera característica correspondiente al
experimento, y Y la v.a. asociada a la segunda característica asociada a dicho experimento.
Esto supone que se tiene:
(X,Y): Ω → R2
9
donde las dos componentes del vector aleatorio de dimensión dos (X,Y) son aplicaciones
X: Ω → R
Y: Ω → R
De una forma más sencilla, se puede decir que una v.a. bidimensional (X,Y), es el vector
formado por una pareja de variables aleatorias unidimensionales X, Y asociadas ambas al
mismo experimento y donde cada una de ellas corresponde a una de las dos características
que se observan en la realización del experimento. De este modo una v.a. bidimensional se
puede observar como un vector aleatorio de dimensión o, lo que es lo mismo, como una
pareja de vv.aa. unidimensionales que actúan conjuntamente, sobre el mismo espacio de
resultados de un experimento.
A partir de aquí, el tratamiento que se hace de las vv.aa. bidimensionales es análogo al
realizado anteriormente. En primer lugar se introduce la función de distribución y, a
continuación, se estudia el caso discreto y el caso continuo.
5. FUNCION DE DISTRIBUCION BIDIMENSIONAL
Dada una v.a. bidimensional (X,Y), se define su función de distribución F(x,y), como una
función:
F: R2 → R
en la que F(x,y)=P[X≤x,Y≤y], con el mismo significado que en el caso anterior y, por tanto, en el
sentido de que
F(x,y)=๐‘ƒ[{๐‘คั”๐›บโŸ‹๐‘‹(๐‘ค) ≤ ๐‘ฅ} ∩ {๐‘คั”๐›บโŸ‹๐‘Œ(๐‘ค) ≤ ๐‘ฆ]
entendida como la probabilidad de la intersección de los dos sucesos en ella comprendidos.
5.1.Propiedades de la función de distribución
Las propiedades que tiene la función de distribución bidimensional son muy similares al caso
unidimensional, con solo algunas variaciones, y son las siguientes.
1. ๐… +∞, +∞ = ๐Ÿ; ๐… −∞, ๐ฒ = ๐ŸŽ; ๐… ๐ฑ, −∞ = ๐ŸŽ
๏‚ท ๐น +∞, +∞ = ๐‘ƒ ๐‘‹ ≤ +∞, ๐‘Œ ≤ +∞ =
= P w ∈ Ω โŸ‹X w ≤ +∞ ∩ w ∈ Ω โŸ‹Y w ≤ +∞ = P Ω ∩ Ω = P Ω = 1
๏‚ท
F −∞, y = P X ≤ −∞, Y ≤ y =
= P w ∈ Ω โŸ‹X w ≤ −∞ ∩ w ∈ Ω โŸ‹Y w ≤ y
= P Ø = 0.
๏‚ท
= P Ø ∩ w ∈ Ω โŸ‹Y w ≤ y
=
F x, −∞ = P X ≤ x, Y ≤ −∞ =
= P w ∈ Ω โŸ‹X w ≤ x ∩ w ∈ Ω โŸ‹Y w ≤ −∞ = P w ∈ Ω โŸ‹X w ≤ x ∩ Ø =
= P Ø = 0.
2. F es monótona no decreciente para cada variable. Esto quiere decir que F(x,y),
considerada solo como función de x es una función monótona no decreciente y,
también, que considerada solo como función de y es una función monótona no
decreciente. Se expresa de la siguiente forma:
10
Dados dos valores cualesquiera x1,x2 de X, tales que x1<x2 entonces F(x1,y)≤F(x2,y) y
que dados dos valores cualesquiera y1,y2 de Y, tales que y1<y2 entonces F(x,y1)≤F(x,y2)
En efecto, para el primero de los dos casos, es decir, cuando x1<x2 y supuesto que el
valor de “y” es fijo, se tiene:
F x1 , y = P w ∈ Ω โŸ‹X w ≤ x1 ∩ w ∈ Ω โŸ‹Y w ≤ y
= P[A1 ∩ B]
F x2 , y = P w ∈ Ω โŸ‹X w ≤ x2 ∩ w ∈ Ω โŸ‹Y w ≤ y
= P[A1 ∩ B]
Ahora bien, como x1<x2 entonces se verificará necesariamente que A1แด„A22 y en
consecuencia se tendrá que:
A1∩Bแด„ A2∩B con lo cual P[A1∩B+≤ P[A2∩B] y en consecuencia F(x1,y)≤ F(x2,y)
Por lo que se refiere al caso en que y1<y2 la demostración es similar.
3. La función de distribución es continua a la derecha en cada variable. Es decir, se
verifica que
๏‚ท lim๐‘ฅ→๐‘ฅ 0 ;๐‘ฆ→๐‘ฆ0 ๐น ๐‘ฅ, ๐‘ฆ = ๐น(๐‘ฅ0 , ๐‘ฆ0 ) en todo (x0,yo)ั”R2
Con estas tres propiedades se tiene una situación similar a la que ocurre en el caso
unidimensional. Sin embargo, en el caso de dimensión dos, no es suficiente que una función
cumpla estas tres propiedades, para garantizar que sea la función de distribución de alguna
v.a. (X,Y). Se tiene que añadir una cuarta propiedad que, junto con las tres anteriores
caracteriza a una función de distribución bidimensional.
4. Esta propiedad consiste en que la función de distribución debe cumplir que la
probabilidad asociada a cualquier intervalo de R2 debe ser ≥0. Es decir, dados los
valores a,bั”R, con a<b, y los valores c,dั”R, con c<d, ha de ocurrir que:
P[a<X≤b,c<Y≤d]≥0
Lo que expresado a partir de la función de distribución supone que:
P[a<X≤b,c<Y≤d]=F(b,d)-F(a,d)-F(b,c)+F(a,c)≥0
Se tiene finalmente, que cualquier función de distribución correspondiente a una v.a.
bidimensional (X,Y) cumple las cuatro propiedades indicadas. Y, por otra parte, dada una
función cualquiera definida de R2 en R2 que cumpla las cuatro propiedades indicadas, es la
función de distribución de alguna v.a. bidimensional.
6.TIPOS DE VARIABLES ALEATORIAS BIDIMENSIONALES
Dada una v.a. bidimensional (X,Y), pueden aparecer distintos tipos de vv.aa. en función de
cómo sea cada una de las variables componentes. No obstante, aquí se estudiarán dos casos:
variables aleatorias bidimensionales discretas y variables aleatorias bidimensionales continuas.
6.1.Variable aleatoria bidimensional discreta
Dada una v.a. bidimensional (X,Y) se dirá que es discreta cuando X sea una v.a. discreta, Y sea
una v.a. discreta; o dicho de otro modo, cuando sus dos componentes sean variables aleatorias
discretas.
2
Podría ocurrir, no solo la inclusión sino que incluso los sucesos fueran iguales.
11
La v.a. discreta (X,Y), como en el caso unidimensional, tendrá un conjunto de valores y unas
probabilidades asociadas a cada uno de esos valores. Respecto al conjunto de valores de (X,Y)
estará formado por todas las parejas que se puedan formar combinando todos los valores de X
con todos los valores de Y:
{(xi,yj)} siendo xi los distintos valores de X, x1,x2,…; yj los distintos valores de Y, y1,y2,…
Cada una de estas parejas de valores tendrá una probabilidad asociada, siendo la función de
probabilidad cuando hace corresponder a cada una de ellas su probabilidad, y será, por tanto:
P[X=xi,Y=yj]=p((xi,yj)=pij ๊“ฏ(xi,yj) valores de (X,Y)
La función de probabilidad, al igual que en el caso unidimensional, cumple las siguientes
propiedades:
1. pij ≥0 ๊“ฏ(xi,yj)
2.
i j pij = 1
que no son más que las lógicas; probabilidades no nulas y suma de probabilidades igual a la
unidad.
Se dice que la distribución de probabilidad de la v.a. (X,Y) es conocida, cuando se conocen los
valores que puede tomar la v.a. y las probabilidades con las que los toma. Es decir, valores y
función de probabilidad.
Pero esta definición se puede plantear también cuando en lugar de conocer la función de
probabilidad se conoce la función de distribución. Así, tanto en un caso como en otro es
preciso conocer los valores, pero resulta indistinto, para conocer la distribución de la v.a., el
conocer la función de probabilidad, o bien la función de distribución.
Y este es así, porque conocida una de ambas funciones se puede conocer la otra. En efecto, si
se conoce la función de probabilidad, la función de distribución, en cada punto (x,y) se puede
poner como :
F x, y = P X ≤ xi , Y ≤ yj =
x i <๐‘ฅ
y j <๐‘ฆ
pij
Mientras que si se conoce la función de distribución en todo punto, entonces la función de
probabilidad, en cualquier punto, se puede obtener como:
P[X=xi,Y=yj+=P*X≤xi,Y≤yj]- P*X≤xi,Y≤yj-1]- P*X≤xi-1,Y≤yj]- P*X≤xi-1,Y≤yj-1]=F(xi,yj)-F(xi,yj-1)-F(xi-1,yj)+ F(xi-1,yj-1)
Ejemplo 4. Se considera una v.a. (X,Y) cuya distribución viene dada por la siguiente tabla de
probabilidades:
X/Y
0
1
2
3
4
5
1
0,05
0,02
0,01
0,04
0,02
0,00
3
0,05
0,04
0,04
0,02
0,01
0,01
12
5
0,10
0,02
0,02
0,20
0,03
0,04
7
0,02
0,01
0,01
0,03
0,04
0,01
9
0,03
0,04
0,02
0,01
0,03
0,03
Se pide obtener los siguientes resultados:
๏‚ท
๏‚ท
๏‚ท
P(X=3,Y=3)=0,02
P(X=3,Y>5)=P(X=3,Y=7)+P(X=3,Y=9)=0,03+0,01=0,04
P(X≤2,Y≤2)=P(X≤2,Y≤1)=P{(0,1), (1,1),(2,1)}=P(X=0,Y=1)+P(X=1,Y=1)+P(X=1,Y=1)=
=0,05 +0,02 +0,01=0,08
๏‚ท
P(X<2,Y≥7)=P,(0,7),(0,9),(1,7),(1,9)-=0,02+0,03+0,01+0,04=0,10
6.2.Variable aleatoria bidimensional continua
Se dice que una v.a. bidimensional (X,Y) es continua, cuando tanto X como Y son variables
aleatorias continuas, y esto supone que ha de existir una función f(x,y), definida sobre el
campo de variación de (X,Y), a partir de la cual se puede obtener la función de distribución
como:
F x, y = P x ≤ x, Y ≤ y =
x
y
f
−∞ −∞
x, y dxdy
(4)
La función f(x,y), es una función no negativa, y recibe el nombre de función de densidad
conjunta. Sus propiedades son las siguientes:
๏‚ท
๏‚ท
f(x,y)≥0 ๊“ฏ(x,y)ั”dominio de definición de (X,Y)
+∞ +∞
๐‘“
−∞ −∞
๐‘ฅ, ๐‘ฆ ๐‘‘๐‘ฅ๐‘‘๐‘ฆ = 1
donde la segunda propiedad con es más que la exigencia de que la función de distribución en
el punto (+∞, +∞) ha de valer la unidad.
La expresión (4) permite obtener la función de distribución a partir de la función de densidad.
El proceso inverso, permite ahora obtener la función de densidad, conocida la función de
distribución, de tal modo que si F(x,y) es continua, la función de densidad se obtiene como :
f x, y =
∂2 F(x, y)
∂x ∂y
Esto conduce a que se puede decir que la distribución de (X,Y) es conocida, cuando se conoce
el campo de variación de la v.a. (X,Y) y su función de densidad f(x,y). O, alternativamente,
cuando se conoce el campo de variación de la v.a. (X,Y) y su función de distribución F(x,y).
Respecto a la forma de obtener probabilidades concretas, se dispone de las siguientes
expresiones:
b
d
P a < X ≤ b, c < Y ≤ d =
f x, y dxdy
a
c
donde se han de hacer las mismas precisiones que en el campo de la v.a. unidimensional
continua, en cuanto a la indiferencia en cuanto a las desigualdades < y ≤, o > y ≥. Asimismo:
P x, y ∈ A =
f x, y dxdy
A
13
Ejemplo 5. Sea una v.a. (X,Y) cuya función de densidad es la siguiente:
๏ƒฌ xy
๏ƒฏ
f(x, y) ๏€ฝ ๏ƒญ 96
๏ƒฏ0
๏ƒฎ
0 ๏€ผ x ๏€ผ 4, 1 ๏€ผ y ๏€ผ 5
en el resto
Se pide, obtener las siguientes probabilidades
2 3
๏‚ท P 1 < ๐‘‹ < 2,2 < ๐‘Œ < 3 < 0] = 1 2 f x, y dxdy =
2
1
๏‚ท
x
{
96
3
2
ydy} =
2
1
P X > 2, ๐‘Œ < 3 =
2 3
x y
96 2
4 3 xy
dxdy
2 1 96
dx =
2
=
5
2.96
2
2 3 xy
dxdy
1 2 96
2 2
xdx =
1
3
4 1 y2
dx
2 96 2 1
=
5 x
2.96 2
4
8
xdx
2.96 2
=
= 0,039
1
= 0,125
7.DISTRIBUCIONES MARGINALES
Disponer de la distribución de una v.a. bidimensional (X,Y), permite conocer el
comportamiento conjunto de dicha variable. Pero también es posible determinar el
comportamiento individual de cada una de ellas; es decir, las distribuciones marginales.
Así, para determinar la distribución, marginal, de X, hay que conocer su campo de variación, el
cual es fácilmente determinable a partir de la distribución conjunta. Pero también hay que
determinar la función de distribución y, según se trate de una v.a. discreta o continua, la
función de probabilidad o la función de densidad, respectivamente. Y análogamente para la
variable Y.
7.1.Funciones de distribución marginales
Dada la función de distribución conjunta F(x,y), la función de distribución marginal de cada
variable se determina del siguiente modo:
๏‚ท
limy→∞ F x, y = lim P X ≤ x, Y ≤ y =
y→∞
= lim P w ∈ Ω โŸ‹X w ≤ x ∩ w ∈ Ω โŸ‹Y w ≤ y
y→∞
= P w ∈ Ω โŸ‹X w ≤ x ∩ w ∈ Ω โŸ‹Y w ≤ ∞
=
= P w ∈ Ω โŸ‹X w ≤ x ∩ Ω =
=P X ≤ x = F1 (x)
Con lo cual, las funciones de distribución marginales, se puede obtener como:
๏‚ท
๏‚ท
F1 x = P X ≤ x = F(x, +∞)
F2 y = P Y ≤ y = F(+∞, y)
7.2.Funciones de probabilidad marginales
Ahora, en el caso discreto, las funciones de probabilidad marginales se obtienen de un modo
similar al anterior.
Función de probabilidad marginal de X:
๏‚ท
P[X = xi ]=
j P[X
= xi , Y = yj ] =
j pij
= pi. i = 1,…
i pij
= p.j j = 1,…
Función de probabilidad marginal de Y:
๏‚ท
P[Y = yj ]=
i P[X
= xi , Y = yj ] =
14
Ejemplo 4. (continuación). Cálculo de las distribuciones marginales de X e Y, a partir de la
siguiente función de probabilidad conjunta:
X/Y
0
1
2
3
4
5
1
0,05
0,02
0,01
0,04
0,02
0,00
3
0,05
0,04
0,04
0,02
0,01
0,01
5
0,10
0,02
0,02
0,20
0,03
0,04
7
0,02
0,01
0,01
0,03
0,04
0,01
9
0,03
0,04
0,02
0,01
0,03
0,03
La determinación de la función de probabilidad marginal de cada variable, hay que realizarla
punto a punto, sumando las probabilidades conjuntas de todas las parejas que contenga al
punto indicado. Por ejemplo, para obtener la función de probabilidad marginal de X, hay que
considerar cada uno de los valores de X, y realizar el siguiente procedimiento. Se toma el
primer valor de la variable; en este caso X=0, y se suman las probabilidades de todas las
parejas que tienen a 0 como valor de X. En concreto se sumarían todas las probabilidades
conjuntas que aparecen en la fila en la que está el valor X=0. E igualmente para cada uno de los
valores de X. Esto viene expresado en la columna pi.
X/Y
0
1
2
3
4
5
p.j
1
0,05
0,02
0,01
0,04
0,02
0,00
3
0,05
0,04
0,04
0,02
0,01
0,01
5
0,10
0,02
0,02
0,20
0,03
0,04
7
0,02
0,01
0,01
0,03
0,04
0,01
9
0,03
0,04
0,02
0,01
0,03
0,03
0,14
0,17
0,41
0,12
0,16
pi.
0,25
0,13
0,10
0,30
0,13
0,09
En el caso de la v.a. Y, el proceso sería similar, obteniendo la probabilidad marginal de cada
valor, sumando las probabilidades conjuntas que aparecen en su columna respectiva.
7.3.Funciones de densidad marginales
Se obtienen, a partir de la función de densidad conjunta f(x,y), teniendo en cuenta el resultado
ya encontrado para las funciones de distribución marginales.
En el caso de la v.a. X se tiene que
F1 x = F x, +∞ =
x
+∞
f
−∞ −∞
x, y dxdy =
x
g
−∞
x dx
(5)
Pero como X es una v.a. continua, por definición, tendrá su propia función de densidad f1(x), a
partir de la cual se puede obtener la función de distribución de X como
F1 x =
x
f
−∞ 1
x dx
(6)
15
Igualando las ecuaciones (5) y (6), se obtiene que sus integrandos han de ser iguales y, por
tanto, que la función de densidad marginal de X será:
+∞
f1 x = g x =
f x, y dy
−∞
Y, del mismo modo, se obtiene que la función de densidad marginal de la v.a. Y es
+∞
f2 y =
f x, y dx
−∞
Ejemplo 5. (continuación) . Con los datos del Ejemplo 5, determinar las funciones de densidad
marginales de cada variable.
+∞
f1 x =
5
f x, y dy =
−∞
1
1
f x, y dy =
96
5
1
1 y2
xydy =
96 2
5
=
x
8
=
y
12
1
Con lo cual se tiene que la función de densidad marginal de x es:
๐‘ฅ
๐‘“1 ๐‘ฅ = 8
0
0<๐‘ฅ<4
๐‘’๐‘› ๐‘’๐‘™ ๐‘Ÿ๐‘’๐‘ ๐‘ก๐‘œ
En el caso de la función de densidad marginal de Y, se tiene que:
+∞
f2 y =
4
f x, y dx =
−∞
0
1
f x, y dx =
96
4
0
1 x2
xydx =
96 2
4
0
Y la función de densidad marginal que, finalmente:
y
1<๐‘ฆ<5
f2 y = 12
0 en el resto
8.DISTRIBUCIONES CONDICIONADAS
A partir del comportamiento conjunto de la v.a. (X,Y), se puede obtener cuál es la distribución
que sigue una de las variables, cuando la otra cumple una determinada condición. A esta
distribución se le llama distribución condicionada, y se expresa como (X/Yั”A), para indicar la
distribución, condicionada, que siguen la v.a. X cuando la Y cumple una condición que, en este
caso, es que tome valores sobre el conjunto A. Como es natural, la distribución concreta, en
cuanto al conocimiento de su función de distribución, va a depender de cúal sea la condición
concreta que se imponga. Y, análogamente, ocurrirá con la función de probabilidad
condicionada, en el caso discreto; o con la función de densidad condicionada, en el caso
continuo.
A continuación se van a expresar los desarrollos correspondientes para el caso de la
distribución (X/Yั”A), teniendo en cuenta que iguales desarrollos se pueden hacer para la
distribución de (Y/Xั”B).
En todo caso y como para conocer la distribución de una v.a. es preciso conocer los valores
que tome la variable, hay que precisar que esto aquí no va a presentar mayor problema,
puesto que en la distribución condicionada de (X/Yั”A), los valores, a priori, los mismos que
toma la v.a. X, conocidos ya por la distribución conjunta.
16
8.1.Función de distribución condicionada
Dada la v.a. bidimensional (X,Y), la función de distribución condicionada de (X/Yั”A), viene dara
por:
F x Y ∈ A = P[X ≤ x Y ∈ A] =
P[X ≤ x, Y ∈ A]
P(Y ∈ A)
que resulta de la aplicación del concepto de probabilidad condicionada, ya conocido. Y, por
otra parte, la expresión concreta que resulte, dependerá de cuál sea la condición que se
imponga, en este caso, sobre la variable Y.
Un caso particular, es aquel en el que la condición que se impone, en el caso de (X/Yั”A), es
que sea Y≤y, con lo cual se trata de la distribución condicionada de (X/Y≤y). Ahora, la función
de distribución condicionada queda como:
F(X Y ≤ y] = P[X ≤ x Y ≤ y] =
P X ≤ x, Y ≤ y
F(x, y)
=
PY≤y
F2 (y)
Y, análogamente, la función de distribución de la distribución condicionada de (Y/X≤x) es
F(Y X ≤ x] = P[Y ≤ x X ≤ x] =
P X ≤ x, Y ≤ y
F(x, y)
=
PX≤x
F1 (y)
8.2.Función de probabilidad condicionada
Dada una v.a. (X,Y) discreta, la función de probabilidad de la distribución condicionada de
(X/Yั”A), viene dada por los valores de X, ya conocidos por el comportamiento conjunto, y la
función de probabilidad condicionada, definida como, ๊“ฏ xi i=1,2,…:
P(X = xi Y ∈ A) = P(xi Y ∈ A) = pi
A
=
P[X = xi , Y ∈ A]
P(Y ∈ A)
cuya expresión concreta dependerá de cuál sea la condición A, impuesta a la variable Y.
Para el caso de la distribución de (Y/Xั”B), la función de probabilidad condicionada, para todo ๊“ฏ
yj j=1,2,… será:
P(Y = yj X ∈ B) = P( yj X ∈ B) = pj
B
=
P[X ∈ B, Y = yj ]
P(X ∈ B)
En el caso particular en que la condición sea sobre un punto, la situación se reduce a unas
expresiones más sencillas. Así, en el caso de la distribución condicionada de (X/Y=yj), queda
como sigue, ๊“ฏ xi i=1,2,…
P X = xi Y = yi = P xi yj = pi j =
P(X = xi , Y = yj ) pij
=
P(Y = yj )
p.j
Y, análogamente, para el caso de la distribución condicionada de (Y/X=xi), la función de
probabilidad, para todo yj j=1,2,… será:
P X = xi Y = yi = P xi yj = pi j =
17
P(X = xi , Y = yj ) pij
=
P(Y = yj )
p.j
8.3.Función de densidad condicionada
Dada una v.a. (X,Y) continua, la distribución condicionada de (X/Yั”A), notada por fA(x), será tal
que, a partir de ella se podrá obtener la correspondiente función de distribución como:
x
F(x Y ∈ A) = P[X ≤ x Y ∈ A] =
fA (x)dx
−∞
Pero, por otra parte, aplicando la definición de función de distribución condicionada, se tiene
que
x
−∞ A
P X ≤ x. Y ∈ A
F(x Y ∈ A) =
=
PY∈A
A
f x, y dxdy
f2 y dy
x
=
fA x dx
−∞
que permite poner
x
−∞
A
f x, y dy
A
f2 y dy
x
dx =
fA x dx
−∞
Con lo que la expresión final de la función de densidad condicionada de (X/Yั”A) es
fA x =
A
f x, y dy
A
f2 y dy
Análogamente, la función de densidad de la distribución condicionada de (Y/Xั”B), será
fB y =
B
f x, y dx
B
f1 x dx
En ambos casos, la expresión concreta de cada problema, se encontrará en función de cuál sea
el conjunto A, o el B, respectivamente.
Un caso particular de lo anterior, es la distribución condicionada de (X/Y=y); es decir, cuando la
condición se estable sobre un valor concreto de la otra variable. Ya se ha visto que, en el caso
continuo, la probabilidad de que una v.a. tome un valor puntual es cero, por lo que no se
pueden aplicar aquí literalmente los desarrollos anteriores. Se hace preciso utilizar argumentos
matemáticos concretos, que permiten llega a encontrar la función de densidad de tal
distribución condicionada, al igual que es preciso interpretar el resultado, como una
evaluación de lo que ocurre en la distribución de X, para un valor concreto de Y; sin que ello
suponga que ese valor esté ocurriendo explícitamente.
Se puede decir entonces, que la función de densidad, correspondiente a la distribución
condicionada de (X/Y=y) es
fx
y
x =
f(x, y)
f2 (y)
Mientras que la función de densidad de la distribución condicionada de (Y/X=x) es
fy
x
y =
18
f(x, y)
f1 (x)
9.INDEPENDENCIA DE VARIABLES ALEATORIAS
Dada una v.a. bidimensional (X,Y), se conoce, habitualmente su comportamiento conjunto; a
partir del cual se puede obtener el comportamiento aislado de cada variable individualmente,
así como los distintos casos de distribuciones condicionadas que se puedan considerar. Pero,
adicionalmente a todo ello, surge una cuestión más, como es el caso en que ambas variables
se comporten de modo independiente una de la otra. Dicho coloquialmente, esto quiere decir
que el funcionamiento de una variable no se ve ni se va a ver influido por el comportamiento
de la otra; siendo este un concepto mutuo.
Esta situación tiene su reflejo en cada una de las distintas funciones que se han ido viendo,
como son la función de distribución conjunta, la función de probabilidad conjunta y la función
de densidad conjunta. Así, comenzando por la función de distribución, si las variables son
independientes se tendrá:
F x, y = P X ≤ x, Y ≤ y = P[ w ∈ Ω X w ≤ x ∩ w ∈ Ω Y w ≤ y =
= P[Ax ∩ By ]
pero el hecho de que las variables sean independientes tiene como consecuencia, y deriva, de
que los sucesos Ax y By son independiente. Y por la independencia de sucesos, la probabilidad
anterior es el producto de las probabilidades, con lo que finalmente se tiene que:
F x, y = P Ax ∩ By = P Ax P By = P X ≤ x, Y ≤ y =
= P X ≤ x]. P[Y ≤ y = F1 x . F2 (y)
Lo que permite decir que, dada una v.a. bidimensional (X,Y), con función de distribución
conjunta F(x,y), cuando las variables son independientes, se verifica que
F x, y = F1 x F2 (y)
o lo que es lo mismo, que la función de distribución conjunta se puede expresar como el
producto de las funciones de densidad marginales en todo valor (x,y) de la v.a. (X,Y).
Pero el concepto de independencia no solo es mutuo, en el sentido de si X es independiente
de Y, también es Y independiente de X, sino también en el sentido de que la condición indicada
es una condición necesaria y suficiente. Esto lleva a decir que “dos variables aleatorias X,Y
serán independientes, si y solo si, la función de distribución conjunta es igual al producto de las
funciones de distribución marginales en todo valor (x,y) de la v.a. (X,Y)”.
En el caso en que la variable aleatoria (X,Y) sea discreta, la condición de independencia se
obtiene, también, en cuanto a la función de probabilidad. Y se dice ahora que las variables X,Y
serán independientes si y solo si, la función de probabilidad es igual al producto de las
funciones de probabilidad marginales, de cada una de las variables, en cualquier valor (xi,yj) de
la v.a. (X,Y):
pij = P X = X i , Y = Yj = P X = xi P Y = yj = pi. p.j,
en todo i, j = 1,2 …
En el caso continuo, se dirá que las variables X,Y son independientes, si y solo si la función de
densidad conjunta es igual al producto de las funciones de densidad marginales, en todo valor
(x,y) de (X,Y):
f x, y = f1 x f2 y en todo punto (x, y)
19
Las condiciones de independencia anteriores, son equivalentes, haciendo la lógica distinción
entre el caso discreto y el caso continuo. De este modo se tiene que, si (X,Y) es una v.a.
discreta, donde X e Y son independientes, se tiene la siguiente equivalencia en valor (xi,yj) de
la v.a. (X,Y).
F xi , yj = F1 xi . F2 yj
P X = xi , Y = yj = P X = xi . P[Y = xj ]
Análogamente, si (X,Y) es una v.a. continua, donde X e Y son independientes, se verifica, en
todo punto (x,y) de la v.a. (X,Y)
F x, y = F1 x . F2 y
f x, y = f1 x . f2 (y)
10.VARIABLES ALEATORIAS n-DIMENSIONALES
Se aborda ahora la extensión al caso n-dimensional de los conceptos anteriores, lo que se hará
de una forma simple e intuitiva, sin realizar desarrollos concretos.
Sea un espacio probabilístico (Ω, A, P), donde cada uno de los resultados Ω está formado por
n componentes, cada una de las cuales corresponde a las n características observables del
experimento. Se define la v.a. n-dimensional (X1,…,Xn) un vector aleatorio de dimensión n, en
el que cada una de sus componentes es a su vez una variable aleatoria unidimensional.
O dicho de una forma más sencilla, una v.a. n-dimensional (X1,…,Xn) es el vector formado por n
variables aleatorias unidimensionales X1,…,Xn, asociadas ambas al mismo experimento y
donde cada una de ellas corresponde a una de las n características que se observan en la
realización del experimento. De este modo una v.a. n-dimensional se puede observar como un
vector aleatorio de dimensión n o, lo que es lo mismo, como un conjunto de n vv.aa.
unidimensionales que actúan conjuntamente.
Dada una v.a. n-dimensional (X1,…,Xn) se define su función de distribución F(x1,…,xn), como
una función:
F: Rn → R
en la que F(x1,…,xn)=P[X1≤x1,…,Xn≤xn]
Respecto a sus propiedades, quedan como sigue:
๏‚ท
๏‚ท
๏‚ท
๏‚ท
F +∞, +∞, … , +∞ = 1 en tanto que para que la función de distribución tome
el valor cero, basta con que una sola de las variables tome el valor -∞.
F es monótona no decreciente para cada variable.
La función de distribución es continua a la derecha en cada variable
La probabilidad asociada a cualquier intervalo de Rn debe ser ≥0.
Una v.a. n-dimensional (X1,…,Xn) se dirá que es discreta cuando cada una de sus componentes
sea una v.a. discreta. Su función de probabilidad será la expresión que especifique la
probabilidad de cada valor de la v.a. n-dimensional:
P[X1=xi1,…,Xn=xn] en cada valor (xi1,…,xin) de la v.a. (X1,…,Xn)
Como en casos anteriores, la función de probabilidad verificará que en cada valor es mayor e
igual que cero y que la suma de todas las probabilidades es uno.
20
Se dice que una v.a. n-dimensional (X1,…,Xn) es continua, cuando todas sus variables
componentes son continuas. Y esto supone que ha de existir una función f(x1,…,xn), definida
sobre el campo de variación de (X1,…,Xn), a partir de la cual se puede obtener la función de
distribución como:
F(x1 , … , xn ) = P[X1 ≤ x1 , … , X n ≤ xn ] =
x1 x2
xn
… −∞
f
−∞ −∞
x1 , … , xn dx1… dxn
La función f(x1,…,xn) recibe el nombre de función de densidad conjunta, y sus propiedades son
las siguientes:
๏‚ท
๏‚ท
f(x1,…,xn) ≥0 ๊“ฏ(x1,…,xn)ั” dominio de definición de (X1,…,Xn)
+∞ +∞
+∞
… −∞
−∞ −∞
f(x1 , … , xn ) dx1 … dxn = 1
Además, si la función de distribución es continua, entonces función de densidad se obtiene
como :
f x1 , … , xn
∂n F(x1 , … , xn )
=
∂x 1 … ∂xn
En el caso n-dimensional, la obtención de las distribuciones marginales se realiza en modo
similar al caso bidimensional. La diferencia radica en que, ahora, se hablará de la distribución
marginal de una o varias variables de las que componen la v.a. n-dimensional (X1,…,Xn); es
decir, de la distribución marginal de cualquier subconjunto de las n variables que componen la
v.a. n-dimensional.
Para ilustrar la situación, se va a realizar mediante un ejemplo: Se supone una v.a. de
dimensión cinco, (X1,X2,X3,X4,X5) y se desea conocer la distribución marginal del subconjunto
formado por las variables (X2,X3,X5). En este caso, la función de distribución se obtendría
haciendo que el valor de las variables X1 y X4 se vaya a ∞; es decir:
F x2 , x3 , x5 = P X 2 ≤ x2 , X 3 ≤ x3 , X 5 ≤ x5 = F(+∞, x2 , x3 , +∞, x5 )
Este mismo procedimiento se aplicaría para calcular la función de distribución marginal de
cualquier subconjunto de r variables de las que componen una v.a. de dimensión n.
En el caso de la función de probabilidad marginal, la situación es similar. Ahora, la función de
probabilidad marginal de un subconjunto de r variables, será la resultante de sumar la función
de probabilidad conjunta, en todas las variables que no formen parte del subconjunto y para
todos los valores de cada una de esas variables. Así, en el caso de la v.a. de dimensión cinco,
anterior, la función de probabilidad del subconjunto (X2,X3,X5) se obtendrá como:
+∞
+∞
P X 2 = x2 , X 3 = x3 , X 5 = x5 =
P[X1 = x1i , x2 , x3 , X 4 = x4j , x5 ]
x 1 =x 1i x 4 =x 4j
Para obtener la función de densidad marginal, se realiza un proceso similar. Ahora, la función
de densidad de un subconjunto de r variables, ser obtendrá integrando la función de densidad
de conjunta, en todo el campo de variación de cada una de las variables que no forman parte
del subconjunto. En el caso del ejemplo, la función de densidad conjunta de (X2,X3,X5) será:
+∞
+∞
f x2 , x3 , x5 =
f x1 , x2 , x3 , x4 , x5 dx1 dx4
−∞
−∞
21
El caso de las distribuciones marginales, no se analizará aquí, si bien, hay que remitirse, para su
cálculo a los resultados ya obtenidos en el caso bidimensional, siendo aquí en todo similares.
La independencia de variables aleatorias, es aquí similar a lo ya visto, siendo por tanto una
extensión al caso n-dimensional de los resultados obtenidos para las variables
bidimensionales. De este modo se dirá que las n vv.aa. que componen una v.a. (X1,…,Xn) de
dimensión n, son independientes entre si, cuando si y solo si se verifique alguna de las
siguientes condiciones:
๏‚ท
Para todo tipo de variables, bien sean discretas o continuas:
n
F(x1 , … , xn ) =
Fi (xi )
i=1
๏‚ท
En el caso discreto:
๐‘›
๐‘ƒ ๐‘ฅ1 , … , ๐‘ฅ๐‘› =
๐‘ƒ๐‘–. (๐‘ฅ๐‘– )
๐‘–=1
๏‚ท
En el caso continuo:
n
f x1 , … , xn =
fi (xi )
i=1
22
Download