<aside> 💡

Proposición (v.a continuas)

Sea $X$ una variable aleatoria. Son equivalentes

  1. $X$ es continua (absolutamente continua).
  2. $Im(X)$ es no-numerable.
  3. Existe $f_X:\mathbb{R} \to [0, \infty)$, función integrable, tal que $\forall x \in \mathbb{R}$,

$$ \mathbb{P}((- \infty , x]) = P(X \leq x) = F_X (x) = \int _{ (-\infty, x ]} f_X $$

</aside>

<aside> 💡

Definición (Función de densidad)

Sea $X$ una v.a continua. Entonces existe $f_X: \mathbb{R} \to [0, \infty )$ integrable tal que $\forall x \in \mathbb{R}$

$$ ⁍ $$

A la función $f_X$ se le llama función de densidad de $X$.

</aside>

La función de densidad de $X$ no necesariamente es única, pues pueden haber dos funciones $f_1$, $f_2$ que integren lo mismo en $(- \infty, x]$ para toda $x \in \mathbb{R}$ pero $f_1(x^{}) \neq f_2(x^{})$ p.a $x^{*} \in \mathbb{R}$.

<aside> 💡

Proposición

Sea $f_X$ la función de densidad de $X$. Entonces

$$ ⁍ $$

$$ ⁍ $$

$$ ⁍ $$

En general, para cualquier $B \in \mathcal{B} (\mathbb{R})$,

$$ ⁍ $$

<aside> 💡

Caracterización

Cualquier función $f: \mathbb{R} \to \mathbb{R}$ integrable tal que $\forall x \in \mathbb{R}$, $f(x) \geq 0$ y $\int _{ \mathbb{R} } f = 1$ es una función de densidad. Es decir, existe una v.a continua tal que $\mathbb{P}((-\infty , x]) = \int _{ (-\infty, x] } f$.

</aside>

Ejemplo

<aside> 💡

Proposición

Por el TFC, si $F_X$ es diferenciable en $x \in \mathbb{R}$, entonces $f_X(x) = F_X^{\prime}(x)$.

</aside>

<aside> 💡

Definición (Independencia de variables aleatorias continuas)

Dos variables aleatorias $X$ y $Y$ son independientes si

$$ ⁍ $$

Es decir, si los eventos $\set{X \leq x}$ y $\set{Y \leq y}$ son independientes.

</aside>

<aside> 💡

Teorema

Si $X$ y $Y$ son independientes, y $g,h: \mathbb{R} \to \mathbb{R}$ son funciones Borel-medibles, entonces $g(X) \perp h(Y)$

</aside>

Modelos paramétricos de probabilidad

<aside> 💡

Definición (Modelo uniforme continuo)

Una v.a $X$ sigue una distribución uniforme continua, con parámetros $\theta_1 , \theta_2 \in \mathbb{R}$, $\theta_1 < \theta_2$, denotado por $X \sim Unif (\theta_1, \theta_2)$ si

$$ ⁍ $$

$$ f_X (x) = \frac{ 1 }{ \theta_2 - \theta_1 } \textbf{1}_{sop(f_X)}(x) $$

</aside>

El modelo uniforme continuo generalmente se usa para modelar situaciones donde la cantidad aleatoria a modelar toma valores en un intervalo y se tiene total desconocimiento sobre el valor 'más probable' o cualquier otra información sobre los valores que puede tomar $X$.

Por ejemplo, si $X$ es el tiempo de llegada del primer pumabus R1, y no podemos dar información adicional sobre el tiempo de llegada (e.g que es más probable que pase entre las 6:30 y las 7:00 am que entre las 10 pm y las 11 pm), podemos modelar a $X$ como $Unif(0,24)$ para indicar que cualquier momento, entre las 0:00 hr y las 23:59 hr tienen la misma probabilidad.

Aunque el modelo $Unif(\theta_1, \theta_2)$ tiene diversas aplicaciones en estadística bayesiana, por ejemplo, en el curso nos interesa principalmente porque, como veremos más adelante, si sabemos simular números "aleatorios" con distribución $Unif(0,1)$, podemos simular números "aleatorios" con cualquier otra distribución, $F_X$.

<aside> 💡

Definición (Modelo exponencial)

Una v.a $X$ sigue una distribución exponencial con parámetro $\lambda \in \mathbb{R}^{+}$, denotado por $X \sim Exp(\lambda)$ si

$$ ⁍ $$

$$ f_X (x) = \lambda e^{-\lambda x} \textbf{1}_{sop(f_X)}(x) $$

</aside>

El modelo exponencial modela el tiempo que pasa hasta que ocurre un evento, cuando ese evento tiene probabilidad uniforme de ocurrir en cualquier momento.

El parámetro $\lambda$ es tal que $\lambda ^{-1}$ es el tiempo promedio que tardará en ocurrir el evento de interés.

$\lambda ^{-1}$ está en unidades de tiempo

Ejemplo