Los dos momentos m谩s usados son los primeros dos momentos. El primer momento es la esperanza, mientras que el segundo momento respecto a la media, es la varianza

<aside> 馃挕

Definici贸n (Varianza): Sea $X$ una variable aleatoria. La varianza de $X$, denotada por $\mathbb{V}ar(X)$, se define como

$\mathbb{V}ar(X) = \mathbb{E}[ (X- \mathbb{E}(X))^{2} ]$

</aside>

La varianza de $X$ es una medida de dispersi贸n de $X$: cuantifica qu茅 tanto tiende a desviarse $X$ de su valor esperado $\mathbb{ E } (X)$.

Gr谩fica de densidades m谩s y menos dispersas

<aside> 馃挕

Definici贸n (Desviaci贸n est谩ndar): A la ra铆z cuadrada positiva de la varianza se le llama desviaci贸n est谩ndar y se denota por $\sigma$.

$\sigma = \sqrt{\mathbb{V}ar(X)}$

</aside>

<aside> 馃挕

Proposici贸n: Sea $X$ una variable aleatoria. Entonces

$\mathbb{V}ar(X) = \mathbb{E}(X^{2}) - [\mathbb{E}(X)]^{2}$

Dem: Por definici贸n,

$$ \begin{align*} \mathbb{V}ar(X) &= \mathbb{E}[ (X- \mathbb{E}(X))^{2} ] \\ &= \mathbb{E}[ X^{2} - 2 X \mathbb{E}(X) + \mathbb{E}(X)^{2} ] \\ &= \mathbb{E}[ X^{2}] - 2 \mathbb{E}[X]\mathbb{E}[X] + \mathbb{E}(X)^{2} \\ &= \mathbb{E}[ X^{2}] - \mathbb{E}(X)^{2} \\ \end{align*} $$

</aside>

<aside> 馃挕

Teorema: Sean $X$ y $Y$ variables aleatorias. Entonces

  1. $\mathbb{V}ar(aX) = a^{2} \mathbb{V}ar(X)$ con $a \in \mathbb{R}$
  2. $\mathbb{V}ar(X+Y) = \mathbb{V}ar(X) + 2 (\mathbb{E}(XY) - \mathbb{E}(X) \mathbb{E}(Y)) + \mathbb{V}ar(Y)$
  3. $\mathbb{V}ar(X+a) = \mathbb{V}ar(X)$

Dem: Por definici贸n de varianza y por linealidad de $\mathbb{E}$,

$$ \begin{align*} \mathbb{V}ar(aX) &= \mathbb{E}([aX - \mathbb{E}(aX)]^{2}) \\ &= \mathbb{E}([aX - a\mathbb{E}(X)]^{2}) \\ &= \mathbb{E}(a^{2}[X - \mathbb{E}(X)]^{2}) \\ &= a^{2} \mathbb{E}([X - \mathbb{E}(X)]^{2}) \\ &= a^{2} \mathbb{V}ar(X)\\ \end{align*} $$

$$ \begin{align*} \mathbb{V}ar(X+Y) &= \mathbb{E}([X+Y - \mathbb{E}(X+Y)]^2) \\ &= \mathbb{E}([X+Y - \mathbb{E}(X) - \mathbb{E}(Y))]^2) \\ &= \mathbb{E}([(X - \mathbb{E}(X)) + (Y - \mathbb{E}(Y))]^2) \\ &= \mathbb{E}((X - \mathbb{E}(X))^{2} + 2(X - \mathbb{E}(X))(Y - \mathbb{E}(Y)) + (Y - \mathbb{E}(Y))^2) \\ &= \mathbb{E}((X - \mathbb{E}(X))^{2}) + 2\mathbb{E}((X - \mathbb{E}(X))(Y - \mathbb{E}(Y))) + \mathbb{E}((Y - \mathbb{E}(Y))^2) \\ &= \mathbb{V}ar(X) + 2[\mathbb{E}(XY - X \mathbb{E}(Y) -\mathbb{E}(X)Y +\mathbb{E}(X) \mathbb{E}(Y))]+ \mathbb{V}ar(Y) \\ &= \mathbb{V}ar(X) + 2[\mathbb{E}(XY) - \mathbb{E}(X \mathbb{E}(Y)) - \mathbb{E}(\mathbb{E}(X)Y) + \mathbb{E}(\mathbb{E}(X) \mathbb{E}(Y))]+ \mathbb{V}ar(Y) \\ &= \mathbb{V}ar(X) + 2[ \mathbb{E}(XY) - \mathbb{E}(X) \mathbb{E}(Y) - \mathbb{E}(X)\mathbb{E}(Y) + \mathbb{E}(X) \mathbb{E}(Y)]+ \mathbb{V}ar(Y) \\ &= \mathbb{V}ar(X) + 2[ \mathbb{E}(XY) - \mathbb{E}(X) \mathbb{E}(Y) ]+ \mathbb{V}ar(Y) \\ \end{align*} $$

$$ \begin{align*} \mathbb{V}ar(X+a) &= \mathbb{E}([X+a - \mathbb{E}(X+a)]^{2}) \\ &= \mathbb{E}([X+a - \mathbb{E}(X) - a]^{2}) \\ &= \mathbb{E}([X - \mathbb{E}(X) ]^{2}) \\ &= \mathbb{V}ar(X) \end{align*} $$

</aside>

En general, la varianza no es un operador lineal

Si dos variables aleatorias no est谩n correlacionadas (i.e $\mathbb{E}(XY) = \mathbb{E}(X) \mathbb{E}(Y)$), se cumple que

$\mathbb{V}ar(X+Y) = \mathbb{V}ar(X) + \mathbb{V}ar(Y)$

<aside> 馃挕

Definici贸n (Informaci贸n de Shannon):

Sea $X$ una variable aleatoria con funci贸n de probabilidad o de densidad $f_X$. La informaci贸n (o sorpresa) de $X$ se define como

$I(X) = - \log f_X$

</aside>

La informaci贸n de una variable aleatoria puede ser interpretada como una forma de cuantificar lo sorpresivo en el resultado de una variable aleatoria.

Un resultado poco probable es altamente sorpresivo (y muy informativo)

<aside> 馃挕

Definici贸n (Entrop铆a): Sea $X$ una variable aleatoria con funci贸n de probabilidad o de densidad $f_X$. La entrop铆a de $X$, denotada por $\mathbb{H}(X)$, se define como,

$\mathbb{H}(X) = \mathbb{E}( I(X))$

Por el teorema del estad铆stico inconsciente,

Si $X$ es discreta,

$\mathbb{H}(X) = - \sum _{x \in sop(f_X)} \log(f_X(x)) f_X(x)$

Si $X$ es continua,

$\mathbb{H}(X) = - \int _{\mathbb{R} } \log(f_X(x)) f_X(x) dx$

</aside>

<aside> 馃挕

Proposici贸n:

Sean $X$, $Y$ variables aleatorias. Entonces,

  1. $\mathbb{H}(X+a) = \mathbb{H}(X)$ con $a \in \mathbb{R}$.
  2. Si $X \perp Y$, $\mathbb{H}(X+Y) = \mathbb{H}(X) + \mathbb{H}(Y)$ </aside>