<aside> 💡

Definición (Función generadora):

Sea $a=\{ a _{ i } \} _{i=0 } ^{ \infty }$ una sucesión de números reales. La función generadora de la sucesión, denotada por $G_a$, es

$$ G_a(s) = \sum_{i=0} ^{\infty} a_i s^{i} $$

</aside>

Observación: Dada la función generadora de momentos $G_a$, podemos recuperar el $i$-ésimo término de la sucesión como

$$ a_i = \frac{ G_a ^{(i)} (0) }{ i ! } $$

Por ejemplo, para recuperar $a_3$,

$$ \begin{align*} G_a(s) &= a_0 + a_1 s + a_2 s^{2} + a_3 s^{3} + a_4 s^{4} + ... \\ G_a ^{(1)} (s) &= a_1 + 2 a_2 s + 3 a_3 s^{2} + 4 a_4 s^{3} + ... \\ G_a ^{(2)} (s) &= 2(1) a_2 + 3(2) a_3 s^{1} + 4(3) a_4 s^{2} + ... \\ G_a ^{(3)} (s) &= 3(2)(1) a_3 + 4(3)(2) a_4 s + ... \\ \end{align*} $$

$$ \begin{align*} G_a ^{(3)} (0) &= 3(2)(1) a_3 \\ G_a ^{(3)} (0) / 3! &= a_3 \\ \end{align*} $$

<aside> 💡

Definición (Función generadora de probabilidad):

Sea $X$ una variable aleatoria discreta. La función generadora de probabilidad de $X$, denotada por $G_X$ es la función dada por

$$ G_X(s) = \mathbb{E}(s^{X}) $$

</aside>

<aside> 💡

Proposición: Sea $G_X$ la función generadora de momentos de la variable aleatoria $X$ con soporte $\mathbb{N}$.

  1. Para $x \in \mathbb{N}$, $P(X=x) = \frac{ 1 }{ x! } G_X ^{(x)} (0).$
  2. Si el $k$ésimo momento de $X$ existe, $G_{X}^{k}(1^{-}) = \mathbb{E}(X(X-1) \ldots (X+k+1))$

En particular, $G_{X}^{1}(1^{-}) = \mathbb{E}(X)$, $G_{X}^{2}(1^{-}) = \mathbb{E}(X^{2}) - \mathbb{E}(X)$.

  1. Si $Y$ es una v.a discreta, independiente de $X$ y con f.g.p, $G_Y$, entonces, $G_{X+Y} (s) = G_X(s) G_Y(s)$. </aside>

<aside> 💡

Teorema (Caracterización):

Sea $X$ y $Y$ dos v.a. discretas con soporte $\mathbb{N}$, tales que en una vecindad del $0$, $G_X(s) = G_Y(s)$. Entonces $X$ y $Y$ tienen la misma distribución.

</aside>

<aside> 💡

Definición (Convolución):

La convolución de dos sucesiones de números reales $a=\{ a _{ i } \} _{ i=0} ^{ \infty }$ y $b=\{ b _{ i } \} _{ i=0 } ^{ \infty }$ es la sucesión $c=\{ c _{ i } \} _{ i=0 } ^{ \infty }$ dada por

$$ c_i = a_0 b_i + a_1 b_{i-1} + a_2 b_{i-2} + \ldots + a_{i-1} b_1 + a_i b_0 $$

O de forma compacta $c_i = \sum { j=0 } ^{ i } a{j} b_{i-j}$.

La convolución de $a$ y $b$ se denota por $a*b$.

La convolución es una operación conmutativa, asociativa y distributiva.

</aside>

<aside> 💡

Proposición: Si $a$ y $b$ tienen funciones generadoras $G_a$ y $G_b$ respectivamente, y $c=a*b$, entonces

$$ G_{c}(s) = G_a(s) G_b(s) $$

Dem:

$$ \begin{align*} G_c(s) &= \sum { n=0 } ^{ \infty } c_n s^{n} \\ &= \sum { n=0 } ^{ \infty } \left( \sum { i=0 } ^{ n } a{i} b{n-i} \right) s^{n} \\ &= \sum{i=0}^{\infty } a_i s^{i} \sum { n=i } ^{ \infty } b{n-i} s^{n-i} \\ &= G_a (s) G_b(s) \end{align*} $$

</aside>

<aside> 💡

Definición (Convolución):

Sean $f,g : \mathbb{R} \to \mathbb{R}$ funciones. La convolución de $f$ y $g$ está dada por

$$ (f * g ) (z)= \int_{\mathbb{R}} f (x) g(z-x) dx $$

</aside>

<aside> 💡

Proposición: Sean $X$ y $Y$ variables aleatorias discretas (continuas) independientes. La función de probabilidad (densidad) de $X+Y$ está dada por $f_{X+Y} = f_X * f_Y$, es decir

$$ \begin{align*} f_{X+Y} (z) &= \sum {x} f_X(x) f_Y(z-x) \\[1cm] f{X+Y} (z) &= \int_{\mathbb{R} } f_X(x) f_Y(z-x) dx\\ \end{align*} $$

</aside>

<aside> 💡

Definición (Función generadora de momentos): Sea $X$ una variable aleatoria discreta o continua. La función generadora de momentos de $X$, denotada por $M_X$ es la función dada por

$$ M_X(t) = \mathbb{E}(e^{tX}) $$

</aside>

<aside> 💡

Proposición: Sea $X$ y $Y$ v.a. con funciones generadoras de momentos $M_X$ y $M_Y$, respectivamente. Entonces,

  1. Si $M_X(t)$ es finita es una vecindad del cero y todos los momentos de $X$ existen, entonces la f.g.m se puede calcular como: $M_X(t) = \sum _{ n=0 } ^{ \infty } \frac{ t^{n} }{ n! } \mathbb{E}(X^{n})$.
  2. Si $M_X(t)$ es finita es una vecindad del cero, $\lim_{ t \to 0 } M_X ^{(n)}(t) = \mathbb{E}(X^{n})$.
  3. Si $X$ y $Y$ son independientes, $M_{X+Y}(t)=M_X(t)M_Y(t)$ </aside>

<aside> 💡

Teorema (Caracterización): Sea $X$ y $Y$ dos v.a tales que en una vecindad del $0$, $M_X(t) = M_Y(t)$. Entonces $X$ y $Y$ tienen la misma distribución.

</aside>