|
| 1 | +--- |
| 2 | +title: "Teoría de la información" |
| 3 | +subtitle: "Entropía diferencial" |
| 4 | +author: "Julio César Ramírez Pacheco" |
| 5 | +date: "12/10/2020" |
| 6 | +output: |
| 7 | + rmdformats::material: |
| 8 | + highlight: kate |
| 9 | + cards: false |
| 10 | +--- |
| 11 | + |
| 12 | + |
| 13 | +```{r knitr_init, echo=FALSE, message=FALSE, warning=FALSE, cache=FALSE} |
| 14 | +library(knitr) |
| 15 | +library(rmdformats) |
| 16 | +library(highcharter) |
| 17 | +
|
| 18 | +## Global options |
| 19 | +options(max.print="75") |
| 20 | +opts_chunk$set(echo=TRUE, |
| 21 | + cache=TRUE, |
| 22 | + prompt=FALSE, |
| 23 | + tidy=TRUE, |
| 24 | + comment=NA, |
| 25 | + message=FALSE, |
| 26 | + warning=FALSE) |
| 27 | +opts_knit$set(width=75) |
| 28 | +``` |
| 29 | + |
| 30 | + |
| 31 | + |
| 32 | + |
| 33 | +# Entropía diferencial |
| 34 | + |
| 35 | +La entropía de Shannon como se mencionó en los artículos que se revisaron al inicio del curso se define como el valor esperado de $-\log(p_X(k))$, al cual se le llama sorpresa. Por lo tanto la entropía de Shannon para la variable aleatoria $X$ queda especificado por la siguiente fórmula: |
| 36 | + |
| 37 | +$$ |
| 38 | +H(X) = - \sum_{k}{p_X(k)\log(p_X(k))}. |
| 39 | +$$ |
| 40 | +Nótese que esta fórmula está definida para distribuciones discretas y por lo tanto para el caso de las variables aleatorias continuas se tiene que utilizar otra definición. Shannon, extendió la entropía definida arriba mediante una simple extensión de sumatoria a integral y obtuvo lo que se llama entropía diferencial de $X$, la cual está dada por: |
| 41 | + |
| 42 | +$$ |
| 43 | +h(X) = -\int_{-\infty}^{+\infty}{f(x) \log(f(x)) \, dx}. |
| 44 | +$$ |
| 45 | +Esta entropía, en principio, se utilizó para el cálculo de la entropía para distribuciones continuas aunque ahora existen alternativas más precisas para el cálculo de la entropía de distribuciones continuas. |
| 46 | + |
| 47 | +# Entropía diferencia de distribución uniforme |
| 48 | + |
| 49 | +Basándonos en lo anterior, calcularemos la entropía diferencial para algunas distribuciones conocidas y verificaremos el efecto que tienen ciertos parámetros en la entropía diferencial. Recordemos que la distribución uniforme tiene la siguiente fórmula: |
| 50 | + |
| 51 | +$$f(x) = \begin{cases} |
| 52 | +\frac{1}{b-a} & a < x < b\\ |
| 53 | +0 & \mbox{en otro caso} |
| 54 | +\end{cases} |
| 55 | +$$ |
| 56 | + |
| 57 | +El gráfico que define a la distribución uniforme $\mathcal{U}(2,4)$ es, por ejemplo, el siguiente: |
| 58 | + |
| 59 | +```{r uniforme} |
| 60 | +t <- seq(1, 5, length=200) |
| 61 | +original <- ifelse(t >= 2 & t <= 4, 1, 0) |
| 62 | +highchart() %>% hc_add_series(cbind(t,original), name="Densidad uniforme") %>% hc_add_theme(hc_theme_smpl()) %>% hc_title(text="f(x) = 1/(b-a)") %>% hc_subtitle(text="IT0322 - Teoría de la información") %>% |
| 63 | + hc_xAxis(title=list(text="Tiempo")) %>% hc_yAxis(title=list(text="Valores de f(x)")) |
| 64 | +``` |
| 65 | + |
| 66 | +La entropía diferencial de $\mathcal{U}(a,b)$ es por lo tanto: |
| 67 | + |
| 68 | +$$ |
| 69 | +\begin{align} |
| 70 | +h(X) = & -\int_{a}^b{\left(\frac{1}{b-a}\right) \log(\frac{1}{b-a}) \, dx}\\ |
| 71 | + = & \frac{\log(b-a)}{b-a}\int_a^b{dx}\\ |
| 72 | + = & \frac{\log(b-a)}{b-a}\times (b-a)\\ |
| 73 | + h(X) = & \log(b-a) |
| 74 | +\end{align} |
| 75 | +$$ |
| 76 | +Es decir, la entropía diferencial de la distribución uniforme es: |
| 77 | +$$ |
| 78 | +h(X) = \log(b-a) |
| 79 | +$$ |
| 80 | +Ahora sabemos que la varianza de la distribución uniforme es: |
| 81 | +$$ |
| 82 | +Var(X) = \frac{(b-a)^2}{12} |
| 83 | +$$ |
| 84 | +entonces, podemos relacionar la varianza de la distribución con la entropía. Supongamos que $a=0$ y $b$ es variables, entonces, el gráfico de la varianza y la entropía son: |
| 85 | +```{r} |
| 86 | +b <- seq(1, 6, length=100) |
| 87 | +a <- 0 |
| 88 | +varX <- (b-a)^2/12 |
| 89 | +hX <- log(b-a) |
| 90 | +highchart() %>% hc_add_series(cbind(b,hX), name="Entropía diferencial") %>% hc_add_series(cbind(b, varX), name="Varianza") %>% hc_add_theme(hc_theme_smpl()) %>% hc_title(text="Entropía y varianza de f(x) = 1/(b-a)") %>% hc_subtitle(text="IT0322 - Teoría de la información") %>% hc_xAxis(title=list(text="Tiempo")) %>% hc_yAxis(title=list(text="Valores")) |
| 91 | +``` |
| 92 | + |
| 93 | +De lo anterior se puede concluir que la entropía incrementa con la varianza de la distribución uniforme, es decir mientras $b-a$ incremente también lo hará la entropía. |
| 94 | + |
| 95 | +## Ejercicios |
| 96 | + |
| 97 | +1. Suponga ahora que la varianza es constante pero la distribución se traslada sobre diversos puntos de $x$. ¿Cómo es el comportamiento de la entropía en este caso?. Sugerencia: grafique la traslación contra entropía para obtener la respuesta. |
| 98 | + |
| 99 | +2. Suponga que la densidad de una variable aleatoria $X$ está dada por: $$f(x) = \begin{cases}\frac{7}{4}-\frac{3}{2}x & 0< x <1\\ 0 & \mbox{otro caso}\end{cases}$$ |
| 100 | +Hallar $h(X)$. |
| 101 | + |
| 102 | + |
| 103 | + |
| 104 | +# Ejercicios |
| 105 | + |
| 106 | +1. Hallar la entropía para la siguiente función de densidad: |
| 107 | +```{r echo=FALSE, out.width="40%"} |
| 108 | +# Bigger fig.width |
| 109 | +include_graphics("image.svg") |
| 110 | +``` |
| 111 | + |
| 112 | +2.- Para la densidad anterior, ¿cuál es la relación entre la varianza y la entropía? ¿Existe alguna relación entre la altura $h$ y la entropía $h(X)$? |
| 113 | + |
| 114 | + |
| 115 | +Fecha de entrega: Miércoles 14 de Octubre de 2020 a las 23:59 hrs. |
| 116 | + |
0 commit comments