Skip to content

Commit 2d7f4f0

Browse files
authored
Add files via upload
second commit
1 parent 87934e9 commit 2d7f4f0

30 files changed

+4829
-0
lines changed

index.Rmd

+116
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,116 @@
1+
---
2+
title: "Teoría de la información"
3+
subtitle: "Entropía diferencial"
4+
author: "Julio César Ramírez Pacheco"
5+
date: "12/10/2020"
6+
output:
7+
rmdformats::material:
8+
highlight: kate
9+
cards: false
10+
---
11+
12+
13+
```{r knitr_init, echo=FALSE, message=FALSE, warning=FALSE, cache=FALSE}
14+
library(knitr)
15+
library(rmdformats)
16+
library(highcharter)
17+
18+
## Global options
19+
options(max.print="75")
20+
opts_chunk$set(echo=TRUE,
21+
cache=TRUE,
22+
prompt=FALSE,
23+
tidy=TRUE,
24+
comment=NA,
25+
message=FALSE,
26+
warning=FALSE)
27+
opts_knit$set(width=75)
28+
```
29+
30+
31+
32+
33+
# Entropía diferencial
34+
35+
La entropía de Shannon como se mencionó en los artículos que se revisaron al inicio del curso se define como el valor esperado de $-\log(p_X(k))$, al cual se le llama sorpresa. Por lo tanto la entropía de Shannon para la variable aleatoria $X$ queda especificado por la siguiente fórmula:
36+
37+
$$
38+
H(X) = - \sum_{k}{p_X(k)\log(p_X(k))}.
39+
$$
40+
Nótese que esta fórmula está definida para distribuciones discretas y por lo tanto para el caso de las variables aleatorias continuas se tiene que utilizar otra definición. Shannon, extendió la entropía definida arriba mediante una simple extensión de sumatoria a integral y obtuvo lo que se llama entropía diferencial de $X$, la cual está dada por:
41+
42+
$$
43+
h(X) = -\int_{-\infty}^{+\infty}{f(x) \log(f(x)) \, dx}.
44+
$$
45+
Esta entropía, en principio, se utilizó para el cálculo de la entropía para distribuciones continuas aunque ahora existen alternativas más precisas para el cálculo de la entropía de distribuciones continuas.
46+
47+
# Entropía diferencia de distribución uniforme
48+
49+
Basándonos en lo anterior, calcularemos la entropía diferencial para algunas distribuciones conocidas y verificaremos el efecto que tienen ciertos parámetros en la entropía diferencial. Recordemos que la distribución uniforme tiene la siguiente fórmula:
50+
51+
$$f(x) = \begin{cases}
52+
\frac{1}{b-a} & a < x < b\\
53+
0 & \mbox{en otro caso}
54+
\end{cases}
55+
$$
56+
57+
El gráfico que define a la distribución uniforme $\mathcal{U}(2,4)$ es, por ejemplo, el siguiente:
58+
59+
```{r uniforme}
60+
t <- seq(1, 5, length=200)
61+
original <- ifelse(t >= 2 & t <= 4, 1, 0)
62+
highchart() %>% hc_add_series(cbind(t,original), name="Densidad uniforme") %>% hc_add_theme(hc_theme_smpl()) %>% hc_title(text="f(x) = 1/(b-a)") %>% hc_subtitle(text="IT0322 - Teoría de la información") %>%
63+
hc_xAxis(title=list(text="Tiempo")) %>% hc_yAxis(title=list(text="Valores de f(x)"))
64+
```
65+
66+
La entropía diferencial de $\mathcal{U}(a,b)$ es por lo tanto:
67+
68+
$$
69+
\begin{align}
70+
h(X) = & -\int_{a}^b{\left(\frac{1}{b-a}\right) \log(\frac{1}{b-a}) \, dx}\\
71+
= & \frac{\log(b-a)}{b-a}\int_a^b{dx}\\
72+
= & \frac{\log(b-a)}{b-a}\times (b-a)\\
73+
h(X) = & \log(b-a)
74+
\end{align}
75+
$$
76+
Es decir, la entropía diferencial de la distribución uniforme es:
77+
$$
78+
h(X) = \log(b-a)
79+
$$
80+
Ahora sabemos que la varianza de la distribución uniforme es:
81+
$$
82+
Var(X) = \frac{(b-a)^2}{12}
83+
$$
84+
entonces, podemos relacionar la varianza de la distribución con la entropía. Supongamos que $a=0$ y $b$ es variables, entonces, el gráfico de la varianza y la entropía son:
85+
```{r}
86+
b <- seq(1, 6, length=100)
87+
a <- 0
88+
varX <- (b-a)^2/12
89+
hX <- log(b-a)
90+
highchart() %>% hc_add_series(cbind(b,hX), name="Entropía diferencial") %>% hc_add_series(cbind(b, varX), name="Varianza") %>% hc_add_theme(hc_theme_smpl()) %>% hc_title(text="Entropía y varianza de f(x) = 1/(b-a)") %>% hc_subtitle(text="IT0322 - Teoría de la información") %>% hc_xAxis(title=list(text="Tiempo")) %>% hc_yAxis(title=list(text="Valores"))
91+
```
92+
93+
De lo anterior se puede concluir que la entropía incrementa con la varianza de la distribución uniforme, es decir mientras $b-a$ incremente también lo hará la entropía.
94+
95+
## Ejercicios
96+
97+
1. Suponga ahora que la varianza es constante pero la distribución se traslada sobre diversos puntos de $x$. ¿Cómo es el comportamiento de la entropía en este caso?. Sugerencia: grafique la traslación contra entropía para obtener la respuesta.
98+
99+
2. Suponga que la densidad de una variable aleatoria $X$ está dada por: $$f(x) = \begin{cases}\frac{7}{4}-\frac{3}{2}x & 0< x <1\\ 0 & \mbox{otro caso}\end{cases}$$
100+
Hallar $h(X)$.
101+
102+
103+
104+
# Ejercicios
105+
106+
1. Hallar la entropía para la siguiente función de densidad:
107+
```{r echo=FALSE, out.width="40%"}
108+
# Bigger fig.width
109+
include_graphics("image.svg")
110+
```
111+
112+
2.- Para la densidad anterior, ¿cuál es la relación entre la varianza y la entropía? ¿Existe alguna relación entre la altura $h$ y la entropía $h(X)$?
113+
114+
115+
Fecha de entrega: Miércoles 14 de Octubre de 2020 a las 23:59 hrs.
116+

index.html

+4,713
Large diffs are not rendered by default.
17 KB
Loading
18.4 KB
Loading
18.6 KB
Loading
18.5 KB
Loading
18.5 KB
Loading
18.6 KB
Loading
18.8 KB
Loading
18.7 KB
Loading
17.7 KB
Loading
16.7 KB
Loading
17.8 KB
Loading
17.9 KB
Loading
18 KB
Loading
18 KB
Loading
18.2 KB
Loading
18.2 KB
Loading
13.4 KB
Loading
28 KB
Loading
15.5 KB
Loading
32 KB
Loading
32.4 KB
Loading
32.9 KB
Loading
35.5 KB
Loading
35.1 KB
Loading
34.2 KB
Loading
29 KB
Loading
28.9 KB
Loading
22.7 KB
Loading

0 commit comments

Comments
 (0)