Skip to content

Commit e7d5ccf

Browse files
committed
gran update
1 parent 8aaa1a2 commit e7d5ccf

File tree

4 files changed

+1111
-192
lines changed

4 files changed

+1111
-192
lines changed

teoria/Tema11.Rmd

+121-33
Original file line numberDiff line numberDiff line change
@@ -104,43 +104,65 @@ Una variable aleatoria puede definir sucesos, de los cuales queremos conocer la
104104

105105
## Función de distribución
106106

107-
<l class = "definition">Función de distribución de la v.a. X.</l> Es una función $$F:\mathbb{R}\longrightarrow [0,1]$$ definida por $F(x)=p(X\le x)$
107+
<l class = "definition">Función de distribución de la v.a. $X$.</l> Es una función $$F:\mathbb{R}\longrightarrow [0,1]$$ definida por $F(x)=p(X\le x)$
108108

109109

110-
## MAAAAAAAL
110+
Sea $F$ una función de distribución de una v.a. $X$ y digamos $$F(a^-)=\lim_{x\rightarrow a^-}F(x)$$
111+
112+
- $p(X\le a)=F(a)$
113+
- $p(X<a)=\lim_{b\rightarrow a,\ b<a}p(X\le b) = \lim_{b\rightarrow a,\ b<a} F(b) = F(a^-)$
114+
- $p(X=a) = p(X\le a)-p(X<a)=F(a)-F(a^-)$
115+
- $p(a\le X\le b) = p(X\le b)-p(X< a)=F(b)-F(a^-)$
116+
117+
## Cuantiles
118+
119+
<l class = "definition">Cuantil de orden $p$ de una v.a. $X$.</l> Es el $x_p\in\mathbb{R}$ más pequeño tal que $F(x_p)\ge p$
120+
121+
Nótese que la mediana es el cuantil de orden 0.5
122+
123+
# Variables aleatorias discretas
124+
125+
## Variable aleatoria discreta
126+
127+
<l class = "definition">Variable aleatoria discreta.</l> Una v.a. $X:\Omega\longrightarrow \mathbb{R}$ es discreta cuando $D_X$ es finito o un subconjunto de $\mathbb{N}$
111128

129+
<l class = "definition">Función de densidad.</l> Es la función $f:\mathbb{R}\longrightarrow[0,1]$ definida por $$f(x) = p(X=x)$$
112130

131+
Nótese que $f(x)=0$ si $x\not\in D_X$. Por tanto, interpretaremos la función de densidad como la función $$f:D_X\longrightarrow [0,1]$$
113132

133+
## Esperanza
114134

135+
<l class = "definition">Esperanza de una v.a. discreta.</l> Sea $f:D_X\longrightarrow[0,1]$ la densidad de $X$, entonces la esperanza respecto de la densidad es la suma ponderada de los elementos de $D_X$, multiplicando cada elemento $x$ de $D_X$ por su probabilidad, $$E(X) = \sum_{x\in D_X}x\cdot f(x)$$
115136

137+
Si $g:D_X\longrightarrow \mathbb{R}$ es una aplicación $$E(g(X))=\sum_{x\in D_X}g(x)\cdot f(x)$$
116138

117139

118-
## Funciones de probabilidad y densidad
140+
## Varianza
119141

120-
- <l class = "definition">Función de probabilidad.</l> Asocia a cada punto del dominio de $X$ la probabilidad de que ésta lo asuma. Es útil cuando $X$ es v.a. discreta. De ser $X$ v.a. continua, la función de probabilidad es la función nula.
142+
<l class = "definition">Varianza de una v.a. discreta.</l> Sea $f:D_X\longrightarrow[0,1]$ la densidad de $X$, entonces la varianza respecto de la densidad es el valor esperado de la diferencia al cuadrado entre $X$ y su valor medio $E(X)$, $$Var(X)= E((X-E(X))^2) $$
121143

122-
- <l class = "definition">Función de densidad.</l> Cuando $X$ es v.a. continua, la función de densidad describe la probabilidad relativa según la cual dicha variable aleatoria tomará determinado valor.
144+
La varianza mide como de variados son los resultados de $X$ respecto de la media
123145

146+
<div class = "exercise"> **Ejercicio.** Demostrar la siguiente igualdad. $$Var(X)= E(X^2)-(E(X))^2$$</div>
124147

148+
## Varianza
125149

126-
## Esperanza de una variable aleatoria
150+
Si $X$ es una v.a. discreta y $g:D_X\longrightarrow \mathbb{R}$ una función, $$Var(g(X))=E((g(X)-E(g(X)))^2)=E(g(X)^2)-(E(g(X)))^2$$
127151

128-
<l class = "definition">Esperanza de una variable aleatoria discreta.</l> $E(X)= \sum_{i=1}^nx_i\cdot p\{X=x_i\}$. Es decir, es la suma del producto de todos los valores que puede tomar la variable aleatoria discreta por su probabilidad.
152+
## Desviación típica
129153

130-
<l class = "definition">Esperanza de una variable aleatoria continua.</l> $E(X)= \int_{-\infty}^{\infty}x\cdot f(x)dx$. Es decir, es la integral de todos los valores que puede tomar la variable aleatoria continua por su función de densidad.
154+
<l class = "definition">Desviación típica de una v.a. discreta.</l> Sea $f:D_X\longrightarrow[0,1]$ la densidad de $X$, entonces la desviación típica respecto de la densidad es $$\sigma(X)=\sqrt{Var(X)}$$
131155

132-
## Varianza de una variable aleatoria
156+
Las unidades de la varianza son las de $X$ al cuadrado. En cambio, las de la desviación típica son las mismas unidades que las de $X$
133157

134-
<l class = "definition">Varianza.</l> $Var(X)=E((X-E(X))^2)$. Es decir, es una medida de dispersión definida como la esperanza del cuadrado de la desviación de dicha variable respecto a su media.
158+
Si $X$ es una v.a. discreta y $g:D_X\longrightarrow \mathbb{R}$ una función, $$\sigma(g(X))=\sqrt{Var(g(X))}$$
135159

136-
- De entre sus propiedades, una de las más interesantes es: $Var(X)=E(X^2)-(E(X))^2$
160+
# Distribuciones de probabilidad
137161

138162
## Distribución de probabilidad
139163

140164
<l class = "definition">[Distribución de probabilidad](https://es.wikipedia.org/wiki/Distribución_de_probabilidad).</l> En teoría de la probabilidad y estadística, la distribución de probabilidad de una variable aleatoria es una función que asigna a cada suceso definido sobre la variable la probabilidad de que dicho suceso ocurra.
141165

142-
# Las distribuciones más conocidas
143-
144166
## Distribuciones en `R`
145167

146168
Dada cualquier variable aleatoria, $va$, `R` nos da cuatro funciones para poder trabajar con ellas:
@@ -159,6 +181,8 @@ Dada cualquier variable aleatoria, en `Python` tenemos las mismas cuatro funcion
159181
- `ppf(p,...)`: Cuantil $p$-ésimo de la variable aleatoria (el valor de $x$ más pequeño tal que $F(x)\geq p$).
160182
- `rvs(size,...)`: Generador de $size$ observaciones siguiendo la distribución de la variable aleatoria.
161183

184+
# Distribuciones discretas más conocidas
185+
162186
## Distribuciones discretas
163187

164188
<l class = "definition">Distribución discreta</l>
@@ -177,8 +201,8 @@ $$X\sim \text{Be}(p)$$
177201

178202
donde $p$ es la probabilidad de éxito y $q = 1-p$ es la probabilidad de fracaso.
179203

180-
- El **dominio** de $X$ será $X(\Omega) = \{0,1\}$
181-
- La **función de probabilidad** vendrá dada por $$f(k) = p^k(1-p)^{1-k} = \left\{
204+
- El **espacio muestral** de $X$ será $X(\Omega) = \{0,1\}$
205+
- La **función de densidad** vendrá dada por $$f(k) = p^k(1-p)^{1-k} = \left\{
182206
\begin{array}{rl}
183207
p & \text{si } k=1
184208
\\ 1-p & \text{si } k=0
@@ -188,11 +212,11 @@ donde $p$ es la probabilidad de éxito y $q = 1-p$ es la probabilidad de fracaso
188212

189213
## Distribución de Bernoulli
190214

191-
- La **función de distribución** vendrá dada por $$F(k) = \left\{
215+
- La **función de distribución** vendrá dada por $$F(x) = \left\{
192216
\begin{array}{rl}
193-
0 & \text{si } k<0
194-
\\ q & \text{si } 0\le k<1
195-
\\ 1 & \text{si } k\ge 1
217+
0 & \text{si } x<0
218+
\\ 1-p & \text{si } 0\le x<1
219+
\\ 1 & \text{si } x\ge 1
196220
\end{array}
197221
\right.$$
198222
- **Esperanza** $E(X) = p$
@@ -213,21 +237,23 @@ $$X\sim \text{B}(n,p)$$
213237

214238
donde $p$ es la probabilidad de éxito y $q = 1-p$ es la probabilidad de fracaso
215239

216-
- El **dominio** de $X$ será $X(\Omega) = \{0,1,2,\dots,n\}$
217-
- La **función de probabilidad** vendrá dada por $$f(k) = {n\choose k}p^k(1-p)^{n-k} $$
240+
- El **espacio muestral** de $X$ será $X(\Omega) = \{0,1,2,\dots,n\}$
241+
- La **función de densidad** vendrá dada por $$f(k) = {n\choose k}p^k(1-p)^{n-k} $$
218242

219243
## Distribución Binomial
220244

221-
- La **función de distribución** vendrá dada por $$F(k) = \left\{
245+
- La **función de distribución** vendrá dada por $$F(x) = \left\{
222246
\begin{array}{cl}
223-
0 & \text{si } k<0
224-
\\ \sum_{i=0}^kf(k) & \text{si } 0\le k<n
225-
\\ 1 & \text{si } k\ge n
247+
0 & \text{si } x<0
248+
\\ \sum_{k=0}^xf(k) & \text{si } 0\le x<n
249+
\\ 1 & \text{si } x\ge n
226250
\end{array}
227251
\right.$$
228252
- **Esperanza** $E(X) = np$
229253
- **Varianza** $Var(X) = npq$
230254

255+
<l class = "important">Atención.</l> Fijaos que la distribución de Bernoulli es un caso particular de la Binomial. Basta tomar $n=1$ y tendremos que $X\sim \text{Be}(p)$ y $X\sim\text{B}(1,p)$ son equivalentes.
256+
231257
## Distribución Binomial
232258

233259
```{r, echo = FALSE}
@@ -242,39 +268,69 @@ par(mfrow= c(1,1))
242268

243269
Si $X$ es variable aleatoria que mide el "número de repeticiones independientes del experimento hasta haber conseguido éxito", diremos que $X$ se distribuye como una Geométrica con parámetro $p$
244270

245-
$$X\sim \text{Geom}(p)$$
271+
$$X\sim \text{Ge}(p)$$
246272
donde $p$ es la probabilidad de éxito y $q = 1-p$ es la probabilidad de fracaso
247273

248-
- El **dominio** de $X$ será $X(\Omega) = \{0,1,2,\dots\}$ o bien $X(\Omega) = \{1,2,\dots\}$ en función de si empieza en 0 o en 1
274+
- El **espacio muestral** de $X$ será $X(\Omega) = \{0,1,2,\dots\}$ o bien $X(\Omega) = \{1,2,\dots\}$ en función de si empieza en 0 o en 1
249275

250-
- La **función de probabilidad** vendrá dada por $$f(k) = (1-p)^{k}p \qquad\text{ si empieza en 0}$$
276+
- La **función de densidad** vendrá dada por $$f(k) = (1-p)^{k}p \qquad\text{ si empieza en 0}$$
251277
$$f(k) = (1-p)^{k-1}p \qquad\text{ si empieza en 1}$$
252278

253279
## Distribución Geométrica
254-
280+
281+
- La **función de distribución** vendrá dada por $$F(x) = \left\{
282+
\begin{array}{cl}
283+
0 & \text{si } x<0
284+
\\ 1-(1-p)^{k+1} & \text{si } k\le x<k+1,\ k\in\mathbb{N}
285+
\end{array}
286+
\right.$$
255287
- **Esperanza** $E(X) = \frac{1-p}{p}$ si empieza en 0 y E$(X) = \frac{1}{p}$ si empieza en 1
256288
- **Varianza** $Var(X) = \frac{1-p}{p^2}$
257-
- No tiene memoria. Es decir, $p\{X>m+n:\ X>m\} = p\{X>n\}$
289+
- <l class = "prop">Propiedad de la falta de memoria.</l> Si $X$ es una v.a. \text{Ge}(p), entonces, $$p\{X\ge m+n:\ X\ge n\} = p\{X\ge m\}\ \forall m,n=0,1,\dots$$
258290

259291
## Distribución Hipergeométrica
260292

293+
Consideremos el experimento "extraer a la vez (o una detrás de otra, sin retornarlos) $n$ objetos donde hay $N$ de tipo A y $M$ de tipo B". Si $X$ es variable aleatoria que mide el "número de objetos del tipo A", diremos que $X$ se distribuye como una Hipergeométrica con parámetro $N,M,n$
294+
$$X\sim \text{H}(N,M,n)$$
295+
296+
- El **espacio muestral** de $X$ será $X(\Omega) = \{0,1,2,\dots,N\}$ (en general)
297+
- La **función de densidad** vendrá dada por $$f(k) = \frac{{N\choose k}{M\choose n-k}}{N+M\choose n}$$
298+
299+
## Distribución Hipergeométrica
300+
301+
- La **función de distribución** vendrá dada por $$F(x) = \left\{
302+
\begin{array}{cl}
303+
0 & \text{si } x<0
304+
\\ \sum_{k=0}^xf(k) & \text{si } 0\le x<n
305+
\\ 1 & \text{si } x\ge n
306+
\end{array}
307+
\right.$$
308+
- **Esperanza** $E(X) = \frac{nN}{N+M}$
309+
- **Varianza** $Var(X) = \frac{nNM}{(N+M)^2}\cdot\frac{N+M-n}{N+M-1}$
310+
261311
## Distribución de Poisson
262312

263313
Si $X$ es variable aleatoria que mide el "número de eventos en un cierto intervalo de tiempo", diremos que $X$ se distribuye como una Poisson con parámetro $\lambda$
264314

265315
$$X\sim \text{Po}(\lambda)$$
266316
donde $\lambda$ representa el número de veces que se espera que ocurra el evento durante un intervalo dado
267317

268-
- El **dominio** de $X$ será $X(\Omega) = \{0,1,2,\dots\}$
318+
- El **espacio muestral** de $X$ será $X(\Omega) = \{0,1,2,\dots\}$
269319

270-
- La **función de probabilidad** vendrá dada por $$f(k) = \frac{e^{-\lambda}\lambda^k}{k!}$$
320+
- La **función de densidad** vendrá dada por $$f(k) = \frac{e^{-\lambda}\lambda^k}{k!}$$
271321

272322
## Distribución de Poisson
273323

324+
- La **función de distribución** vendrá dada por $$F(x) = \left\{
325+
\begin{array}{cl}
326+
0 & \text{si } x<0
327+
\\ \sum_{k=0}^xf(k) & \text{si } 0\le x<n
328+
\\ 1 & \text{si } x\ge n
329+
\end{array}
330+
\right.$$
274331
- **Esperanza** $E(X) = \lambda$
275332
- **Varianza** $Var(X) = \lambda$
276333

277-
278334
## Distribuciones discretas en R
279335

280336
R conoce las distribuciones de probabilidad más importantes.
@@ -285,6 +341,38 @@ Binomial | `binom` | tamaño de la muestra $n$ y probabilidad de éxito $p$
285341
Geométrica | `geom` | probabilidad de éxito $p$
286342
Hipergeométrica | `hyper` | $N,M,n$
287343
Poisson | `pois` | esperanza $\lambda$
344+
345+
346+
## MAAAAAAAL
347+
348+
349+
350+
351+
352+
353+
354+
355+
356+
357+
358+
359+
360+
361+
362+
363+
364+
365+
366+
367+
368+
369+
370+
371+
372+
373+
374+
375+
288376

289377
## Distribuciones continuas
290378

0 commit comments

Comments
 (0)