You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
- $p(a\le X\le b) = p(X\le b)-p(X< a)=F(b)-F(a^-)$
116
+
117
+
## Cuantiles
118
+
119
+
<lclass = "definition">Cuantil de orden $p$ de una v.a. $X$.</l> Es el $x_p\in\mathbb{R}$ más pequeño tal que $F(x_p)\ge p$
120
+
121
+
Nótese que la mediana es el cuantil de orden 0.5
122
+
123
+
# Variables aleatorias discretas
124
+
125
+
## Variable aleatoria discreta
126
+
127
+
<lclass = "definition">Variable aleatoria discreta.</l> Una v.a. $X:\Omega\longrightarrow \mathbb{R}$ es discreta cuando $D_X$ es finito o un subconjunto de $\mathbb{N}$
111
128
129
+
<lclass = "definition">Función de densidad.</l> Es la función $f:\mathbb{R}\longrightarrow[0,1]$ definida por $$f(x) = p(X=x)$$
112
130
131
+
Nótese que $f(x)=0$ si $x\not\in D_X$. Por tanto, interpretaremos la función de densidad como la función $$f:D_X\longrightarrow [0,1]$$
113
132
133
+
## Esperanza
114
134
135
+
<lclass = "definition">Esperanza de una v.a. discreta.</l> Sea $f:D_X\longrightarrow[0,1]$ la densidad de $X$, entonces la esperanza respecto de la densidad es la suma ponderada de los elementos de $D_X$, multiplicando cada elemento $x$ de $D_X$ por su probabilidad, $$E(X) = \sum_{x\in D_X}x\cdot f(x)$$
115
136
137
+
Si $g:D_X\longrightarrow \mathbb{R}$ es una aplicación $$E(g(X))=\sum_{x\in D_X}g(x)\cdot f(x)$$
116
138
117
139
118
-
## Funciones de probabilidad y densidad
140
+
## Varianza
119
141
120
-
-<lclass = "definition">Función de probabilidad.</l> Asocia a cada punto del dominio de $X$la probabilidad de que ésta lo asuma. Es útil cuando $X$ es v.a. discreta. De ser $X$ v.a. continua, la función de probabilidad es la función nula.
142
+
<lclass = "definition">Varianza de una v.a. discreta.</l> Sea $f:D_X\longrightarrow[0,1]$ la densidad de $X$, entonces la varianza respecto de la densidad es el valor esperado de la diferencia al cuadrado entre $X$ y su valor medio $E(X)$, $$Var(X)= E((X-E(X))^2) $$
121
143
122
-
- <lclass = "definition">Función de densidad.</l> Cuando $X$ es v.a. continua, la función de densidad describe la probabilidad relativa según la cual dicha variable aleatoria tomará determinado valor.
144
+
La varianza mide como de variados son los resultados de $X$ respecto de la media
123
145
146
+
<divclass = "exercise"> **Ejercicio.** Demostrar la siguiente igualdad. $$Var(X)= E(X^2)-(E(X))^2$$</div>
124
147
148
+
## Varianza
125
149
126
-
## Esperanza de una variable aleatoria
150
+
Si $X$ es una v.a. discreta y $g:D_X\longrightarrow \mathbb{R}$ una función, $$Var(g(X))=E((g(X)-E(g(X)))^2)=E(g(X)^2)-(E(g(X)))^2$$
127
151
128
-
<lclass = "definition">Esperanza de una variable aleatoria discreta.</l> $E(X)= \sum_{i=1}^nx_i\cdot p\{X=x_i\}$. Es decir, es la suma del producto de todos los valores que puede tomar la variable aleatoria discreta por su probabilidad.
152
+
## Desviación típica
129
153
130
-
<lclass = "definition">Esperanza de una variable aleatoria continua.</l> $E(X)= \int_{-\infty}^{\infty}x\cdot f(x)dx$. Es decir, es la integral de todos los valores que puede tomar la variable aleatoria continua por su función de densidad.
154
+
<lclass = "definition">Desviación típica de una v.a. discreta.</l> Sea $f:D_X\longrightarrow[0,1]$ la densidad de $X$, entonces la desviación típica respecto de la densidad es $$\sigma(X)=\sqrt{Var(X)}$$
131
155
132
-
## Varianza de una variable aleatoria
156
+
Las unidades de la varianza son las de $X$ al cuadrado. En cambio, las de la desviación típica son las mismas unidades que las de $X$
133
157
134
-
<lclass = "definition">Varianza.</l> $Var(X)=E((X-E(X))^2)$. Es decir, es una medida de dispersión definida como la esperanza del cuadrado de la desviación de dicha variable respecto a su media.
158
+
Si $X$ es una v.a. discreta y $g:D_X\longrightarrow \mathbb{R}$ una función, $$\sigma(g(X))=\sqrt{Var(g(X))}$$
135
159
136
-
- De entre sus propiedades, una de las más interesantes es: $Var(X)=E(X^2)-(E(X))^2$
160
+
# Distribuciones de probabilidad
137
161
138
162
## Distribución de probabilidad
139
163
140
164
<lclass = "definition">[Distribución de probabilidad](https://es.wikipedia.org/wiki/Distribución_de_probabilidad).</l> En teoría de la probabilidad y estadística, la distribución de probabilidad de una variable aleatoria es una función que asigna a cada suceso definido sobre la variable la probabilidad de que dicho suceso ocurra.
141
165
142
-
# Las distribuciones más conocidas
143
-
144
166
## Distribuciones en `R`
145
167
146
168
Dada cualquier variable aleatoria, $va$, `R` nos da cuatro funciones para poder trabajar con ellas:
@@ -159,6 +181,8 @@ Dada cualquier variable aleatoria, en `Python` tenemos las mismas cuatro funcion
159
181
-`ppf(p,...)`: Cuantil $p$-ésimo de la variable aleatoria (el valor de $x$ más pequeño tal que $F(x)\geq p$).
160
182
-`rvs(size,...)`: Generador de $size$ observaciones siguiendo la distribución de la variable aleatoria.
161
183
184
+
# Distribuciones discretas más conocidas
185
+
162
186
## Distribuciones discretas
163
187
164
188
<lclass = "definition">Distribución discreta</l>
@@ -177,8 +201,8 @@ $$X\sim \text{Be}(p)$$
177
201
178
202
donde $p$ es la probabilidad de éxito y $q = 1-p$ es la probabilidad de fracaso.
179
203
180
-
- El **dominio** de $X$ será $X(\Omega) = \{0,1\}$
181
-
- La **función de probabilidad** vendrá dada por $$f(k) = p^k(1-p)^{1-k} = \left\{
204
+
- El **espacio muestral** de $X$ será $X(\Omega) = \{0,1\}$
205
+
- La **función de densidad** vendrá dada por $$f(k) = p^k(1-p)^{1-k} = \left\{
182
206
\begin{array}{rl}
183
207
p & \text{si } k=1
184
208
\\ 1-p & \text{si } k=0
@@ -188,11 +212,11 @@ donde $p$ es la probabilidad de éxito y $q = 1-p$ es la probabilidad de fracaso
188
212
189
213
## Distribución de Bernoulli
190
214
191
-
- La **función de distribución** vendrá dada por $$F(k) = \left\{
215
+
- La **función de distribución** vendrá dada por $$F(x) = \left\{
192
216
\begin{array}{rl}
193
-
0 & \text{si } k<0
194
-
\\q & \text{si } 0\le k<1
195
-
\\ 1 & \text{si } k\ge 1
217
+
0 & \text{si } x<0
218
+
\\1-p & \text{si } 0\le x<1
219
+
\\ 1 & \text{si } x\ge 1
196
220
\end{array}
197
221
\right.$$
198
222
-**Esperanza** $E(X) = p$
@@ -213,21 +237,23 @@ $$X\sim \text{B}(n,p)$$
213
237
214
238
donde $p$ es la probabilidad de éxito y $q = 1-p$ es la probabilidad de fracaso
215
239
216
-
- El **dominio** de $X$ será $X(\Omega) = \{0,1,2,\dots,n\}$
217
-
- La **función de probabilidad** vendrá dada por $$f(k) = {n\choose k}p^k(1-p)^{n-k} $$
240
+
- El **espacio muestral** de $X$ será $X(\Omega) = \{0,1,2,\dots,n\}$
241
+
- La **función de densidad** vendrá dada por $$f(k) = {n\choose k}p^k(1-p)^{n-k} $$
218
242
219
243
## Distribución Binomial
220
244
221
-
- La **función de distribución** vendrá dada por $$F(k) = \left\{
245
+
- La **función de distribución** vendrá dada por $$F(x) = \left\{
222
246
\begin{array}{cl}
223
-
0 & \text{si } k<0
224
-
\\ \sum_{i=0}^kf(k) & \text{si } 0\le k<n
225
-
\\ 1 & \text{si } k\ge n
247
+
0 & \text{si } x<0
248
+
\\ \sum_{k=0}^xf(k) & \text{si } 0\le x<n
249
+
\\ 1 & \text{si } x\ge n
226
250
\end{array}
227
251
\right.$$
228
252
-**Esperanza** $E(X) = np$
229
253
-**Varianza** $Var(X) = npq$
230
254
255
+
<lclass = "important">Atención.</l> Fijaos que la distribución de Bernoulli es un caso particular de la Binomial. Basta tomar $n=1$ y tendremos que $X\sim \text{Be}(p)$ y $X\sim\text{B}(1,p)$ son equivalentes.
256
+
231
257
## Distribución Binomial
232
258
233
259
```{r, echo = FALSE}
@@ -242,39 +268,69 @@ par(mfrow= c(1,1))
242
268
243
269
Si $X$ es variable aleatoria que mide el "número de repeticiones independientes del experimento hasta haber conseguido éxito", diremos que $X$ se distribuye como una Geométrica con parámetro $p$
244
270
245
-
$$X\sim \text{Geom}(p)$$
271
+
$$X\sim \text{Ge}(p)$$
246
272
donde $p$ es la probabilidad de éxito y $q = 1-p$ es la probabilidad de fracaso
247
273
248
-
- El **dominio** de $X$ será $X(\Omega) = \{0,1,2,\dots\}$ o bien $X(\Omega) = \{1,2,\dots\}$ en función de si empieza en 0 o en 1
274
+
- El **espacio muestral** de $X$ será $X(\Omega) = \{0,1,2,\dots\}$ o bien $X(\Omega) = \{1,2,\dots\}$ en función de si empieza en 0 o en 1
249
275
250
-
- La **función de probabilidad** vendrá dada por $$f(k) = (1-p)^{k}p \qquad\text{ si empieza en 0}$$
276
+
- La **función de densidad** vendrá dada por $$f(k) = (1-p)^{k}p \qquad\text{ si empieza en 0}$$
251
277
$$f(k) = (1-p)^{k-1}p \qquad\text{ si empieza en 1}$$
252
278
253
279
## Distribución Geométrica
254
-
280
+
281
+
- La **función de distribución** vendrá dada por $$F(x) = \left\{
-**Esperanza** $E(X) = \frac{1-p}{p}$ si empieza en 0 y E$(X) = \frac{1}{p}$ si empieza en 1
256
288
-**Varianza** $Var(X) = \frac{1-p}{p^2}$
257
-
-No tiene memoria. Es decir, $p\{X>m+n:\ X>m\} = p\{X>n\}$
289
+
-<lclass = "prop">Propiedad de la falta de memoria.</l> Si $X$ es una v.a. \text{Ge}(p), entonces, $$p\{X\ge m+n:\ X\ge n\} = p\{X\ge m\}\ \forall m,n=0,1,\dots$$
258
290
259
291
## Distribución Hipergeométrica
260
292
293
+
Consideremos el experimento "extraer a la vez (o una detrás de otra, sin retornarlos) $n$ objetos donde hay $N$ de tipo A y $M$ de tipo B". Si $X$ es variable aleatoria que mide el "número de objetos del tipo A", diremos que $X$ se distribuye como una Hipergeométrica con parámetro $N,M,n$
294
+
$$X\sim \text{H}(N,M,n)$$
295
+
296
+
- El **espacio muestral** de $X$ será $X(\Omega) = \{0,1,2,\dots,N\}$ (en general)
297
+
- La **función de densidad** vendrá dada por $$f(k) = \frac{{N\choose k}{M\choose n-k}}{N+M\choose n}$$
298
+
299
+
## Distribución Hipergeométrica
300
+
301
+
- La **función de distribución** vendrá dada por $$F(x) = \left\{
Si $X$ es variable aleatoria que mide el "número de eventos en un cierto intervalo de tiempo", diremos que $X$ se distribuye como una Poisson con parámetro $\lambda$
264
314
265
315
$$X\sim \text{Po}(\lambda)$$
266
316
donde $\lambda$ representa el número de veces que se espera que ocurra el evento durante un intervalo dado
267
317
268
-
- El **dominio** de $X$ será $X(\Omega) = \{0,1,2,\dots\}$
318
+
- El **espacio muestral** de $X$ será $X(\Omega) = \{0,1,2,\dots\}$
269
319
270
-
- La **función de probabilidad** vendrá dada por $$f(k) = \frac{e^{-\lambda}\lambda^k}{k!}$$
320
+
- La **función de densidad** vendrá dada por $$f(k) = \frac{e^{-\lambda}\lambda^k}{k!}$$
271
321
272
322
## Distribución de Poisson
273
323
324
+
- La **función de distribución** vendrá dada por $$F(x) = \left\{
325
+
\begin{array}{cl}
326
+
0 & \text{si } x<0
327
+
\\ \sum_{k=0}^xf(k) & \text{si } 0\le x<n
328
+
\\ 1 & \text{si } x\ge n
329
+
\end{array}
330
+
\right.$$
274
331
-**Esperanza** $E(X) = \lambda$
275
332
-**Varianza** $Var(X) = \lambda$
276
333
277
-
278
334
## Distribuciones discretas en R
279
335
280
336
R conoce las distribuciones de probabilidad más importantes.
@@ -285,6 +341,38 @@ Binomial | `binom` | tamaño de la muestra $n$ y probabilidad de éxito $p$
0 commit comments