You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Por ahora, os basta la siguiente definición de probabilidad:
21
+
Por ahora, nos basta la siguiente definición de probabilidad:
22
22
23
23
<lclass = "definition">Probabilidad. </l>Medida de la certidumbre asociada a un suceso o evento que aún no ha sucedido y que se expresa como un número entre 0 y 1, ambos incluidos.
24
24
25
25
<divclass = "example">
26
26
**Ejemplo**
27
27
28
-
La probilidad de que salga cara cuando tiramos una moneda no trucada es $p = \frac{1}{2} = 0.5$
28
+
- La probilidad de que salga cara cuando tiramos una moneda no trucada es $p = \frac{1}{2} = 0.5$
29
+
- La probilidad de que salga al tirar un dado no trucado nos salga 5 es $p = \frac{1}{6}$
29
30
</div>
30
31
32
+
Por lo general, si nos encontramos en un caso como los anteriores, la probabilidad la podemos calcular del siguiente modo:
@@ -54,18 +59,21 @@ La variable aleatoria $X$ que cuenta el número de caras que salen al tirar una
54
59
55
60
<lclass = "definition">Función de distribución.</l> Describe la probabilidad de que $X$ tenga un valor menor o igual que $x$.
56
61
62
+
- Es continua por la derecha
57
63
- Es creciente
58
64
- Toma valores entre 0 y 1
59
65
60
66
## Esperanza de una variable aleatoria
61
67
62
-
<lclass = "definition">Esperanza de una variable aleatoria discreta.</l> E$[X]= \sum_{i=1}^nx_n\cdot p\{X=x_i\}$. Es decir, es la suma del producto de todos los valores que puede tomar la variable aleatoria discreta por su probabilidad.
68
+
<lclass = "definition">Esperanza de una variable aleatoria discreta.</l> $E(X)= \sum_{i=1}^nx_i\cdot p\{X=x_i\}$. Es decir, es la suma del producto de todos los valores que puede tomar la variable aleatoria discreta por su probabilidad.
63
69
64
-
<lclass = "definition">Esperanza de una variable aleatoria continua.</l> E$[X]= \int_{-\infty}^{\infty}x\cdot f(x)$. Es decir, es la integral de todos los valores que puede tomar la variable aleatoria continua por su función de densidad.
70
+
<lclass = "definition">Esperanza de una variable aleatoria continua.</l> $E(X)= \int_{-\infty}^{\infty}x\cdot f(x)dx$. Es decir, es la integral de todos los valores que puede tomar la variable aleatoria continua por su función de densidad.
65
71
66
72
## Varianza de una variable aleatoria
67
73
68
-
<lclass = "definition">Varianza.</l>
74
+
<lclass = "definition">Varianza.</l> $Var(X)=E((X-E(X))^2)$. Es decir, es una medida de dispersión definida como la esperanza del cuadrado de la desviación de dicha variable respecto a su media.
75
+
76
+
- De entre sus propiedades, una de las más interesantes es: $Var(X)=E(X^2)-(E(X))^2$
69
77
70
78
## Distribución de probabilidad
71
79
@@ -108,8 +116,8 @@ donde $p$ es la probabilidad de éxito y $q = 1-p$ es la probabilidad de fracaso
108
116
\\ 1 & \text{si } k\ge 1
109
117
\end{array}
110
118
\right.$$
111
-
-**Esperanza**E$(X) = p$
112
-
-**Varianza**Var$(X) = pq$
119
+
-**Esperanza**$E(X) = p$
120
+
-**Varianza**$Var(X) = pq$
113
121
114
122
## Distribución Binomial
115
123
@@ -131,8 +139,8 @@ donde $p$ es la probabilidad de éxito y $q = 1-p$ es la probabilidad de fracaso
131
139
\\ 1 & \text{si } k\ge n
132
140
\end{array}
133
141
\right.$$
134
-
-**Esperanza**E$(X) = np$
135
-
-**Varianza**Var$(X) = npq$
142
+
-**Esperanza**$E(X) = np$
143
+
-**Varianza**$Var(X) = npq$
136
144
137
145
## Distribución Binomial
138
146
@@ -158,14 +166,29 @@ $$f(k) = (1-p)^{k-1}p \qquad\text{ si empieza en 1}$$
158
166
159
167
## Distribución Geométrica
160
168
161
-
-**Esperanza**E$(X) = \frac{1-p}{p}$ si empieza en 0 y E$(X) = \frac{1}{p}$ si empieza en 1
162
-
-**Varianza**Var$(X) = \frac{1-p}{p^2}$
169
+
-**Esperanza**$E(X) = \frac{1-p}{p}$ si empieza en 0 y E$(X) = \frac{1}{p}$ si empieza en 1
170
+
-**Varianza**$Var(X) = \frac{1-p}{p^2}$
163
171
- No tiene memoria. Es decir, $p\{X>m+n:\ X>m\} = p\{X>n\}$
164
172
165
173
## Distribución Hipergeométrica
166
174
167
175
## Distribución de Poisson
168
176
177
+
Si $X$ es variable aleatoria que mide el "número de eventos en un cierto intervalo de tiempo", diremos que $X$ se distribuye como una Poisson con parámetro $\lambda$
178
+
179
+
$$X\sim \text{Po}(\lambda)$$
180
+
donde $\lambda$ representa el número de veces que se espera que ocurra el evento durante un intervalo dado
181
+
182
+
- El **dominio** de $X$ será $X(\Omega) = \{0,1,2,\dots\}$
183
+
184
+
- La **función de probabilidad** vendrá dada por $$f(k) = \frac{e^{-\lambda}\lambda^k}{k!}$$
185
+
186
+
## Distribución de Poisson
187
+
188
+
-**Esperanza** $E(X) = \lambda$
189
+
-**Varianza** $Var(X) = \lambda$
190
+
191
+
169
192
## Distribuciones discretas en R
170
193
171
194
R conoce las distribuciones de probabilidad más importantes.
@@ -222,4 +245,5 @@ Para cada una de las funciones anteriores, R sabe calcular cuatro funciones:
222
245
223
246
Si a la hora de llamar a alguna de las 4 funciones siguientes: `dnorm`, `pnorm`, `qnorm` o `rnorm` no especificásemos los parámetros de la media ni la desviación típica, R entiende que se trata de la normal estándar: la $\mathcal{N}(0,1)$.
<p>Por ahora, os basta la siguiente definición de probabilidad:</p>
121
+
<p>Por ahora, nos basta la siguiente definición de probabilidad:</p>
122
122
123
123
<p><l class = "definition">Probabilidad. </l>Medida de la certidumbre asociada a un suceso o evento que aún no ha sucedido y que se expresa como un número entre 0 y 1, ambos incluidos.</p>
124
124
125
125
<div class="example">
126
126
<p><strong>Ejemplo</strong></p>
127
127
128
-
<p>La probilidad de que salga cara cuando tiramos una moneda no trucada es \(p = \frac{1}{2} = 0.5\)</p></div>
128
+
<ul>
129
+
<li>La probilidad de que salga cara cuando tiramos una moneda no trucada es \(p = \frac{1}{2} = 0.5\)</li>
130
+
<li>La probilidad de que salga al tirar un dado no trucado nos salga 5 es \(p = \frac{1}{6}\)</li>
131
+
</ul></div>
132
+
133
+
<p>Por lo general, si nos encontramos en un caso como los anteriores, la probabilidad la podemos calcular del siguiente modo:</p>
@@ -153,19 +160,24 @@ <h2 data-config-subtitle><!-- populated from slide_config.json --></h2>
153
160
<p><l class = "definition">Función de distribución.</l> Describe la probabilidad de que \(X\) tenga un valor menor o igual que \(x\).</p>
154
161
155
162
<ul>
163
+
<li>Es continua por la derecha</li>
156
164
<li>Es creciente</li>
157
165
<li>Toma valores entre 0 y 1</li>
158
166
</ul>
159
167
160
168
</article></slide><slide class=""><hgroup><h2>Esperanza de una variable aleatoria</h2></hgroup><article id="esperanza-de-una-variable-aleatoria">
161
169
162
-
<p><l class = "definition">Esperanza de una variable aleatoria discreta.</l> E\([X]= \sum_{i=1}^nx_n\cdot p\{X=x_i\}\). Es decir, es la suma del producto de todos los valores que puede tomar la variable aleatoria discreta por su probabilidad.</p>
170
+
<p><l class = "definition">Esperanza de una variable aleatoria discreta.</l> \(E(X)= \sum_{i=1}^nx_i\cdot p\{X=x_i\}\). Es decir, es la suma del producto de todos los valores que puede tomar la variable aleatoria discreta por su probabilidad.</p>
163
171
164
-
<p><l class = "definition">Esperanza de una variable aleatoria continua.</l> E\([X]= \int_{-\infty}^{\infty}x\cdot f(x)\). Es decir, es la integral de todos los valores que puede tomar la variable aleatoria continua por su función de densidad.</p>
172
+
<p><l class = "definition">Esperanza de una variable aleatoria continua.</l> \(E(X)= \int_{-\infty}^{\infty}x\cdot f(x)dx\). Es decir, es la integral de todos los valores que puede tomar la variable aleatoria continua por su función de densidad.</p>
165
173
166
174
</article></slide><slide class=""><hgroup><h2>Varianza de una variable aleatoria</h2></hgroup><article id="varianza-de-una-variable-aleatoria">
167
175
168
-
<p><l class = "definition">Varianza.</l></p>
176
+
<p><l class = "definition">Varianza.</l> \(Var(X)=E((X-E(X))^2)\). Es decir, es una medida de dispersión definida como la esperanza del cuadrado de la desviación de dicha variable respecto a su media.</p>
177
+
178
+
<ul>
179
+
<li>De entre sus propiedades, una de las más interesantes es: \(Var(X)=E(X^2)-(E(X))^2\)</li>
180
+
</ul>
169
181
170
182
</article></slide><slide class=""><hgroup><h2>Distribución de probabilidad</h2></hgroup><article id="distribucion-de-probabilidad">
171
183
@@ -212,8 +224,8 @@ <h2 data-config-subtitle><!-- populated from slide_config.json --></h2>
</article></slide><slide class=""><hgroup><h2>Distribución de Poisson</h2></hgroup><article id="distribucion-de-poisson">
272
284
285
+
<p>Si \(X\) es variable aleatoria que mide el "número de eventos en un cierto intervalo de tiempo", diremos que \(X\) se distribuye como una Poisson con parámetro \(\lambda\)</p>
286
+
287
+
<p>\[X\sim \text{Po}(\lambda)\] donde \(\lambda\) representa el número de veces que se espera que ocurra el evento durante un intervalo dado</p>
288
+
289
+
<ul>
290
+
<li><p>El <strong>dominio</strong> de \(X\) será \(X(\Omega) = \{0,1,2,\dots\}\)</p></li>
291
+
<li><p>La <strong>función de probabilidad</strong> vendrá dada por \[f(k) = \frac{e^{-\lambda}\lambda^k}{k!}\]</p></li>
292
+
</ul>
293
+
294
+
</article></slide><slide class=""><hgroup><h2>Distribución de Poisson</h2></hgroup><article id="distribucion-de-poisson-1">
0 commit comments