Skip to content

Commit fce0a43

Browse files
committed
Ready for 2024-2025 for modules 2 & 3
1 parent f5f0af8 commit fce0a43

File tree

5 files changed

+17
-9
lines changed

5 files changed

+17
-9
lines changed

DESCRIPTION

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -1,5 +1,5 @@
11
Package: BioDataScience2
2-
Version: 2024.1.0
2+
Version: 2024.3.0
33
Title: A Series of Learnr Documents for Biological Data Science 2
44
Description: Interactive documents using learnr for studying biological data science (second course).
55
Authors@R: c(

NEWS.md

Lines changed: 8 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -1,3 +1,11 @@
1+
# BioDataScience2 2024.3.0
2+
3+
- Learnr **B03La_mod_lin** revised for 2024-2025.
4+
5+
# BioDataScience2 2024.2.0
6+
7+
- Learnrs **B02La_reg_multi** and **B02LA_reg_poly** revised for 2024-2025.
8+
19
# BioDataScience2 2024.1.0
210

311
- All learnrs inactivated except those of module 1.

inst/tutorials/B02La_reg_multi/B02La_reg_multi.Rmd.inactivated renamed to inst/tutorials/B02La_reg_multi/B02La_reg_multi.Rmd

Lines changed: 3 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -223,7 +223,7 @@ En réalité, les résidus ont un comportement très, très similaire entre les
223223

224224
Vous venez de réaliser deux modèles. Il s'agit d'un cas particulier. Ces deux modèles sont imbriqués, ce qui signifie que l'un est une version simplifiée (avec un ou plusieurs termes en moins) de l'autre. Comment pourriez-vous départager ces deux modèles ? Dans un tel cas, une ANOVA permet de comparer les deux et de tirer une conclusion. Avant de faire notre test, décidons de fixer $\alpha$ à 5%. L'hypothèse nulle est que les deux modèles sont identiques (exprimé différemment, cela signifie que les termes supplémentaires du modèle plus complexe n'apportent rien). L'hypothèse alternative que le modèle plus complexe apporte un gain.
225225

226-
```{r, echo=TRUE}
226+
```{r, echo=TRUE, warning=FALSE}
227227
anova(fat_lm1, fat_lm2) |>
228228
tabularise()
229229
```
@@ -334,12 +334,12 @@ diabetes <- smutate(diabetes,
334334

335335
Prenez l'habitude d'étudier la matrice de corrélation entre toutes les variables qui vont entrer potentiellement dans votre modèle.
336336

337-
```{r, echo=TRUE}
337+
```{r, echo=TRUE, warning=FALSE}
338338
correlation(diabetes[, c("map", "age", "chol", "glyhb", "weight")], use = "complete.obs") |>
339339
tabularise()
340340
```
341341

342-
> En présence de valeurs manquantes, l'argument `use=` permet de spécifier quoi faire. `"complete.obs"` ne prends en compte que les observations pour lesquelles il n'y a aucune valeur manquante pour aucune des cinq variables, voir `?correlation()`.
342+
> En présence de valeurs manquantes, l'argument `use=` permet de spécifier quoi faire. `"complete.obs"` ne prends en compte quikole les observations pour lesquelles il n'y a aucune valeur manquante pour aucune des cinq variables, voir `?correlation()`.
343343
344344
Ici, nous sommes en présence de corrélations très faibles entre les variables potentiellement explicatives et MAP. Ce n'est pas une bonne nouvelle. Nous pouvions déjà constater cela sur le graphique entre la MAP et l'âge avec un nuage de points très peu étiré. La bonne nouvelle, c'est que les quatre variables explicatives sont également peu corrélées entre elles, et aussi que nous avons plusieurs centaines d'individus mesurés dans notre échantillon.
345345

inst/tutorials/B02Lb_reg_poly/B02Lb_reg_poly.Rmd.inactivated renamed to inst/tutorials/B02Lb_reg_poly/B02Lb_reg_poly.Rmd

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -184,7 +184,7 @@ chart(reddrum_lm3)
184184
```
185185

186186
```{r regpoly3_h2-check}
187-
grade_code("Observez comme la courbe devient de plus en plus flexible à mesure que l'ordre du polynome augmente.")
187+
grade_code("Observez comme la courbe devient de plus en plus flexible à mesure que l'ordre du polynôme augmente.")
188188
```
189189

190190
Analyse des résidus pour la régression polynomiale d'ordre trois.

inst/tutorials/B03La_mod_lin/B03La_mod_lin.Rmd.inactivated renamed to inst/tutorials/B03La_mod_lin/B03La_mod_lin.Rmd

Lines changed: 4 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -82,7 +82,7 @@ corn1 <- dtx(
8282
)
8383
```
8484

85-
```{r corn1_h3, exercise=TRUE, exercise.setup="corn1_prep", exercise.lines=3}
85+
```{r corn1_h3, exercise=TRUE, exercise.setup="corn1_prep", exercise.lines=3, warning=FALSE}
8686
corn1_lm <- lm(data = ___, ___)
8787
summary(corn1_lm) |> tabularise()
8888
```
@@ -172,7 +172,7 @@ corn2 <- dtx(
172172
)
173173
```
174174

175-
```{r corn2_h4, exercise=TRUE, exercise.setup="corn2_prep", exercise.lines=3}
175+
```{r corn2_h4, exercise=TRUE, exercise.setup="corn2_prep", exercise.lines=3, warning=FALSE}
176176
corn2_lm <- lm(data = ___, ___)
177177
summary(corn2_lm) |> tabularise()
178178
```
@@ -275,7 +275,7 @@ corn3 <- dtx(
275275
)
276276
```
277277

278-
```{r corn3_h4, exercise=TRUE, exercise.setup = "corn3_prep", exercise.lines=3}
278+
```{r corn3_h4, exercise=TRUE, exercise.setup = "corn3_prep", exercise.lines=3, warning=FALSE}
279279
corn3_lm <- lm(data = ___, ___)
280280
summary(corn3_lm) |> tabularise()
281281
```
@@ -378,7 +378,7 @@ corn4 <- dtx(
378378
)
379379
```
380380

381-
```{r corn4_h4, exercise=TRUE, exercise.setup="corn4_prep", exercise.lines=3}
381+
```{r corn4_h4, exercise=TRUE, exercise.setup="corn4_prep", exercise.lines=3, warning=FALSE}
382382
corn4_lm <- lm(data = ___, ___)
383383
summary(corn4_lm) |> tabularise()
384384
```

0 commit comments

Comments
 (0)