Ce document a été généré avec l’outil R Markdown. Le code R et les données qui ont été utilisées sont ainsi mis à disposition et permettent donc la reproductibilité des résultats obtenus.
Par ailleurs, le document est mis à jour automatiquement chaque jour. Pour consulter les archives, cliquer ici.
Source de données utilisées:
Données hospitalières relatives à l’épidémie de COVID-19 : https://www.data.gouv.fr/fr/datasets/donnees-hospitalieres-relatives-a-lepidemie-de-covid-19/
Données relatives aux résultats des tests virologiques COVID-19 : https://www.data.gouv.fr/fr/datasets/donnees-relatives-aux-resultats-des-tests-virologiques-covid-19/
Questions de recherche:
Peut-on expliquer le nombre de nouvelles entrées par semaine en fonction du nombre de personnes testées positives quelques jours auparavant ?
Peut-on expliquer les entrées en réanimation par les entrées en hospitalisations ?
Peut-on expliquer les nouveaux décès par les entrées réanimations ?
En fonction des réponses aux questions précédentes :
Packages et fonctions locales à charger:
library(cartogram)
library(cartography)
library(forecast)
library(kableExtra)
library(rgdal)
library(tidyverse)
library(vistime)
library(zoo)
source("fonctions.R")
Version de R utilisée:
## _
## platform x86_64-pc-linux-gnu
## arch x86_64
## os linux-gnu
## system x86_64, linux-gnu
## status
## major 4
## minor 0.3
## year 2020
## month 10
## day 10
## svn rev 79318
## language R
## version.string R version 4.0.3 (2020-10-10)
## nickname Bunny-Wunnies Freak Out
Dans un premier temps, on met à jour les données tous les jours de façon automatique.
# Date du jour pour actualiser les données:
to_day <- Sys.Date()
my_url <- "https://www.data.gouv.fr/fr/datasets/r/6fadff46-9efd-4c53-942a-54aca783c30c"
if (!file.exists(paste0(getwd(), "/data/", to_day, ".csv"))) {
download.file(my_url, destfile = paste0(getwd(), "/data/", to_day, ".csv"))
}
hospital <- read.csv(paste0(getwd(), "/data/", to_day, ".csv"), sep = ";")
# On ajoute le nom des régions:
hospital <- merge(hospital, dep_region, by = "dep")
# On utilise le format date pour coder le jour:
hospital$jour <- as.Date(hospital$jour)
Comment se présente les données du Ministère de la Santé ?
dep | jour | incid_hosp | incid_rea | incid_dc | incid_rad | nom_dep | region | |
---|---|---|---|---|---|---|---|---|
18057 | 69 | 2020-11-28 | 49 | 9 | 11 | 57 | Rhône | Auvergne-Rhône-Alpes |
18058 | 69 | 2020-11-29 | 40 | 9 | 9 | 9 | Rhône | Auvergne-Rhône-Alpes |
18059 | 69 | 2020-11-30 | 43 | 6 | 15 | 34 | Rhône | Auvergne-Rhône-Alpes |
18060 | 69 | 2020-12-01 | 77 | 5 | 20 | 82 | Rhône | Auvergne-Rhône-Alpes |
Ici il s’agit des données qui donnent chaque jour par département :
On créé des fenêtres de 7 jour à partir du dernier jour observé. Par exemple si nous avons les données d’hospitalisation jusqu’au 01 décembre 2020 la semaine qui correspond à la semaine t0 correspond à la fenêtre [25 novembre 2020; 01 décembre 2020]. Dans chaque fenêtre, on calcule le nombre de nouvelles hospitalisations, réanimations et décès par département.
hospital$semaine <- num_semaine(hospital$jour)
# On aggrège les données en fonction de cette fenêtre et on garde tous les départements:
my_basis <- hospital %>%
group_by(dep, semaine) %>%
dplyr::summarize(hosp = sum(incid_hosp),
rea = sum(incid_rea),
rad = sum(incid_rad),
dc = sum(incid_dc),
jour = max(jour),
region = unique(region))
On dispose égaglement des données d’hospitalisations/réanimations/décès par classe d’âge à la différence qu’il s’agit de données régionales et qu’il s’agit des données de stock (nombre d’hospitalisations et réanimations en cours) et pas du nombre de nouvelles hospitalisations. On peut toutefois estimer le nombre de nouvelles hospitalisations ou décès en faisant les différences des valeurs d’un jour sur l’autre.
my_url <- "https://www.data.gouv.fr/fr/datasets/r/08c18e08-6780-452d-9b8c-ae244ad529b3"
if (!file.exists(paste0(getwd(), "/data/age", to_day, ".csv"))) {
download.file(my_url, destfile = paste0(getwd(), "/data/age", to_day, ".csv"))
}
hospital_age <- read.csv(paste0(getwd(), "/data/age", to_day, ".csv"), sep = ";")
# On ajoute le nom des régions:
hospital_age <- merge(hospital_age, code_region, by.x = "reg", by.y = "code")
# On utilise le format date pour coder le jour:
hospital_age$jour <- as.Date(hospital_age$jour)
# on affecte la semaine
hospital_age$semaine <- num_semaine(hospital_age$jour)
# on calcule les nouvelles hospitalisations/réanimations/décès
hospital_age$new_hosp <- 0
hospital_age$new_rea <- 0
hospital_age$new_dc <- 0
for (k in nrow(hospital_age):1) {
age_k <- hospital_age$cl_age90[k]
jour_k <- hospital_age$jour[k]
reg_k <- hospital_age$reg[k]
rad_k <- hospital_age$rad[k]
dc_k <- hospital_age$dc[k]
ind_k <- which(hospital_age$reg == reg_k & hospital_age$cl_age90 == age_k & hospital_age$jour == jour_k - 1)
if (length(ind_k) == 1) {
hospital_age$new_hosp[k] <- max((hospital_age$hosp[k] - hospital_age$hosp[ind_k]) +
(hospital_age$dc[k] - hospital_age$dc[ind_k]) +
(hospital_age$rad[k] - hospital_age$rad[ind_k]) +
(hospital_age$rea[k] - hospital_age$rea[ind_k]), 0)
hospital_age$new_rea[k] <- max((hospital_age$dc[k] - hospital_age$dc[ind_k]) +
(hospital_age$rea[k] - hospital_age$rea[ind_k]), 0)
hospital_age$new_dc[k] <- max((hospital_age$dc[k] - hospital_age$dc[ind_k]), 0)
}
}
# on aggrege par semaine
my_basis_age <- hospital_age %>%
group_by(region, semaine, cl_age90) %>%
dplyr::summarize(hosp = sum(new_hosp),
rea = sum(new_rea),
dc = sum(new_dc),
jour = max(jour),
region = unique(region))
# On met au format wide
my_basis_age_wide <- tidyr::pivot_wider(my_basis_age,
id_cols = c("semaine", "region", "jour", "hosp", "rea", "dc", "cl_age90"),
names_from = "cl_age90",
values_from = c("hosp", "rea", "dc"))
On va calculer quelques chiffres clés pour mesure la situation des régions sur les 7 derniers jours qui viennent de s’écouler : [25 novembre 2020; 01 décembre 2020].
# On aggrège les données par région sur la semaine `r paste0("[", format(to_day - 7, '%d %B %Y'), "; ", format(to_day - 1, '%d %B %Y'), "]")` :
vs_my_basis_t0 <- my_basis %>%
filter(semaine %in% "semaine_t00") %>%
group_by(region) %>%
summarise(hosp = sum(hosp),
rea = sum(rea),
dc = sum(dc))
# On aggrège les données par région sur la semaine `r paste0("[", format(to_day - 13, '%d %B %Y'), "; ", format(to_day - 7, '%d %B %Y'), "]")` :
vs_my_basis_t1 <- my_basis %>%
filter(semaine %in% "semaine_t01") %>%
group_by(region) %>%
summarise(hosp = sum(hosp),
rea = sum(rea),
dc = sum(dc))
On représente par région:
le nombre total de nouvelles hospitalisations (semaine [25 novembre 2020; 01 décembre 2020]).
le nombre moyen journalier de nouvelles hospitalisations (semaine [25 novembre 2020; 01 décembre 2020]).
l’évolution (en pourcentage) entre la semaine [18 novembre 2020; 24 novembre 2020] et la semaine [25 novembre 2020; 01 décembre 2020].
hosp_region <- vs_my_basis_t0 %>%
select(region, hosp) %>%
mutate(`moyenne jour` = hosp / 7,
`evolution en %` = (vs_my_basis_t0$hosp - vs_my_basis_t1$hosp) / vs_my_basis_t1$hosp * 100) %>%
rename(`total semaine` = hosp) %>%
arrange(-`total semaine`)
# On représente les données :
hosp_region[, 3] <- round(hosp_region[, 3])
hosp_region[, 4] <- round(hosp_region[, 4], 1)
hosp_region[2:4] <- lapply(hosp_region[2:4], function(x) {
cell_spec(x, bold = T, color = spec_color(x, end = 0.9),
font_size = spec_font_size(x))
})
hosp_region <- rbind(hosp_region, tibble(region = "France entière",
`total semaine` = sum(vs_my_basis_t0$hosp),
`moyenne jour` = round(sum(vs_my_basis_t0$hosp) / 7, 0),
`evolution en %` = round((sum(vs_my_basis_t0$hosp) - sum(vs_my_basis_t1$hosp)) /
sum(vs_my_basis_t1$hosp) * 100, 1)))
kbl(hosp_region, escape = F, align = "c") %>% kable_classic("striped", full_width = F)
region | total semaine | moyenne jour | evolution en % |
---|---|---|---|
Auvergne-Rhône-Alpes | 1817 | 260 | -27.6 |
Ile-de-France | 1475 | 211 | -33.6 |
Grand Est | 998 | 143 | -19.2 |
Provence-Alpes-Côte d’Azur | 941 | 134 | -22.2 |
Hauts-de-France | 881 | 126 | -25.7 |
Bourgogne-Franche-Comté | 643 | 92 | -23.8 |
Nouvelle-Aquitaine | 572 | 82 | -11 |
Occitanie | 503 | 72 | -32.1 |
Pays de la Loire | 357 | 51 | -28.3 |
Normandie | 338 | 48 | -30.3 |
Centre-Val de Loire | 321 | 46 | -10.8 |
Bretagne | 150 | 21 | -18.5 |
DOM-TOM | 60 | 9 | -30.2 |
Corse | 9 | 1 | -18.2 |
France entière | 9065 | 1295 | -25.8 |
On représente par département la carte des nouvelles hospitalisations sur la dernière semaine observée ([25 novembre 2020; 01 décembre 2020])
# On importe les contours des départements
dep.2015 <- readOGR(dsn="./departements 2015/DEPARTEMENT", layer="DEPARTEMENT")
## OGR data source with driver: ESRI Shapefile
## Source: "/media/thibault/My Passport/confinement/covid/departements 2015/DEPARTEMENT", layer: "DEPARTEMENT"
## with 96 features
## It has 11 fields
dep.2015@data$CODE_DEPT <- as.character(dep.2015@data$CODE_DEPT)
# data
dep.2015_00 <- merge(dep.2015, filter(my_basis, semaine == "semaine_t00"),
by.x = "CODE_DEPT", by.y = "dep")
# On représente les nouvelles hospitalisations sur la dernière semaine observée (`r paste0("[", format(to_day - 7, '%d %B %Y'), "; ", format(to_day - 1, '%d %B %Y'), "]")`) (Source pour le code : https://rgeomatic.hypotheses.org/1361#more-1361)
# quantization breaks of the rate
bks <- c(0, getBreaks(v = dep.2015_00$hosp, method = "kmeans", nclass = 5))
# correct the breaks to use the global rate as limit of class
# get a color palette
cols <- carto.pal(pal1 = "green.pal", n1 = 3, pal2 = "wine.pal", n2 = 3)
## Choropleth layer
# set figure margins and background color
par(mar = c(0, 0, 1.2, 0), bg = "lemonchiffon")
# Hospitalisations
choroLayer(spdf = dep.2015_00, var = "hosp", breaks = bks, col = cols,
border = "khaki", lwd = 0.5,
legend.title.txt = "Hospitalisations",
legend.pos = 'topleft', legend.values.rnd = 0)
# add a title and layout
layoutLayer(title = paste0("Nouvelles hospitalisations ",
paste0("[", format(to_day - 7, '%d %B %Y'), "; ", format(to_day - 1, '%d %B %Y'), "]")),
sources = "", north = TRUE, scale = 50, tabtitle = TRUE,
theme = "sand.pal", frame = FALSE,
author = "")
On représente par région:
le nombre total de nouvelles réanimations (semaine [25 novembre 2020; 01 décembre 2020]).
le nombre moyen journalier de nouvelles réanimations (semaine [25 novembre 2020; 01 décembre 2020]).
l’évolution (en pourcentage) entre la semaine [18 novembre 2020; 24 novembre 2020] et la semaine [25 novembre 2020; 01 décembre 2020].
rea_region <- vs_my_basis_t0 %>%
select(region, rea) %>%
mutate(`moyenne jour` = rea / 7,
`evolution en %` = (vs_my_basis_t0$rea - vs_my_basis_t1$rea) / vs_my_basis_t1$rea * 100) %>%
rename(`total semaine` = rea) %>%
arrange(-`total semaine`)
# On représente les données :
rea_region[, 3] <- round(rea_region[, 3])
rea_region[, 4] <- round(rea_region[, 4], 1)
rea_region[2:4] <- lapply(rea_region[2:4], function(x) {
cell_spec(x, bold = T, color = spec_color(x, end = 0.9),
font_size = spec_font_size(x))
})
rea_region <- rbind(rea_region, tibble(region = "France entière",
`total semaine` = sum(vs_my_basis_t0$rea),
`moyenne jour` = round(sum(vs_my_basis_t0$rea) / 7, 0),
`evolution en %` = round((sum(vs_my_basis_t0$rea) - sum(vs_my_basis_t1$rea)) /
sum(vs_my_basis_t1$rea) * 100, 1)))
kbl(rea_region, escape = F, align = "c") %>% kable_classic("striped", full_width = F)
region | total semaine | moyenne jour | evolution en % |
---|---|---|---|
Auvergne-Rhône-Alpes | 266 | 38 | -23.8 |
Ile-de-France | 264 | 38 | -31.8 |
Hauts-de-France | 152 | 22 | -19.6 |
Provence-Alpes-Côte d’Azur | 126 | 18 | -25.4 |
Grand Est | 107 | 15 | -34.4 |
Bourgogne-Franche-Comté | 101 | 14 | -22.9 |
Occitanie | 81 | 12 | -48.1 |
Centre-Val de Loire | 56 | 8 | 19.1 |
Nouvelle-Aquitaine | 56 | 8 | -30.9 |
Normandie | 38 | 5 | -42.4 |
Pays de la Loire | 29 | 4 | -52.5 |
DOM-TOM | 16 | 2 | -27.3 |
Bretagne | 13 | 2 | -31.6 |
Corse | 5 | 1 | 400 |
France entière | 1310 | 187 | -28.8 |
On représente par département la carte des nouvelles réanimations sur la dernière semaine observée ([25 novembre 2020; 01 décembre 2020])
# quantization breaks of the rate
bks <- c(0, getBreaks(v = dep.2015_00$rea, method = "kmeans", nclass = 5))
# correct the breaks to use the global rate as limit of class
# get a color palette
cols <- carto.pal(pal1 = "green.pal", n1 = 3, pal2 = "wine.pal", n2 = 3)
## Choropleth layer
# set figure margins and background color
par(mar = c(0, 0, 1.2, 0), bg = "lemonchiffon")
# Hospitalisations
choroLayer(spdf = dep.2015_00, var = "rea", breaks = bks, col = cols,
border = "khaki", lwd = 0.5,
legend.title.txt = "Réanimations",
legend.pos = 'topleft', legend.values.rnd = 0)
# add a title and layout
layoutLayer(title = paste0("Nouvelles Réanimations ",
paste0("[", format(to_day - 7, '%d %B %Y'), "; ", format(to_day - 1, '%d %B %Y'), "]")),
sources = "", north = TRUE, scale = 50, tabtitle = TRUE,
theme = "sand.pal", frame = FALSE,
author = "")
On représente par région:
le nombre total de nouveaux décès (semaine [25 novembre 2020; 01 décembre 2020]).
le nombre moyen journalier de nouveaux décès (semaine [25 novembre 2020; 01 décembre 2020]).
l’évolution (en pourcentage) entre la semaine [18 novembre 2020; 24 novembre 2020] et la semaine [25 novembre 2020; 01 décembre 2020].
dc_region <- vs_my_basis_t0 %>%
select(region, dc) %>%
mutate(`moyenne jour` = dc / 7,
`evolution en %` = (vs_my_basis_t0$dc - vs_my_basis_t1$dc) / vs_my_basis_t1$dc * 100) %>%
rename(`total semaine` = dc) %>%
arrange(-`total semaine`)
# On représente les données :
dc_region[, 3] <- round(dc_region[, 3])
dc_region[, 4] <- round(dc_region[, 4], 1)
dc_region[2:4] <- lapply(dc_region[2:4], function(x) {
cell_spec(x, bold = T, color = spec_color(x, end = 0.9),
font_size = spec_font_size(x))
})
dc_region <- rbind(dc_region, tibble(region = "France entière",
`total semaine` = sum(vs_my_basis_t0$dc),
`moyenne jour` = round(sum(vs_my_basis_t0$dc) / 7, 0),
`evolution en %` = round((sum(vs_my_basis_t0$dc) - sum(vs_my_basis_t1$dc)) /
sum(vs_my_basis_t1$dc) * 100, 1)))
kbl(dc_region, escape = F, align = "c") %>% kable_classic("striped", full_width = F)
region | total semaine | moyenne jour | evolution en % |
---|---|---|---|
Auvergne-Rhône-Alpes | 515 | 74 | -18.8 |
Ile-de-France | 346 | 49 | -19.3 |
Grand Est | 238 | 34 | -5.2 |
Hauts-de-France | 218 | 31 | -11.7 |
Provence-Alpes-Côte d’Azur | 211 | 30 | -24.1 |
Bourgogne-Franche-Comté | 172 | 25 | -2.3 |
Nouvelle-Aquitaine | 140 | 20 | -9.7 |
Occitanie | 135 | 19 | -25.4 |
Normandie | 109 | 16 | -0.9 |
Centre-Val de Loire | 85 | 12 | -10.5 |
Pays de la Loire | 81 | 12 | -3.6 |
Bretagne | 48 | 7 | 6.7 |
DOM-TOM | 5 | 1 | -54.5 |
Corse | 1 | 0 | -50 |
France entière | 2304 | 329 | -14.6 |
On représente par département la carte des nouveaux décès sur la dernière semaine observée ([25 novembre 2020; 01 décembre 2020])
# quantization breaks of the rate
bks <- c(0, getBreaks(v = dep.2015_00$dc, method = "kmeans", nclass = 5))
# correct the breaks to use the global rate as limit of class
# get a color palette
cols <- carto.pal(pal1 = "green.pal", n1 = 3, pal2 = "wine.pal", n2 = 3)
## Choropleth layer
# set figure margins and background color
par(mar = c(0, 0, 1.2, 0), bg = "lemonchiffon")
# Hospitalisations
choroLayer(spdf = dep.2015_00, var = "dc", breaks = bks, col = cols,
border = "khaki", lwd = 0.5,
legend.title.txt = "Décès",
legend.pos = 'topleft', legend.values.rnd = 0)
# add a title and layout
layoutLayer(title = paste0("Nouveaux décès ",
paste0("[", format(to_day - 7, '%d %B %Y'), "; ", format(to_day - 1, '%d %B %Y'), "]")),
sources = "", north = TRUE, scale = 50, tabtitle = TRUE,
theme = "sand.pal", frame = FALSE,
author = "")
On calcule la différence entre le nombre de nouveaux patients hospitalisés sur la période [25 novembre 2020; 01 décembre 2020] et sur la période [17 novembre 2020; 24 novembre 2020]
my_basis_evol <- merge(my_basis %>%
filter(semaine == "semaine_t00") %>%
rename(hosp_t0 = hosp) %>%
select(dep, hosp_t0, region),
my_basis %>%
filter(semaine == "semaine_t01") %>%
select(dep, hosp) %>%
rename(hosp_t1 = hosp),
by = "dep") %>%
mutate(diff_abs = hosp_t0 - hosp_t1,
diff_rel = (hosp_t0 - hosp_t1) / hosp_t1) %>%
mutate(evol = factor(ifelse(diff_rel < 0, "<0",
ifelse(diff_rel >= 0 & diff_rel < 0.5, "[0,50%[",
ifelse(diff_rel >= 0.5 & diff_rel < 1, "[50,100%[",
ifelse(diff_rel >= 1 & diff_rel < 2, "[100,200%[",
">200%")))),
levels = c("<0", "[0,50%[", "[50,100%[", "[100,200%[", ">200%")))
my_basis_evol_long <- tidyr::pivot_longer(data = my_basis_evol,
col = c(2, 4),
names_to = "semaine",
values_to = "hospitalisations")
my_basis_evol_long$semaine <- factor(my_basis_evol_long$semaine,
levels = c("hosp_t1", "hosp_t0"),
labels = c(paste0("[", format(to_day - 14, '%d %b'), "; ",
format(to_day - 8, '%d %b'), "]"),
paste0("[", format(to_day - 7, '%d %b'), "; ",
format(to_day - 1, '%d %b'), "]")))
On va représenter des couleurs différentes en fonction du taux d’évolution découpées en 5 classes
On met à jour les données chaque jour :
# On récupére directement l'url depuis le site du ministère:
url <- "https://www.data.gouv.fr/fr/datasets/r/406c6a23-e283-4300-9484-54e78c8ae675"
if (!file.exists(paste0(getwd(), "/data/test", to_day, ".csv"))) {
download.file(url, destfile = paste0(getwd(), "/data/test", to_day, ".csv"))
}
test <- read.csv(paste0(getwd(), "/data/test", to_day, ".csv"), sep = ";")
# on enlève les départements qui ne sont pas présents dans la table hopital
test <- test %>%
filter(!(dep %in% c("975", "977", "978")))
# On utilise le format date pour coder le jour:
test$jour <- as.Date(test$jour)
test$semaine <- num_semaine(test$jour, begin = max(hospital$jour) - 3, decallage = TRUE)
test_region <- merge(test, dep_region, by = "dep")
On va calculer quelques chiffres clés pour mesurer la situation des régions sur une fenêtre de 7 jours [22 novembre 2020; 28 novembre 2020]. On ne peut pas représenter les 7 derniers jours car les données ne sont pas encore diffusées.
# On aggrège les données par région sur la semaine `r paste0("[", format(to_day - 7, '%d %B %Y'), "; ", format(to_day - 1, '%d %B %Y'), "]")` :
vs_my_basis_t0 <- test_region %>%
filter(semaine %in% "semaine_t0-1", cl_age90 == 0) %>%
group_by(region) %>%
summarise(P = sum(P))
# On aggrège les données par région sur la semaine `r paste0("[", format(to_day - 13, '%d %B %Y'), "; ", format(to_day - 7, '%d %B %Y'), "]")` :
vs_my_basis_t1 <- test_region %>%
filter(semaine %in% "semaine_t00", cl_age90 == 0) %>%
group_by(region) %>%
summarise(P = sum(P))
On représente par région:
le nombre total de testés positifs (semaine [22 novembre 2020; 28 novembre 2020]).
le nombre moyen journalier de testés positifs (semaine [22 novembre 2020; 28 novembre 2020]).
l’évolution (en pourcentage) entre la semaine [15 novembre 2020; 21 novembre 2020] et la semaine [22 novembre 2020; 28 novembre 2020].
P_region <- vs_my_basis_t0 %>%
select(region, P) %>%
mutate(`moyenne jour` = P / 7,
`evolution en %` = (vs_my_basis_t0$P - vs_my_basis_t1$P) / vs_my_basis_t1$P * 100) %>%
rename(`total semaine` = P) %>%
arrange(-`total semaine`)
# On représente les données :
P_region[, 3] <- round(P_region[, 3])
P_region[, 4] <- round(P_region[, 4], 1)
P_region[2:4] <- lapply(P_region[2:4], function(x) {
cell_spec(x, bold = T, color = spec_color(x, end = 0.9),
font_size = spec_font_size(x))
})
P_region <- rbind(P_region, tibble(region = "France entière",
`total semaine` = sum(vs_my_basis_t0$P),
`moyenne jour` = round(sum(vs_my_basis_t0$P) / 7, 0),
`evolution en %` = round((sum(vs_my_basis_t0$P) - sum(vs_my_basis_t1$P)) /
sum(vs_my_basis_t1$P) * 100, 1)))
kbl(P_region, escape = F, align = "c") %>% kable_classic("striped", full_width = F)
region | total semaine | moyenne jour | evolution en % |
---|---|---|---|
Auvergne-Rhône-Alpes | 12543 | 1792 | -40.6 |
Ile-de-France | 10251 | 1464 | -36 |
Grand Est | 6699 | 957 | -32 |
Hauts-de-France | 6611 | 944 | -39.2 |
Provence-Alpes-Côte d’Azur | 5372 | 767 | -37.5 |
Nouvelle-Aquitaine | 4539 | 648 | -31.5 |
Bourgogne-Franche-Comté | 4409 | 630 | -33 |
Occitanie | 4233 | 605 | -36.5 |
Normandie | 2605 | 372 | -43.2 |
Pays de la Loire | 2541 | 363 | -41 |
Centre-Val de Loire | 2426 | 347 | -33.3 |
Bretagne | 1291 | 184 | -41.7 |
DOM-TOM | 790 | 113 | -33.7 |
Corse | 91 | 13 | -47.1 |
France entière | 64401 | 9200 | -37.1 |
On représente les testés positifs par tranche d’age:
# On aggrège les données par tranche d'age et semaine:
test_by_age <- test %>%
filter(cl_age90 != 0) %>%
group_by(semaine, cl_age90) %>%
summarize(P = sum(P),
jour = max(jour)) %>%
group_by(semaine) %>%
mutate(percent_P = P / sum(P))
p <- ggplot(test_by_age) +
aes(x = jour, y = P, fill = factor(cl_age90)) +
geom_area(color = "black") +
labs(title = "Nombre de téstés positifs par classe d'âge ",
x = "Week",
y = "Effectifs",
fill = "Age") +
scale_fill_brewer(palette = "Set3") +
theme_minimal()
plotly::ggplotly(p)
On représente les testés positifs par région :
test_region$region <- factor(test_region$region, levels = hosp_region$region)
test_by_region <- test_region %>%
filter(cl_age90 == 0) %>%
group_by(semaine, region) %>%
summarize(P = sum(P),
jour = max(jour)) %>%
group_by(semaine) %>%
mutate(percent_P = P / sum(P))
p <- ggplot(test_by_region) +
aes(x = jour, y = P, fill = factor(region)) +
geom_area(color = "black") +
labs(title = "Nombre de testés positifs par région",
x = "Week",
y = "Effectifs",
fill = "Region") +
scale_fill_brewer(palette = "Set3") +
theme_minimal()
plotly::ggplotly(p)
test_by_dep <- test_region %>%
filter(cl_age90 == 0) %>%
group_by(semaine, region, dep) %>%
summarize(P = sum(P),
jour = max(jour)) %>%
group_by(semaine) %>%
mutate(percent_P = P / sum(P))
p <- ggplot(data = test_by_dep,
aes(x = jour, y = P, color = region, group = dep)) +
geom_line() +
coord_cartesian(ylim = c(0, 20000)) +
facet_wrap(~ region)
plotly::ggplotly(p)
Hypothèse: on suppose que le nombre d’admis en hospitalisations à la semaine t0 dépend du nombre de cas testés positifs sur une fenêtre de 7 jours qui aura commencé 10 jours avant la semaine t0. Exemple: la semaine t0 est [25 novembre 2020; 01 décembre 2020], on va l’expliquer par le nombre de personnes testées positive du [15 novembre 2020; 21 novembre 2020].
On prépare ici les données pour l’étape de modélisation:
# On aggrège les données par département et semaine:
test_by <- test %>%
filter(cl_age90 != 0) %>%
group_by(dep, semaine, cl_age90) %>%
summarize(P = sum(P),
jour = max(jour)) %>%
group_by(dep, semaine) %>%
mutate(percent_P = P / sum(P))
# On passe d'un format long à un format wide les tranches d'âge pour les avoir comme des variables explicatives
test_by$cl_age90 <- paste0("tranche_", test_by$cl_age90)
test_long <- tidyr::pivot_wider(test_by,
id_cols = c("semaine", "dep", "jour", "P", "cl_age90"),
names_from = "cl_age90",
values_from = "P")
# On aggrège les données par département et semaine:
test_by <- test_long %>%
group_by(dep, semaine) %>%
summarize(tranche_9 = sum(tranche_9),
tranche_19 = sum(tranche_19),
tranche_29 = sum(tranche_29),
tranche_39 = sum(tranche_39),
tranche_49 = sum(tranche_49),
tranche_59 = sum(tranche_59),
tranche_69 = sum(tranche_69),
tranche_79 = sum(tranche_79),
tranche_89 = sum(tranche_89),
tranche_90 = sum(tranche_90)) %>%
mutate(tranche_0 = tranche_9 + tranche_19 + tranche_29 + tranche_39 +
tranche_49 + tranche_59 + tranche_69 + tranche_79 + tranche_89 + tranche_90)
# On merge les jeux de données :
my_basis <- merge(my_basis, test_by, by = c("dep", "semaine"), all.y = T)
my_basis[which(is.na(my_basis$jour)), "jour"] <- to_day + 6
my_basis[which(is.na(my_basis$region)), "region"] <- dep_region$region[match(my_basis[which(is.na(my_basis$region)), "dep"], dep_region$dep)]
Dans un premier temps, on va rerésenter les départements par des cercles de taille proportionnelle aux nombres de testés positifs la semaine du [15 novembre 2020; 21 novembre 2020]. La couleur dépend du nombre d’hospitalisations observés la semaine du [25 novembre 2020; 01 décembre 2020].
dep.2015_00 <- merge(dep.2015, filter(my_basis, semaine == "semaine_t00"),
by.x = "CODE_DEPT", by.y = "dep")
w <- 1 - (dep.2015_00$tranche_0 / max(dep.2015_00$tranche_0))
dep.2015_dorling <- cartogram_dorling(dep.2015_00, "tranche_0", m_weight = w, k = 5)
# dep.2015$tranche_0 <- as.numeric(dep.2015$tranche_0)
# dep.2015_ncont <- cartogram_ncont(dep.2015, "tranche_0")
# set figure margins and background color
par(mar = c(0, 0, 1.2, 0), bg = "lemonchiffon")
# Hospitalisations
bks <- c(0, getBreaks(v = dep.2015_00$hosp, method = "kmeans", nclass = 5))
# correct the breaks to use the global rate as limit of class
# get a color palette
cols <- carto.pal(pal1 = "green.pal", n1 = 3, pal2 = "wine.pal", n2 = 3)
choroLayer(spdf = dep.2015_dorling, var = "hosp", breaks = bks, col = cols, lwd = 0.5,
legend.title.txt = "Hospitalisations",
legend.pos = 'topleft', legend.values.rnd = 0)
# plot(dep.2015, add = T, border = "khaki")
# add a title and layout
layoutLayer(title = paste0("Nouvelles hospitalisations ",
paste0("[", format(to_day - 7, '%d %B %Y'), "; ", format(to_day - 1, '%d %B %Y'), "]")),
sources = "", north = TRUE, scale = 50, tabtitle = TRUE,
theme = "sand.pal", frame = FALSE,
author = "")
On représente le nombre de nouvelles hospitalisations par semaine et par département en fonction du nombre de personnes testées positives quelques jours auparavant et on constate un lien très fort.
On rappelle que les données sur le nombre de testés positifs ne sont disponible que jusqu’au 28 novembre 2020. Notre objectif est de prédire le nombre de testés positifs du 29 novembre 2020 au 05 décembre 2020 en utilisant des modèles de séries temporelles. En utilisant un modèle de série temporelle on suppose que ce qu’on observe à la date \(j\) dépend de ce qu’il s’est passé les dates antérieures. On va utiliser 3 modèles différents et en fonction de leur performence (sur les données passées), on va leur donner plus ou moins d’importance.
Ici, on considère les données journalières, et non hebdomadaires. On va expliquer \(y_{d, t}^a\), le nombre de testés positifs le jour \(t\) dans le département \(d\) et dans la tranche d’âge \(a\). La stratégie utilisée est la suivante :
on différencie chaque série pour les rendre stationnaire (on ne vérifiera pas l’hypothèse de stationarité après la différenciation car on modélise énormément de modèle, ici on a \(A\times D\) séries où \(A\) est le nombre de classe d’âge et \(D\) le nombre de département et notre but est d’avoir une procédure automatique)
on cherche le meilleur modèle \(ARIMA(p,d,q)\) selon le critère AIC, à l’aide de la fonction auto.arima() (package forecast)
on prédit sur les 7 prochains jours à venir et on cummule ces prédictions pour avoir une prédiction du nombre de cas positifs sur la semaine à venir.
On va appliquer deux modèles de lissage exponentiels:
un modèle journalier qui va permettre de modéliser \(y_{d, t}^a\), le nombre de testés positifs le jour \(t\) dans le département \(d\) et dans la tranche d’âge \(a\) afin de prédire le nombre de testés positifs dans les 7 jours.
un modèle hebdomadaire qui va permettre de modéliser \(y_{d, s}^a\), le nombre de testés positifs la semaine \(s\) dans le département \(d\) et dans la tranche d’âge \(a\) afin de prédire le nombre de testés positifs la semaine à venir.
On apprentit les modèles ci-dessus en enlevant la dernière semaine observée dans le but de donner des poids différents aux trois modèles de prédictions utilisés. Ainsi, on donnera davantage de poids aux modèles qui ont mieux prédit la dernière semaine observée.
# prediction par department
nom_dep <- my_basis[my_basis$semaine == "semaine_t00", "dep"]
pred_cas <- numeric(length(nom_dep))
my_tab <- data.frame(true_P = numeric(0), pred_1 = numeric(0), pred_2 = numeric(0), pred_3 = numeric(0))
# apprentissage
for (k in length(nom_dep):1) {
if (nom_dep[k] %in% c("975", "977", "978")) {
my_basis <- rbind(data_k, my_basis)
} else {
for (age in c(0, 9, 19, 29, 39, 49, 59, 69, 79, 89, 90)) {
# apprentissage
temp <- test[test$dep == nom_dep[k] & test$cl_age90 == age & test$jour <= max(test$jour) - 7, ]
my_ts <- zoo(temp$P, temp$jour)
# Methode 1 : ARIMA
my_ts_diff <- diff(my_ts)
# tseries::adf.test(my_ts)
# tseries::adf.test(my_ts_diff)
my_mod <- forecast::auto.arima(my_ts_diff)
forecast_my_mod <- as.numeric(forecast(my_mod)$mean)
pred_1 <- round(sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:7]), 0)
# Méthode 2 : lissage exponentiel
my_mod_exp <- ets(my_ts)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
pred_2 <- round(sum(forecast_my_mod_exp[1:7]), 0)
# Méthode 3 : lissage exponentiel sur données hebdomadaires
temp <- my_basis[my_basis$dep == nom_dep[k] & !(my_basis$semaine %in% c("semaine_t0-1", "semaine_t0-2")), ]
my_ts_exp <- zoo(temp[ , paste0("tranche_", age)], temp$jour)
my_mod_exp_2 <- ets(my_ts_exp)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp_2)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
pred_3 <- round(forecast_my_mod_exp[1], 0)
true_P <- sum(test[which(test$dep == nom_dep[k] & test$cl_age90 == age &
test$jour > (max(test$jour) - 7)), "P"])
my_tab <- rbind(my_tab, data.frame(true_P = true_P, pred_1 = pred_1, pred_2 = pred_2, pred_3 = pred_3))
}
}
}
res_lm_cas <- lm(true_P ~ pred_1 + pred_2 + pred_3, data = my_tab)
for (k in length(nom_dep):1) {
data_k <- data.frame(dep = nom_dep[k], semaine = "semaine_t0-2", hosp = NA, rea = NA, rad = NA, dc = NA,
jour = to_day + 13, region = dep_region[match(nom_dep[k], dep_region$dep) , "region"],
tranche_9 = NA, tranche_19 = NA, tranche_29 = NA, tranche_39 = NA, tranche_49 = NA,
tranche_59 = NA, tranche_69 = NA, tranche_79 = NA, tranche_89 = NA, tranche_90 = NA,
tranche_0 = NA)
data_k_2 <- data.frame(dep = nom_dep[k], semaine = "semaine_t0-2", hosp = NA, rea = NA, rad = NA, dc = NA,
jour = to_day + 13, region = dep_region[match(nom_dep[k], dep_region$dep) , "region"],
tranche_9 = NA, tranche_19 = NA, tranche_29 = NA, tranche_39 = NA, tranche_49 = NA,
tranche_59 = NA, tranche_69 = NA, tranche_79 = NA, tranche_89 = NA, tranche_90 = NA,
tranche_0 = NA)
if (nom_dep[k] %in% c("975", "977", "978")) {
my_basis <- rbind(data_k, my_basis)
} else {
for (age in c(0, 9, 19, 29, 39, 49, 59, 69, 79, 89, 90)) {
# modèle journaliers
temp <- test[test$dep == nom_dep[k] & test$cl_age90 == age, ]
my_ts <- zoo(temp$P, temp$jour)
my_ts_diff <- diff(my_ts)
# tseries::adf.test(my_ts)
# tseries::adf.test(my_ts_diff)
my_mod <- forecast::auto.arima(my_ts_diff)
forecast_my_mod <- as.numeric(forecast(my_mod)$mean)
pred_1 <- round(sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:7]), 0)
# modèles exponentiels
# Méthode 2 : lissage exponentiel
my_mod_exp <- ets(my_ts)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
pred_2 <- round(sum(forecast_my_mod_exp[1:7]), 0)
# Méthode 3 : lissage exponentiel sur données hebdomadaires
temp <- my_basis[my_basis$dep == nom_dep[k] & !(my_basis$semaine %in% c("semaine_t0-2")), ]
my_ts_exp <- zoo(temp[ , paste0("tranche_", age)], temp$jour)
my_mod_exp_2 <- ets(my_ts_exp)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp_2)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
pred_3 <- round(forecast_my_mod_exp[1], 0)
data_k[ , paste0("tranche_", age)] <- predict(res_lm_cas, newdata = data.frame(pred_1 = pred_1,
pred_2 = pred_2,
pred_3 = pred_3))
}
my_basis <- rbind(data_k, my_basis)
}
}
On représente les testés positifs par région en ajoutant les valeurs de la semaine prédite:
test_by_region <- my_basis %>%
group_by(semaine, region) %>%
summarize(P = sum(tranche_0),
jour = max(jour))
test_by_region$region <- factor(test_by_region$region, levels = hosp_region$region)
p <- ggplot(test_by_region) +
aes(x = jour - 10, y = P, fill = factor(region)) +
geom_area(color = "black") +
labs(title = "Prédictions du nombre de testés positifs par région",
x = "Week",
y = "Effectifs",
fill = "Region") +
scale_fill_brewer(palette = "Set3") +
theme_minimal()
plotly::ggplotly(p)
On aggrège les données à la France entière:
my_basis_fr <- my_basis %>%
group_by(semaine, jour) %>%
summarise(P = sum(tranche_0))
p <- ggplot(data = filter(my_basis_fr, semaine %in% c("semaine_t0-2", "semaine_t0-1", "semaine_t00")),
aes(x = jour - 10, y = P)) +
geom_line(col = "red") +
geom_line(data = filter(my_basis_fr, !(semaine %in% c("semaine_t0-2"))),
aes(x = jour - 10, y = P)) +
labs(title = "Prédiction des nouveaux cas positifs dans les 7 jours",
x = "semaine",
y = "Cas positifs",
fill = "Age")
plotly::ggplotly(p)
Ici, pour chaque région \(r\), le modèle est de la forme
\[y_{i,t}^r=\beta_0^r+\beta_1^rx_{i,t'}^r+\epsilon_{i,t}^r\] avec:
En d’autres termes, on fait ici un modèle de régression par région. Cela suppose que le lien entre les tests virologiques et le nombre d’hospitalisation est homogène à l’intérieur d’une région et peut différer d’une région à une autre.
Apprentissage:
On modélise sur les observations des semaines précédentes:
res_lm <- lm(hosp ~ region + tranche_0:region - 1,
data = my_basis[!(my_basis$semaine %in% c("semaine_t0-2", "semaine_t0-1", "semaine_t00")), ])
Dependent variable: | |
hosp | |
regionAuvergne-Rhône-Alpes | 8.093*** |
(1.624) | |
regionBourgogne-Franche-Comté | 3.740* |
(2.016) | |
regionBretagne | 1.458 |
(3.040) | |
regionCentre-Val de Loire | 3.918 |
(2.399) | |
regionCorse | 1.213 |
(4.338) | |
regionDOM-TOM | 1.856 |
(3.032) | |
regionGrand Est | 8.777*** |
(1.800) | |
regionHauts-de-France | 10.681*** |
(2.519) | |
regionIle-de-France | 21.279*** |
(2.304) | |
regionNormandie | 2.729 |
(2.607) | |
regionNouvelle-Aquitaine | 1.278 |
(1.664) | |
regionOccitanie | 1.143 |
(1.581) | |
regionPays de la Loire | 7.109*** |
(2.656) | |
regionProvence-Alpes-Côte d’Azur | 4.174* |
(2.365) | |
regionAuvergne-Rhône-Alpes:tranche_0 | 0.061*** |
(0.001) | |
regionBourgogne-Franche-Comté:tranche_0 | 0.070*** |
(0.002) | |
regionBretagne:tranche_0 | 0.050*** |
(0.004) | |
regionCentre-Val de Loire:tranche_0 | 0.054*** |
(0.004) | |
regionCorse:tranche_0 | 0.038* |
(0.020) | |
regionDOM-TOM:tranche_0 | 0.113*** |
(0.008) | |
regionGrand Est:tranche_0 | 0.057*** |
(0.002) | |
regionHauts-de-France:tranche_0 | 0.053*** |
(0.001) | |
regionIle-de-France:tranche_0 | 0.056*** |
(0.001) | |
regionNormandie:tranche_0 | 0.065*** |
(0.003) | |
regionNouvelle-Aquitaine:tranche_0 | 0.056*** |
(0.002) | |
regionOccitanie:tranche_0 | 0.053*** |
(0.002) | |
regionPays de la Loire:tranche_0 | 0.047*** |
(0.002) | |
regionProvence-Alpes-Côte d’Azur:tranche_0 | 0.084*** |
(0.001) | |
Observations | 2,727 |
R2 | 0.945 |
Adjusted R2 | 0.945 |
Residual Std. Error | 26.837 (df = 2699) |
F Statistic | 1,663.645*** (df = 28; 2699) |
Note: | p<0.1; p<0.05; p<0.01 |
On représente comme si on on avait fait un modèle par région pour faciliter la lecture des coefficients :
stargazer::stargazer(res_lm_r1, res_lm_r2, res_lm_r3, res_lm_r4, res_lm_r5, res_lm_r6, res_lm_r7,
res_lm_r8, res_lm_r9, res_lm_r10, res_lm_r11, res_lm_r12, res_lm_r13, res_lm_r14,
type = "html", column.labels = nom_region)
Dependent variable: | ||||||||||||||
hosp | ||||||||||||||
Auvergne-Rhône-Alpes | Hauts-de-France | Provence-Alpes-Côte d’Azur | Grand Est | Occitanie | Normandie | Nouvelle-Aquitaine | Centre-Val de Loire | Bourgogne-Franche-Comté | Bretagne | Corse | Pays de la Loire | Ile-de-France | DOM-TOM | |
(1) | (2) | (3) | (4) | (5) | (6) | (7) | (8) | (9) | (10) | (11) | (12) | (13) | (14) | |
tranche_0 | 0.061*** | 0.053*** | 0.084*** | 0.057*** | 0.053*** | 0.065*** | 0.056*** | 0.054*** | 0.070*** | 0.050*** | 0.038*** | 0.047*** | 0.056*** | 0.113*** |
(0.001) | (0.001) | (0.002) | (0.001) | (0.001) | (0.002) | (0.001) | (0.002) | (0.002) | (0.002) | (0.003) | (0.001) | (0.001) | (0.007) | |
Constant | 8.093*** | 10.681*** | 4.174 | 8.777*** | 1.143 | 2.729 | 1.278* | 3.918*** | 3.740** | 1.458 | 1.213* | 7.109*** | 21.279*** | 1.856 |
(2.148) | (3.207) | (4.765) | (1.296) | (0.713) | (1.841) | (0.770) | (1.263) | (1.642) | (1.431) | (0.629) | (1.557) | (3.747) | (2.667) | |
Observations | 324 | 135 | 162 | 270 | 351 | 135 | 324 | 162 | 216 | 108 | 54 | 135 | 216 | 135 |
R2 | 0.948 | 0.965 | 0.907 | 0.880 | 0.941 | 0.911 | 0.889 | 0.831 | 0.850 | 0.872 | 0.769 | 0.885 | 0.917 | 0.669 |
Adjusted R2 | 0.948 | 0.965 | 0.906 | 0.880 | 0.941 | 0.910 | 0.889 | 0.830 | 0.849 | 0.871 | 0.765 | 0.884 | 0.916 | 0.667 |
Residual Std. Error | 35.500 (df = 322) | 34.162 (df = 133) | 54.067 (df = 160) | 19.327 (df = 268) | 12.101 (df = 349) | 18.948 (df = 133) | 12.416 (df = 322) | 14.132 (df = 160) | 21.859 (df = 214) | 12.633 (df = 106) | 3.893 (df = 52) | 15.729 (df = 133) | 43.644 (df = 214) | 23.603 (df = 133) |
F Statistic | 5,857.681*** (df = 1; 322) | 3,648.641*** (df = 1; 133) | 1,558.369*** (df = 1; 160) | 1,971.368*** (df = 1; 268) | 5,607.916*** (df = 1; 349) | 1,359.947*** (df = 1; 133) | 2,588.393*** (df = 1; 322) | 784.817*** (df = 1; 160) | 1,213.378*** (df = 1; 214) | 724.342*** (df = 1; 106) | 173.342*** (df = 1; 52) | 1,018.846*** (df = 1; 133) | 2,355.355*** (df = 1; 214) | 269.066*** (df = 1; 133) |
Note: | p<0.1; p<0.05; p<0.01 |
Test:
On teste le modèle sur les données de la semaine actuelle:
plot(pred_1, my_basis[my_basis$semaine == "semaine_t00", "hosp"],
xlab = "valeurs prédites", ylab = "valeurs observées")
abline(a = 0, b = 1)
text(pred_1, my_basis[my_basis$semaine == "semaine_t00", "hosp"],
my_basis[my_basis$semaine == "semaine_t00", "dep"], pos = 2)
L’écart quadratique moyen est égal ici à :
## [1] 2011.547
Ici, on va faire un modèle qui prend en compte les classes d’âges. Les données d’hospitalisation par classe d’âge ne sont disponibles que par région. Le modèle est de la forme
\[y_{i,t}^a=\beta_0^a+\beta_1^ax_{i,t'}^a+\epsilon_{i,t}^a\] avec:
\(y_{i,t}\) le nombre d’entrées de la classe d’âge \(a\) à l’hôpital dans la région \(i\) sur la période \(t\), où \(t\) est une fenêtre de 7 jours.
\(x_{i,t'}\) est le nombre de testés positifs de la classe d’âge \(a\) dans la région \(i\) sur la période \(t'\) où \(t'\) correspond à la fenêtre \(t\), décalé de 10 jours.
En d’autres termes, on fait ici un modèle de régression par classe d’âge, toute région confondue. Cela suppose que le lien entre les tests virologiques et le nombre d’hospitalisation est homogène dans une classe d’âge quelque soit les régions.
On merge avec le nombre de test positifs:
# débord on aggrège le nombre de testés positifs par région
test_by <- merge(test_by, dep_region, by = "dep")
test_reg <- aggregate(test_by[, c("tranche_9", "tranche_19", "tranche_29", "tranche_39",
"tranche_49", "tranche_59", "tranche_69", "tranche_79",
"tranche_89", "tranche_90", "tranche_0")],
by = list(
semaine = test_by$semaine,
region = test_by$region), FUN = sum)
# ensuite, on fait le merge
my_basis_age_wide <- merge(my_basis_age_wide, test_reg, by = c("semaine", "region"))
Apprentissage:
On modélise sur les observations des semaines précédentes et on représente les résultats tranche d’âge par tranche d’âge
apprentissage_sample <- my_basis_age_wide[!(my_basis_age_wide$semaine %in%
c("semaine_t0-2", "semaine_t0-1", "semaine_t00")), ]
res_lm_9 <- lm(hosp_9 ~ tranche_9, data = apprentissage_sample)
res_lm_19 <- lm(hosp_19 ~ tranche_19, data = apprentissage_sample)
res_lm_29 <- lm(hosp_29 ~ tranche_29, data = apprentissage_sample)
res_lm_39 <- lm(hosp_39 ~ tranche_39, data = apprentissage_sample)
res_lm_49 <- lm(hosp_49 ~ tranche_49, data = apprentissage_sample)
res_lm_59 <- lm(hosp_59 ~ tranche_59, data = apprentissage_sample)
res_lm_69 <- lm(hosp_69 ~ tranche_69, data = apprentissage_sample)
res_lm_79 <- lm(hosp_79 ~ tranche_79, data = apprentissage_sample)
res_lm_89 <- lm(hosp_89 ~ tranche_89, data = apprentissage_sample)
res_lm_90 <- lm(hosp_90 ~ tranche_90, data = apprentissage_sample)
stargazer::stargazer(res_lm_9, res_lm_19, res_lm_29, res_lm_39, res_lm_49, res_lm_59,
res_lm_69, res_lm_79, res_lm_89, res_lm_90, type = "html")
Dependent variable: | ||||||||||
hosp_9 | hosp_19 | hosp_29 | hosp_39 | hosp_49 | hosp_59 | hosp_69 | hosp_79 | hosp_89 | hosp_90 | |
(1) | (2) | (3) | (4) | (5) | (6) | (7) | (8) | (9) | (10) | |
tranche_9 | 0.020*** | |||||||||
(0.001) | ||||||||||
tranche_19 | 0.004*** | |||||||||
(0.0002) | ||||||||||
tranche_29 | 0.008*** | |||||||||
(0.0002) | ||||||||||
tranche_39 | 0.014*** | |||||||||
(0.0003) | ||||||||||
tranche_49 | 0.022*** | |||||||||
(0.0004) | ||||||||||
tranche_59 | 0.045*** | |||||||||
(0.001) | ||||||||||
tranche_69 | 0.103*** | |||||||||
(0.002) | ||||||||||
tranche_79 | 0.218*** | |||||||||
(0.004) | ||||||||||
tranche_89 | 0.336*** | |||||||||
(0.006) | ||||||||||
tranche_90 | 0.275*** | |||||||||
(0.007) | ||||||||||
Constant | 0.944*** | 1.056*** | 2.860*** | 3.993*** | 4.750*** | 5.583*** | 8.363*** | 10.680*** | 15.047*** | 9.169*** |
(0.279) | (0.249) | (0.482) | (0.557) | (0.708) | (1.204) | (1.672) | (2.756) | (3.114) | (1.870) | |
Observations | 378 | 378 | 378 | 378 | 378 | 378 | 378 | 378 | 378 | 378 |
R2 | 0.519 | 0.515 | 0.743 | 0.842 | 0.882 | 0.908 | 0.924 | 0.884 | 0.887 | 0.824 |
Adjusted R2 | 0.518 | 0.513 | 0.742 | 0.841 | 0.882 | 0.908 | 0.924 | 0.884 | 0.887 | 0.823 |
Residual Std. Error (df = 376) | 4.778 | 4.315 | 8.334 | 9.836 | 12.529 | 21.326 | 29.629 | 48.897 | 55.555 | 33.548 |
F Statistic (df = 1; 376) | 406.066*** | 398.542*** | 1,086.414*** | 2,001.116*** | 2,819.511*** | 3,731.155*** | 4,560.997*** | 2,874.469*** | 2,952.572*** | 1,757.034*** |
Note: | p<0.1; p<0.05; p<0.01 |
Test:
On teste le modèle sur les données de la semaine actuelle. On revient sur les données départementales, on suppose donc que les modèles estimés pour chaque tranche d’âge sur les régions est valable aussi pour les départements.
test_sample <- my_basis[my_basis$semaine == "semaine_t00", ]
pred_9 <- predict(res_lm_9, newdata = test_sample)
pred_19 <- predict(res_lm_19, newdata = test_sample)
pred_29 <- predict(res_lm_29, newdata = test_sample)
pred_39 <- predict(res_lm_39, newdata = test_sample)
pred_49 <- predict(res_lm_49, newdata = test_sample)
pred_59 <- predict(res_lm_59, newdata = test_sample)
pred_69 <- predict(res_lm_69, newdata = test_sample)
pred_79 <- predict(res_lm_79, newdata = test_sample)
pred_89 <- predict(res_lm_89, newdata = test_sample)
pred_90 <- predict(res_lm_90, newdata = test_sample)
On a donc une prédiction par tranche d’âge et pour obtenir la prédiction finale, il faut donc faire la somme sur les différentes prédictions :
pred_2 <- pred_9 + pred_19 + pred_29 + pred_39 + pred_49 + pred_59 + pred_69 +
pred_79 + pred_89 + pred_90
plot(pred_2, my_basis[my_basis$semaine == "semaine_t00", "hosp"],
xlab = "valeurs prédites", ylab = "valeurs observées")
abline(a = 0, b = 1)
text(pred_2, my_basis[my_basis$semaine == "semaine_t00", "hosp"],
my_basis[my_basis$semaine == "semaine_t00", "dep"], pos = 2)
L’écart quadratique moyen est égal ici à :
## [1] 4081.034
On utilise la même stratégie que celle présentée pour prédire le nombre de cas positifs.
Etape d’apprentissage : on entraîne l’agorithme sur les données passées en enlevant la dernière semaine observée et on prédit sur cette semaine afin de calculer les écarts quadratiques avec les valeurs observées.
nom_dep <- my_basis[my_basis$semaine == "semaine_t00", "dep"]
pred_3a <- numeric(length(nom_dep))
pred_3b <- numeric(length(nom_dep))
pred_3c <- numeric(length(nom_dep))
for (k in 1:length(nom_dep)) {
temp <- hospital[!(hospital$semaine %in% c("semaine_t0-2", "semaine_t0-1", "semaine_t00")) &
hospital$dep == nom_dep[k], ]
my_ts <- zoo(temp$incid_hosp, temp$jour)
my_ts_diff <- diff(my_ts)
# tseries::adf.test(my_ts)
# tseries::adf.test(my_ts_diff)
if (nom_dep[k] %in% c("975", "977", "978")) {
pred_3[k] <- NA
} else {
my_mod <- forecast::auto.arima(my_ts_diff)
forecast_my_mod <- as.numeric(forecast(my_mod)$mean)
pred_3a[k] <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:7])
# modèles exponentiels
# Méthode 2 : lissage exponentiel
my_mod_exp <- ets(my_ts)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
pred_3b[k] <- round(sum(forecast_my_mod_exp[1:7]), 0)
# Méthode 3 : lissage exponentiel sur données hebdomadaires
temp <- my_basis[my_basis$dep == nom_dep[k] & !(my_basis$semaine %in%
c("semaine_t0-2", "semaine_t0-1", "semaine_t00")), ]
my_ts_exp <- zoo(temp$hosp, temp$jour)
my_mod_exp_2 <- ets(my_ts_exp)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp_2)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
pred_3c[k] <- round(forecast_my_mod_exp[1], 0)
}
}
On obtient le graphique suivant de valeurs prédites/valeurs observées :
op <- par(mfrow = c(1, 3), oma = c(0, 0, 0, 0))
plot(pred_3a, my_basis[my_basis$semaine == "semaine_t00", "hosp"],
xlab = "valeurs prédites", ylab = "valeurs observées", main = "Box-Jenkins")
abline(a = 0, b = 1)
text(pred_3a, my_basis[my_basis$semaine == "semaine_t00", "hosp"],
my_basis[my_basis$semaine == "semaine_t00", "dep"], pos = 2)
plot(pred_3b, my_basis[my_basis$semaine == "semaine_t00", "hosp"],
xlab = "valeurs prédites", ylab = "valeurs observées", main = "Lissage exponentiel journalier")
abline(a = 0, b = 1)
text(pred_3b, my_basis[my_basis$semaine == "semaine_t00", "hosp"],
my_basis[my_basis$semaine == "semaine_t00", "dep"], pos = 2)
plot(pred_3c, my_basis[my_basis$semaine == "semaine_t00", "hosp"],
xlab = "valeurs prédites", ylab = "valeurs observées", main = "Lissage exponentiel hebdomadaire")
abline(a = 0, b = 1)
text(pred_3c, my_basis[my_basis$semaine == "semaine_t00", "hosp"],
my_basis[my_basis$semaine == "semaine_t00", "dep"], pos = 2)
L’écart quadratique moyen est égal ici à :
c(mean((pred_3a - my_basis[my_basis$semaine == "semaine_t00", "hosp"]) ^ 2, na.rm = T),
mean((pred_3b - my_basis[my_basis$semaine == "semaine_t00", "hosp"]) ^ 2, na.rm = T),
mean((pred_3c - my_basis[my_basis$semaine == "semaine_t00", "hosp"]) ^ 2, na.rm = T)
)
## [1] 1596.864 1336.871 3222.713
Les 3 prédictions sont très proches et on va choisir un algorithme de type stepwise sur les prédictions pour choisir la meilleure combinaison des modèles de séries temporelles.
## Start: AIC=644.66
## my_basis[my_basis$semaine == "semaine_t00", "hosp"] ~ pred_3a +
## pred_3b + pred_3c - 1
##
## Df Sum of Sq RSS AIC
## - pred_3b 1 218.6 56518 643.05
## <none> 56300 644.66
## - pred_3c 1 7721.6 64021 655.64
## - pred_3a 1 10299.5 66599 659.62
##
## Step: AIC=643.05
## my_basis[my_basis$semaine == "semaine_t00", "hosp"] ~ pred_3a +
## pred_3c - 1
##
## Df Sum of Sq RSS AIC
## <none> 56518 643.05
## - pred_3c 1 7724.5 64243 653.99
## - pred_3a 1 11178.2 67697 659.27
pred_3 <- predict(lm_3_ts)
mean((pred_3 - na.omit(my_basis[my_basis$semaine == "semaine_t00", "hosp"])) ^ 2)
## [1] 559.5872
On a donc 3 prédictions obtenues selon :
Combinaison des prédictions:
lm_3 <- lm(my_basis[my_basis$semaine == "semaine_t00", "hosp"] ~ pred_1 + pred_2 + pred_3 - 1)
mean((predict(lm_3) - na.omit(my_basis[my_basis$semaine == "semaine_t00", "hosp"])) ^ 2)
## [1] 516.5448
## Start: AIC=1414.52
## y_true ~ pred_3a_s2 + pred_3b_s2 + pred_3c_s2 - 1
##
##
## Step: AIC=1414.52
## y_true ~ pred_3a_s2 + pred_3b_s2 - 1
##
##
## Step: AIC=1414.52
## y_true ~ pred_3a_s2 - 1
##
## Df Sum of Sq RSS AIC
## <none> 219905 1414.5
## - pred_3a_s2 1 4239289 4459194 2020.5
On prédit le nombre d’hospitalisations :
du [02 décembre 2020; 08 décembre 2020] en utilisant les vrais valeurs du nombre de testé positifs la semaine du [22 novembre 2020; 28 novembre 2020].
du [09 décembre 2020; 15 décembre 2020] en utilisant les valeurs prédites du nombre de testé positifs la semaine du [29 novembre 2020; 05 décembre 2020].
Avant de faire cela, on actualise en incluant dans l’étape d’apprentissage les données de la dernière semaine observée:
# modèle 1
res_lm <- lm(hosp ~ tranche_0, data = my_basis[!(my_basis$semaine %in% "semaine_t0-1"), ])
# modèle 2
apprentissage_sample <- my_basis_age_wide[!(my_basis_age_wide$semaine %in%
c("semaine_t0-1")), ]
res_lm_9 <- lm(hosp_9 ~ tranche_9, data = apprentissage_sample)
res_lm_19 <- lm(hosp_19 ~ tranche_19, data = apprentissage_sample)
res_lm_29 <- lm(hosp_29 ~ tranche_29, data = apprentissage_sample)
res_lm_39 <- lm(hosp_39 ~ tranche_39, data = apprentissage_sample)
res_lm_49 <- lm(hosp_49 ~ tranche_49, data = apprentissage_sample)
res_lm_59 <- lm(hosp_59 ~ tranche_59, data = apprentissage_sample)
res_lm_69 <- lm(hosp_69 ~ tranche_69, data = apprentissage_sample)
res_lm_79 <- lm(hosp_79 ~ tranche_79, data = apprentissage_sample)
res_lm_89 <- lm(hosp_89 ~ tranche_89, data = apprentissage_sample)
res_lm_90 <- lm(hosp_90 ~ tranche_90, data = apprentissage_sample)
# On prédit avec la méthode 1
new_data <- my_basis[my_basis$semaine %in% c("semaine_t0-1", "semaine_t0-2"), ]
pred_1 <- predict(res_lm, newdata = new_data)
# On prédit avec la méthode 2
test_sample <- my_basis[my_basis$semaine %in% c("semaine_t0-1", "semaine_t0-2"), ]
pred_9 <- predict(res_lm_9, newdata = test_sample)
pred_19 <- predict(res_lm_19, newdata = test_sample)
pred_29 <- predict(res_lm_29, newdata = test_sample)
pred_39 <- predict(res_lm_39, newdata = test_sample)
pred_49 <- predict(res_lm_49, newdata = test_sample)
pred_59 <- predict(res_lm_59, newdata = test_sample)
pred_69 <- predict(res_lm_69, newdata = test_sample)
pred_79 <- predict(res_lm_79, newdata = test_sample)
pred_89 <- predict(res_lm_89, newdata = test_sample)
pred_90 <- predict(res_lm_90, newdata = test_sample)
pred_2 <- pred_9 + pred_19 + pred_29 + pred_39 + pred_49 + pred_59 + pred_69 +
pred_79 + pred_89 + pred_90
# on prédit avec le modèle 3, mais on actualise les prédictions semaine par semaine
pred_3 <- matrix(0, length(nom_dep), 2)
for (k in 1:length(nom_dep)) {
if (nom_dep[k] %in% c("975", "977", "978")) {
pred_3[k, ] <- NA
} else {
temp <- hospital[!(hospital$semaine %in% c("semaine_t0-2", "semaine_t0-1")) &
hospital$dep == nom_dep[k], ]
my_ts <- zoo(temp$incid_hosp, temp$jour)
my_ts_diff <- diff(my_ts)
# tseries::adf.test(my_ts)
# tseries::adf.test(my_ts_diff)
# predictions à 7 jours
my_mod <- forecast::auto.arima(my_ts_diff)
forecast_my_mod <- as.numeric(forecast(my_mod, h = 14)$mean)
pred_3a_s1 <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:7])
# prediction à 14 jours
pred_3a_s2 <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:14]) - pred_3a_s1
# Lissage exponentiel
my_mod_exp <- ets(my_ts)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp, h = 14)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
pred_3b_s1 <- round(sum(forecast_my_mod_exp[1:7]), 0)
pred_3b_s2 <- round(sum(forecast_my_mod_exp[1:14]), 0) - pred_3b_s1
# Méthode 3 : lissage exponentiel sur données hebdomadaires
temp <- my_basis[my_basis$dep == nom_dep[k] & !(my_basis$semaine %in%
c("semaine_t0-2", "semaine_t0-1")), ]
my_ts_exp <- zoo(temp$hosp, temp$jour)
my_mod_exp_2 <- ets(my_ts_exp)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp_2)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
pred_3c_s1 <- round(forecast_my_mod_exp[1], 0)
pred_3c_s2 <- round(forecast_my_mod_exp[2], 0)
# prédictions des time series
pred_3[k, 1] <- predict(lm_3_ts, newdata = data.frame(pred_3a = pred_3a_s1,
pred_3b = pred_3b_s1,
pred_3c = pred_3c_s1))
# prediction à 14 jours
pred_3[k, 2] <- predict(lm_3b_ts, newdata = data.frame(pred_3a_s2 = pred_3a_s2,
pred_3b_s2 = pred_3b_s2,
pred_3c_s2 = pred_3c_s2))
}
}
pred_3 <- as.vector(pred_3)
# On fait le mélande des deux prédictions
res_pred_a <- predict(lm_3, newdata = data.frame(pred_1 = pred_1[new_data$semaine == "semaine_t0-1"],
pred_2 = pred_2[test_sample$semaine == "semaine_t0-1"],
pred_3 = pred_3[1:(length(pred_3) / 2)]))
res_pred_b <- predict(lm_3b, newdata = data.frame(
pred_1_s2 = pred_1[new_data$semaine == "semaine_t0-2"],
pred_2_s2 = pred_2[test_sample$semaine == "semaine_t0-2"],
pred_3_s2 = pred_3[((length(pred_3) / 2) + 1):length(pred_3)]))
new_data <- my_basis[my_basis$semaine %in% "semaine_t0-1", ]
my_basis[my_basis$semaine %in% "semaine_t0-1", "hosp"] <- res_pred_a
my_basis[my_basis$semaine %in% "semaine_t0-2", "hosp"] <- res_pred_b
new_data$next_week <- res_pred_a
new_data$next_two_week <- res_pred_b
On va représenter l’évolution du nombre de nouveaux patients hospitalisés dans un intervalle de temps de 4 semaines :
new_data[, "last_week"] <- my_basis[my_basis$semaine == "semaine_t01", "hosp"]
new_data[, "this_week"] <- my_basis[my_basis$semaine == "semaine_t00", "hosp"]
new_data_long <- tidyr::pivot_longer(data = select(new_data, dep, region, last_week, this_week, next_week, next_two_week),
col = 3:6,
names_to = "semaine",
values_to = "hospitalisations")
new_data_long$semaine <- factor(new_data_long$semaine,
levels = c("last_week", "this_week", "next_week", "next_two_week"),
labels = c(paste0("[", format(to_day - 14, '%d %b'), "; ",
format(to_day - 8, '%d %b'), "]"),
paste0("[", format(to_day - 7, '%d %b'), "; ",
format(to_day - 1, '%d %b'), "]"),
paste0("[", format(to_day, '%d %b'), "; ",
format(to_day + 6, '%d %b'), "]"),
paste0("[", format(to_day + 7, '%d %b'), "; ",
format(to_day + 13, '%d %b'), "]"))
)
# On ajoute aux données de la semaine dernière :
new_data_long$region <- factor(new_data_long$region, levels = hosp_region$region)
p <- ggplot(new_data_long, aes(x = semaine, y = hospitalisations, group = dep))+
geom_line() +
facet_wrap(~region)
plotly::ggplotly(p)
On aggrège les données à la France entière:
my_basis_fr <- my_basis %>%
group_by(semaine, jour) %>%
summarise(hosp = sum(hosp),
rea = sum(rea),
dc = sum(dc))
p <- ggplot(data = filter(my_basis_fr, semaine %in% c("semaine_t0-2", "semaine_t0-1", "semaine_t00")),
aes(x = jour, y = hosp)) +
geom_line(col = "red") +
geom_line(data = filter(my_basis_fr, !(semaine %in% c("semaine_t0-2", "semaine_t0-1"))),
aes(x = jour, y = hosp)) +
labs(title = "Prédiction des nouvelles hospitalisations dans les 14 jours",
x = "semaine",
y = "hospitalisations",
fill = "Age")
plotly::ggplotly(p)
L’idée est d’expliquer le nombre de nouvelles réanimations la semaine \(t\) par le nombre de nouvelles hospitalisations la semaine \(t-1\).
Ainsi on sera en mesure de prédire le nombre de nouvelles réanimations d’une part la semaine à venir, mais aussi la semaine d’après si on utilise les prédictions du nombre d’hospitalisation la semaine à venir.
On prépare les données et on représente le nombre de nouvelles réanimations par semaine et par département en fonction du nombre de nouvelles hospitalisations la semaine d’avant et on constate un lien très fort.
my_basis_temp <- my_basis %>%
filter(semaine == "semaine_t0-2")
my_basis_temp$hosp <- NA
my_basis_temp$semaine <- "semaine_t0-3"
my_basis_temp$jour <- my_basis_temp$jour + 7
my_basis_temp[, paste0("tranche_", c(9, 19, 29, 39, 49, 59, 69, 79, 89, 90, 0))] <- NA
my_basis <- rbind(my_basis_temp, my_basis)
my_basis_rea <- my_basis %>%
select(dep, semaine, jour, region, rea)
temp_hosp <- my_basis %>%
select(dep, jour, hosp) %>%
mutate(jour = jour + 7)
my_basis_rea <- merge(my_basis_rea, temp_hosp, by = c("jour", "dep"), all.x = T)
my_basis_rea <- my_basis_rea %>%
as.data.frame
my_basis_rea <- my_basis_rea[order(my_basis_rea$jour, decreasing = T), ]
p <- ggplot(my_basis_rea) +
aes(x = hosp, y = rea) +
geom_point() +
geom_smooth(method = "loess") +
geom_smooth(method = "lm",
col = "red") +
facet_wrap(~ region)
plotly::ggplotly(p)
On ne va faire que deux modèles :
un modèle régional où on explique les nouvelles réanimations des départements au sein d’une même région.
un modèle de série temporelles où on explique dans un département les réanimations à l’instant \(t\) par les valeurs du passé.
On n’utilise pas le modèle qui utilise les classes d’âges car c’est difficile d’avoir le nombre de nouvelles réanimations par jour/département par classe d’âge. Il se peut donc que les prédictions soient sous-estimées dans le cas où la distribution des patients hospitalisés agés évolue positivement au cours du temps.
Apprentissage:
On modélise sur les observations des semaines précédentes:
res_lm_rea_1 <- lm(rea ~ region + hosp:region - 1,
data = my_basis_rea[!(my_basis_rea$semaine %in% c("semaine_t0-2", "semaine_t0-1", "semaine_t00")), ])
Dependent variable: | |
rea | |
regionAuvergne-Rhône-Alpes | 0.026 |
(0.407) | |
regionBourgogne-Franche-Comté | 0.545 |
(0.503) | |
regionBretagne | 0.860 |
(0.749) | |
regionCentre-Val de Loire | 0.383 |
(0.606) | |
regionCorse | 0.230 |
(1.115) | |
regionDOM-TOM | 2.057*** |
(0.718) | |
regionGrand Est | 0.113 |
(0.468) | |
regionHauts-de-France | 0.859 |
(0.636) | |
regionIle-de-France | 0.194 |
(0.596) | |
regionNormandie | 0.318 |
(0.647) | |
regionNouvelle-Aquitaine | 0.298 |
(0.412) | |
regionOccitanie | 0.289 |
(0.393) | |
regionPays de la Loire | 0.571 |
(0.689) | |
regionProvence-Alpes-Côte d’Azur | 0.165 |
(0.585) | |
regionAuvergne-Rhône-Alpes:hosp | 0.152*** |
(0.002) | |
regionBourgogne-Franche-Comté:hosp | 0.133*** |
(0.008) | |
regionBretagne:hosp | 0.128*** |
(0.018) | |
regionCentre-Val de Loire:hosp | 0.164*** |
(0.016) | |
regionCorse:hosp | 0.159 |
(0.113) | |
regionDOM-TOM:hosp | 0.093*** |
(0.014) | |
regionGrand Est:hosp | 0.150*** |
(0.008) | |
regionHauts-de-France:hosp | 0.182*** |
(0.003) | |
regionIle-de-France:hosp | 0.186*** |
(0.003) | |
regionNormandie:hosp | 0.142*** |
(0.009) | |
regionNouvelle-Aquitaine:hosp | 0.144*** |
(0.010) | |
regionOccitanie:hosp | 0.205*** |
(0.007) | |
regionPays de la Loire:hosp | 0.148*** |
(0.013) | |
regionProvence-Alpes-Côte d’Azur:hosp | 0.153*** |
(0.003) | |
Observations | 2,626 |
R2 | 0.891 |
Adjusted R2 | 0.890 |
Residual Std. Error | 6.574 (df = 2598) |
F Statistic | 756.604*** (df = 28; 2598) |
Note: | p<0.1; p<0.05; p<0.01 |
Test:
On teste le modèle sur les données de la semaine actuelle:
pred_rea_1 <- predict(res_lm_rea_1, newdata = my_basis_rea[my_basis_rea$semaine == "semaine_t00", ])
plot(pred_rea_1, my_basis_rea[my_basis_rea$semaine == "semaine_t00", "rea"],
xlab = "valeurs prédites", ylab = "valeurs observées")
abline(a = 0, b = 1)
text(pred_rea_1, my_basis_rea[my_basis_rea$semaine == "semaine_t00", "rea"],
my_basis_rea[my_basis_rea$semaine == "semaine_t00", "dep"], pos = 2)
L’écart quadratique moyen est égal ici à :
## [1] 117.7583
On utilise la même stratégie que celle présentée pour prédire le nombre de nouveaux cas positifs et de nouvelles réanimations.
Etape d’apprentissage : on entraîne l’agorithme sur les données passées en enlevant la dernière semaine observée et on prédit sur cette semaine afin de calculer les écarts quadratiques avec les valeurs observées.
nom_dep <- my_basis_rea[my_basis_rea$semaine == "semaine_t00", "dep"]
pred_rea_2a <- numeric(length(nom_dep))
pred_rea_2b <- numeric(length(nom_dep))
pred_rea_2c <- numeric(length(nom_dep))
for (k in 1:length(nom_dep)) {
temp <- hospital[!(hospital$semaine %in% c("semaine_t0-2", "semaine_t0-1", "semaine_t00")) &
hospital$dep == nom_dep[k], ]
my_ts <- zoo(temp$incid_rea, temp$jour)
my_ts_diff <- diff(my_ts)
# tseries::adf.test(my_ts)
# tseries::adf.test(my_ts_diff)
if (nom_dep[k] %in% c("975", "977", "978")) {
pred_rea_2[k] <- NA
} else {
# box jenkins
my_mod <- forecast::auto.arima(my_ts_diff)
forecast_my_mod <- as.numeric(forecast(my_mod)$mean)
pred_rea_2a[k] <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:7])
# modèles exponentiels
# Méthode 2 : lissage exponentiel
my_mod_exp <- ets(my_ts)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
pred_rea_2b[k] <- round(sum(forecast_my_mod_exp[1:7]), 0)
# Méthode 3 : lissage exponentiel sur données hebdomadaires
temp <- my_basis[my_basis$dep == nom_dep[k] & !(my_basis$semaine %in%
c("semaine_t0-3", "semaine_t0-2", "semaine_t0-1", "semaine_t00")), ]
my_ts_exp <- zoo(temp$rea, temp$jour)
my_mod_exp_2 <- ets(my_ts_exp)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp_2)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
pred_rea_2c[k] <- round(forecast_my_mod_exp[1], 0)
}
}
On observe le graphique des valeurs prédites/valeurs observées :
op <- par(mfrow = c(1, 3), oma = c(0, 0, 0, 0))
plot(pred_rea_2a, my_basis_rea[my_basis_rea$semaine == "semaine_t00", "rea"],
xlab = "valeurs prédites", ylab = "valeurs observées", main = "Box-Jenkins")
abline(a = 0, b = 1)
text(pred_rea_2a, my_basis_rea[my_basis_rea$semaine == "semaine_t00", "rea"],
my_basis_rea[my_basis_rea$semaine == "semaine_t00", "dep"], pos = 2)
plot(pred_rea_2b, my_basis_rea[my_basis_rea$semaine == "semaine_t00", "rea"],
xlab = "valeurs prédites", ylab = "valeurs observées", main = "Lissage exponentiel journalier")
abline(a = 0, b = 1)
text(pred_rea_2b, my_basis_rea[my_basis_rea$semaine == "semaine_t00", "rea"],
my_basis_rea[my_basis_rea$semaine == "semaine_t00", "dep"], pos = 2)
plot(pred_rea_2c, my_basis_rea[my_basis_rea$semaine == "semaine_t00", "rea"],
xlab = "valeurs prédites", ylab = "valeurs observées", main = "Lissage exponentiel hebdomadaire")
abline(a = 0, b = 1)
text(pred_rea_2c, my_basis_rea[my_basis_rea$semaine == "semaine_t00", "rea"],
my_basis_rea[my_basis_rea$semaine == "semaine_t00", "dep"], pos = 2)
L’écart quadratique moyen est égal ici à :
c(mean((pred_rea_2a - my_basis_rea[my_basis_rea$semaine == "semaine_t00", "rea"]) ^ 2, na.rm = T),
mean((pred_rea_2b - my_basis_rea[my_basis_rea$semaine == "semaine_t00", "rea"]) ^ 2, na.rm = T),
mean((pred_rea_2c - my_basis_rea[my_basis_rea$semaine == "semaine_t00", "rea"]) ^ 2, na.rm = T)
)
## [1] 71.87161 59.02970 140.40594
Les 3 prédictions sont très proches et on va choisir un algorithme de type stepwise sur les prédictions pour choisir la meilleure combinaison et ne conserver qu’une seule prédiction basée sur les séries temporelles:
lm_2_rea_ts <- step(lm(my_basis[my_basis$semaine == "semaine_t00", "rea"] ~
pred_rea_2a + pred_rea_2b + pred_rea_2c - 1))
## Start: AIC=316.95
## my_basis[my_basis$semaine == "semaine_t00", "rea"] ~ pred_rea_2a +
## pred_rea_2b + pred_rea_2c - 1
##
## Df Sum of Sq RSS AIC
## - pred_rea_2b 1 30.418 2225.2 316.34
## <none> 2194.8 316.95
## - pred_rea_2a 1 212.839 2407.6 324.30
## - pred_rea_2c 1 274.148 2468.9 326.84
##
## Step: AIC=316.34
## my_basis[my_basis$semaine == "semaine_t00", "rea"] ~ pred_rea_2a +
## pred_rea_2c - 1
##
## Df Sum of Sq RSS AIC
## <none> 2225.2 316.34
## - pred_rea_2a 1 204.57 2429.8 323.22
## - pred_rea_2c 1 266.53 2491.7 325.77
pred_rea_2 <- predict(lm_2_rea_ts)
mean((pred_rea_2 - na.omit(my_basis[my_basis$semaine == "semaine_t00", "rea"])) ^ 2)
## [1] 22.03158
Combinaison des prédictions: on peut envisager de faire un panaché des deux prédictions. Autrement dit, on fait un modèle linéaire (avec une procédure stepwise) du nombre de réanimations observée la semaine t0 en fonction des 2 méthodes de prédictions. On obtient l’écart-quadratique moyen suivant:
lm_rea_3 <- lm(my_basis_rea[my_basis_rea$semaine == "semaine_t00", "rea"] ~
pred_rea_1 + pred_rea_2 - 1)
mean((predict(lm_rea_3) - na.omit(my_basis_rea[my_basis_rea$semaine == "semaine_t00", "rea"])) ^ 2)
## [1] 22.03009
On adapte le poids des prédictions en fonction de la semaine à prédire
semaine_to_drop <- c("semaine_t0-3", "semaine_t0-2", "semaine_t0-1", "semaine_t00")
pred_rea_1_s2 <- numeric(0)
pred_rea_2a_s2 <- numeric(0)
pred_rea_2b_s2 <- numeric(0)
pred_rea_2c_s2 <- numeric(0)
pred_rea_1_s3 <- numeric(0)
pred_rea_2a_s3 <- numeric(0)
pred_rea_2b_s3 <- numeric(0)
pred_rea_2c_s3 <- numeric(0)
y_true <- numeric(0)
for (j in 0:1) {
semaine_to_estim <- paste0("semaine_t0", j)
y_true <- c(y_true, my_basis[my_basis$semaine == semaine_to_estim, "rea"])
semaine_to_drop <- c(semaine_to_drop, paste0("semaine_t0", j + 1))
res_lm_rea_1 <- lm(rea ~ region + hosp:region - 1,
data = my_basis_rea[!(my_basis_rea$semaine %in% semaine_to_drop), ])
pred_rea_1_s2 <- c(pred_rea_1_s2,
round(predict(res_lm_rea_1, newdata = my_basis_rea[my_basis_rea$semaine == semaine_to_estim, ])))
pred_rea_2a_temp <- numeric(length(nom_dep))
pred_rea_2b_temp <- numeric(length(nom_dep))
pred_rea_2c_temp <- numeric(length(nom_dep))
for (k in 1:length(nom_dep)) {
temp <- hospital[!(hospital$semaine %in% semaine_to_drop) &
hospital$dep == nom_dep[k], ]
my_ts <- zoo(temp$incid_rea, temp$jour)
my_ts_diff <- diff(my_ts)
# tseries::adf.test(my_ts)
# tseries::adf.test(my_ts_diff)
if (nom_dep[k] %in% c("975", "977", "978")) {
pred_rea_2[k] <- NA
} else {
my_mod <- forecast::auto.arima(my_ts_diff)
forecast_my_mod <- as.numeric(forecast(my_mod, h = 14)$mean)
temp <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:7])
pred_rea_2a_temp[k] <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:14]) - temp
# modèles exponentiels
# Méthode 2 : lissage exponentiel
my_mod_exp <- ets(my_ts)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp, h = 14)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
temp <- round(sum(forecast_my_mod_exp[1:7]), 0)
pred_rea_2b_temp[k] <- round(sum(forecast_my_mod_exp[1:14]), 0) - temp
# Méthode 3 : lissage exponentiel sur données hebdomadaires
temp <- my_basis[my_basis$dep == nom_dep[k] & !(my_basis$semaine %in% semaine_to_drop), ]
my_ts_exp <- zoo(temp$rea, temp$jour)
if (all(my_ts_exp == 0)) {
pred_rea_2c_temp[k] <- 0
} else {
my_mod_exp_2 <- ets(my_ts_exp)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp_2)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
pred_rea_2c_temp[k] <- round(forecast_my_mod_exp[2], 0)
}
}
}
pred_rea_2a_s2 <- c(pred_rea_2a_s2, pred_rea_2a_temp)
pred_rea_2b_s2 <- c(pred_rea_2b_s2, pred_rea_2b_temp)
pred_rea_2c_s2 <- c(pred_rea_2c_s2, pred_rea_2c_temp)
}
lm_2_rea_ts_s1 <- step(lm(y_true ~ pred_rea_2a_s2 + pred_rea_2b_s2 + pred_rea_2c_s2 - 1))
## Start: AIC=756.54
## y_true ~ pred_rea_2a_s2 + pred_rea_2b_s2 + pred_rea_2c_s2 - 1
##
## Df Sum of Sq RSS AIC
## - pred_rea_2b_s2 1 4.60 8303.0 754.65
## <none> 8298.4 756.54
## - pred_rea_2a_s2 1 513.45 8811.8 766.67
## - pred_rea_2c_s2 1 1274.49 9572.9 783.40
##
## Step: AIC=754.65
## y_true ~ pred_rea_2a_s2 + pred_rea_2c_s2 - 1
##
## Df Sum of Sq RSS AIC
## <none> 8303.0 754.65
## - pred_rea_2a_s2 1 988.15 9291.1 775.37
## - pred_rea_2c_s2 1 1322.96 9625.9 782.52
pred_rea_2_s2 <- predict(lm_2_rea_ts_s1)
lm_rea_3b <- lm(y_true ~ pred_rea_1_s2 + pred_rea_2_s2 - 1)
#######
semaine_to_drop <- c("semaine_t0-3", "semaine_t0-2", "semaine_t0-1", "semaine_t00", "semaine_t01")
pred_rea_1_s3 <- numeric(0)
pred_rea_2a_s3 <- numeric(0)
pred_rea_2b_s3 <- numeric(0)
pred_rea_2c_s3 <- numeric(0)
y_true <- numeric(0)
for (j in 0:1) {
semaine_to_estim <- paste0("semaine_t0", j)
y_true <- c(y_true, my_basis[my_basis$semaine == semaine_to_estim, "rea"])
semaine_to_drop <- c(semaine_to_drop, paste0("semaine_t0", j + 2))
res_lm_rea_1 <- lm(rea ~ region + hosp:region - 1,
data = my_basis_rea[!(my_basis_rea$semaine %in% semaine_to_drop), ])
pred_rea_1_s3 <- c(pred_rea_1_s3, round(predict(res_lm_rea_1, newdata = my_basis_rea[my_basis_rea$semaine == semaine_to_estim, ])))
pred_rea_2a_temp <- numeric(length(nom_dep))
pred_rea_2b_temp <- numeric(length(nom_dep))
pred_rea_2c_temp <- numeric(length(nom_dep))
for (k in 1:length(nom_dep)) {
temp <- hospital[!(hospital$semaine %in% semaine_to_drop) & hospital$dep == nom_dep[k], ]
my_ts <- zoo(temp$incid_rea, temp$jour)
my_ts_diff <- diff(my_ts)
# tseries::adf.test(my_ts)
# tseries::adf.test(my_ts_diff)
if (nom_dep[k] %in% c("975", "977", "978")) {
pred_rea_2[k] <- NA
} else {
my_mod <- forecast::auto.arima(my_ts_diff)
forecast_my_mod <- as.numeric(forecast(my_mod, h = 21)$mean)
temp1 <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:7])
temp2 <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:14]) - temp1
pred_rea_2a_temp[k] <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:21]) - temp1 - temp2
# modèles exponentiels
# Méthode 2 : lissage exponentiel
my_mod_exp <- ets(my_ts)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp, h = 21)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
temp1 <- round(sum(forecast_my_mod_exp[1:7]), 0)
temp2 <- round(sum(forecast_my_mod_exp[1:14]), 0) - temp1
pred_rea_2b_temp[k] <- round(sum(forecast_my_mod_exp[1:21]), 0) - temp2 - temp1
# Méthode 3 : lissage exponentiel sur données hebdomadaires
temp <- my_basis[my_basis$dep == nom_dep[k] & !(my_basis$semaine %in% semaine_to_drop), ]
my_ts_exp <- zoo(temp$rea, temp$jour)
if (all(my_ts_exp == 0)) {
pred_rea_2c_temp[k] <- 0
} else {
my_mod_exp_2 <- ets(my_ts_exp)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp_2)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
pred_rea_2c_temp[k] <- round(forecast_my_mod_exp[3], 0)
}
}
}
pred_rea_2a_s3 <- c(pred_rea_2a_s3, pred_rea_2a_temp)
pred_rea_2b_s3 <- c(pred_rea_2b_s3, pred_rea_2b_temp)
pred_rea_2c_s3 <- c(pred_rea_2c_s3, pred_rea_2c_temp)
}
lm_2_rea_ts_s2 <- step(lm(y_true ~ pred_rea_2a_s3 + pred_rea_2b_s3 + pred_rea_2c_s3 - 1))
## Start: AIC=854.39
## y_true ~ pred_rea_2a_s3 + pred_rea_2b_s3 + pred_rea_2c_s3 - 1
##
## Df Sum of Sq RSS AIC
## <none> 13470 854.39
## - pred_rea_2a_s3 1 188.47 13658 855.20
## - pred_rea_2c_s3 1 230.75 13701 855.82
## - pred_rea_2b_s3 1 943.67 14414 866.07
On prédit:
le nombre de réanimations à venir du [02 décembre 2020; 08 décembre 2020] en utilisant les nouvelles hospitalisations du [25 novembre 2020; 01 décembre 2020]
le nombre de réanimations à venir du [09 décembre 2020; 15 décembre 2020] en utilisant la prédiction des hospitalisations à venir du [02 décembre 2020; 08 décembre 2020]
le nombre de réanimations à venir du [16 décembre 2020; 22 décembre 2020] en utilisant la prédiction des hospitalisations à venir du [09 décembre 2020; 15 décembre 2020]
Pour cela, on actualise le modèle, c’est-à-dire qu’on inclut la dernière semaine observée:
res_lm <- lm(rea ~ region + hosp:region - 1,
data = my_basis_rea[!(my_basis_rea$semaine %in% c("semaine_t0-2", "semaine_t0-1")), ])
# semaine t+1
new_data_rea_1 <- my_basis_rea[my_basis_rea$semaine %in% c("semaine_t0-1", "semaine_t0-2", "semaine_t0-3"), ]
pred_rea_1 <- predict(res_lm, newdata = new_data_rea_1)
pred_rea_2 <- matrix(0, length(nom_dep), 3)
pred_rea_2a <- matrix(0, length(nom_dep), 3)
pred_rea_2b <- matrix(0, length(nom_dep), 3)
pred_rea_2c <- matrix(0, length(nom_dep), 3)
for (k in 1:length(nom_dep)) {
temp <- hospital[!(hospital$semaine %in% c("semaine_t0-3", "semaine_t0-2", "semaine_t0-1")) &
hospital$dep == nom_dep[k], ]
my_ts <- zoo(temp$incid_rea, temp$jour)
my_ts_diff <- diff(my_ts)
# tseries::adf.test(my_ts)
# tseries::adf.test(my_ts_diff)
if (nom_dep[k] %in% c("975", "977", "978")) {
pred_rea_2[k] <- NA
} else {
my_mod <- forecast::auto.arima(my_ts_diff)
forecast_my_mod <- as.numeric(forecast(my_mod, h = 21)$mean)
pred_3a_s1 <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:7])
pred_3a_s2 <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:14]) - pred_3a_s1
pred_3a_s3 <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:21]) -
pred_3a_s1 - pred_3a_s2
# Lissage exponentiel
my_mod_exp <- ets(my_ts)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp, h = 21)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
pred_3b_s1 <- round(sum(forecast_my_mod_exp[1:7]), 0)
pred_3b_s2 <- round(sum(forecast_my_mod_exp[1:14]), 0) - pred_3b_s1
pred_3b_s3 <- round(sum(forecast_my_mod_exp[1:21]), 0) - pred_3b_s2 - pred_3b_s1
# Méthode 3 : lissage exponentiel sur données hebdomadaires
temp <- my_basis[my_basis$dep == nom_dep[k] & !(my_basis$semaine %in%
c("semaine_t0-3", "semaine_t0-2", "semaine_t0-1")), ]
my_ts_exp <- zoo(temp$rea, temp$jour)
my_mod_exp_2 <- ets(my_ts_exp)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp_2)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
pred_3c_s1 <- round(forecast_my_mod_exp[1], 0)
pred_3c_s2 <- round(forecast_my_mod_exp[2], 0)
pred_3c_s3 <- round(forecast_my_mod_exp[3], 0)
pred_rea_2[k, 1] <- predict(lm_2_rea_ts, newdata = data.frame(pred_rea_2a = pred_3a_s1,
pred_rea_2b = pred_3b_s1,
pred_rea_2c = pred_3c_s1))
pred_rea_2[k, 2] <- predict(lm_2_rea_ts_s1, newdata = data.frame(pred_rea_2a_s2 = pred_3a_s2,
pred_rea_2b_s2 = pred_3b_s2,
pred_rea_2c_s2 = pred_3c_s2))
pred_rea_2[k, 3] <- predict(lm_2_rea_ts_s2, newdata = data.frame(pred_rea_2a_s3 = pred_3a_s3,
pred_rea_2b_s3 = pred_3b_s3,
pred_rea_2c_s3 = pred_3c_s3))
}
}
pred_rea_a <- predict(lm_rea_3, newdata = data.frame(pred_rea_1 =
pred_rea_1[new_data_rea_1$semaine == "semaine_t0-1"],
pred_rea_2 = as.vector(pred_rea_2)[1:(length(pred_rea_1) / 3)]))
pred_rea_b <- predict(lm_rea_3b, newdata = data.frame(
pred_rea_1_s2 = pred_rea_1[new_data_rea_1$semaine == "semaine_t0-2"],
pred_rea_2_s2 = as.vector(pred_rea_2)[((length(pred_rea_1) / 3) + 1):(2 * length(pred_rea_1) / 3)]))
pred_rea_c <- predict(lm_rea_3c, newdata = data.frame(
pred_rea_1_s3 = pred_rea_1[new_data_rea_1$semaine == "semaine_t0-3"],
pred_rea_2_s3 = as.vector(pred_rea_2)[(2 * length(pred_rea_1) / 3 + 1):length(pred_rea_1)]))
# on synthétise les résultats
new_data <- my_basis[my_basis$semaine %in% "semaine_t0-1", ]
new_data$this_week <- my_basis_rea[my_basis_rea$semaine == "semaine_t00", "rea"]
new_data$next_week <- pred_rea_a
new_data$next_two_week <- pred_rea_b
new_data$next_three_week <- pred_rea_c
my_basis[my_basis$semaine %in% "semaine_t0-1", "rea"] <- pred_rea_a
my_basis[my_basis$semaine %in% "semaine_t0-2", "rea"] <- pred_rea_b
my_basis[my_basis$semaine %in% "semaine_t0-3", "rea"] <- pred_rea_c
On va représenter l’évolution du nombre de patients en réanimations dans un intervalle de temps de 4 semaines :
new_data_long <- tidyr::pivot_longer(data = select(new_data, dep, region,
this_week, next_week, next_two_week, next_three_week),
col = 3:6,
names_to = "semaine",
values_to = "rea")
new_data_long$semaine <- factor(new_data_long$semaine,
levels = c("this_week", "next_week", "next_two_week", "next_three_week"),
labels = c(paste0("[", format(to_day - 7, '%d %b'), "; ",
format(to_day - 1, '%d %b'), "]"),
paste0("[", format(to_day, '%d %b'), "; ",
format(to_day + 6, '%d %b'), "]"),
paste0("[", format(to_day+7, '%d %b'), "; ",
format(to_day + 13, '%d %b'), "]"),
paste0("[", format(to_day + 14, '%d %b'), "; ",
format(to_day + 20, '%d %b'), "]")
)
)
new_data_long$region <- factor(new_data_long$region, levels = hosp_region$region)
p <- ggplot(new_data_long, aes(x = semaine, y = rea, group = dep))+
geom_line() +
facet_wrap(~region)
plotly::ggplotly(p)
On aggrège les données à la France entière:
my_basis_fr <- my_basis %>%
group_by(semaine, jour) %>%
summarise(rea = sum(rea))
p <- ggplot(data = filter(my_basis_fr, semaine %in%
c("semaine_t0-3", "semaine_t0-2", "semaine_t0-1", "semaine_t00")),
aes(x = jour, y = rea)) +
geom_line(col = "red") +
geom_line(data = filter(my_basis_fr, !(semaine %in%
c("semaine_t0-3", "semaine_t0-2", "semaine_t0-1"))),
aes(x = jour, y = rea)) +
labs(title = "Prédiction des nouvelles réanimations dans les 21 jours",
x = "semaine",
y = "réanimations",
fill = "Age")
plotly::ggplotly(p)
L’idée est d’expliquer le nombre de nouveaux décès la semaine \(t\) par les nouvelles réanimations la semaine \(t-1\).
Ainsi on sera en mesure de prédire le nombre de nouveaux décès la semaine à venir, mais aussi les trois semaines suivantes en utilisant les prédictions des hospitalisations, des réanimations et cas positifs.
On prépare les données et on représente le nombre de nouveaux décès par semaine et par département en fonction du nombre de nouvelles réanimations la semaine d’avant et on constate un lien très fort.
my_basis_temp <- my_basis %>%
filter(semaine == "semaine_t0-3")
my_basis_temp$rea <- NA
my_basis_temp$semaine <- "semaine_t0-4"
my_basis_temp$jour <- my_basis_temp$jour + 7
my_basis <- rbind(my_basis_temp, my_basis)
my_basis_dc <- my_basis %>%
select(dep, semaine, jour, region, dc)
temp_rea <- my_basis %>%
select(dep, jour, rea) %>%
mutate(jour = jour + 7)
my_basis_dc <- merge(my_basis_dc, temp_rea, by = c("jour", "dep"), all.x = T)
my_basis_dc <- my_basis_dc %>%
as.data.frame
my_basis_dc <- my_basis_dc[order(my_basis_dc$jour, decreasing = T), ]
p <- ggplot(my_basis_dc) +
aes(x = rea, y = dc) +
geom_point() +
geom_smooth(method = "loess") +
geom_smooth(method = "lm",
col = "red") +
facet_wrap(~ region)
plotly::ggplotly(p)
On va faire deux modèles : un modèle régional où on explique les nouvelles réanimations des départements au sein d’une même région ainsi qu’un modèle de série temporelle département par département.
Apprentissage:
On modélise sur les observations des semaines précédentes:
res_lm_dc_1 <- lm(dc ~ region + rea:region - 1,
data = my_basis_dc[!(my_basis_dc$semaine %in%
c("semaine_t0-3", "semaine_t0-2", "semaine_t0-1", "semaine_t00")), ])
Dependent variable: | |
dc | |
regionAuvergne-Rhône-Alpes | 1.858*** |
(0.368) | |
regionBourgogne-Franche-Comté | 1.130** |
(0.453) | |
regionBretagne | 0.116 |
(0.694) | |
regionCentre-Val de Loire | 1.286** |
(0.538) | |
regionCorse | 0.200 |
(0.969) | |
regionDOM-TOM | -0.445 |
(0.697) | |
regionGrand Est | 1.123*** |
(0.420) | |
regionHauts-de-France | 1.047* |
(0.581) | |
regionIle-de-France | 4.929*** |
(0.519) | |
regionNormandie | 0.046 |
(0.587) | |
regionNouvelle-Aquitaine | 0.866** |
(0.370) | |
regionOccitanie | 0.594* |
(0.355) | |
regionPays de la Loire | -0.127 |
(0.618) | |
regionProvence-Alpes-Côte d’Azur | 0.888* |
(0.530) | |
regionAuvergne-Rhône-Alpes:rea | 0.913*** |
(0.014) | |
regionBourgogne-Franche-Comté:rea | 0.828*** |
(0.052) | |
regionBretagne:rea | 0.734*** |
(0.106) | |
regionCentre-Val de Loire:rea | 0.497*** |
(0.072) | |
regionCorse:rea | 0.705* |
(0.428) | |
regionDOM-TOM:rea | 0.570*** |
(0.093) | |
regionGrand Est:rea | 0.910*** |
(0.046) | |
regionHauts-de-France:rea | 0.808*** |
(0.016) | |
regionIle-de-France:rea | 0.570*** |
(0.014) | |
regionNormandie:rea | 1.131*** |
(0.058) | |
regionNouvelle-Aquitaine:rea | 0.621*** |
(0.054) | |
regionOccitanie:rea | 0.594*** |
(0.030) | |
regionPays de la Loire:rea | 0.885*** |
(0.071) | |
regionProvence-Alpes-Côte d’Azur:rea | 0.847*** |
(0.018) | |
Observations | 2,626 |
R2 | 0.865 |
Adjusted R2 | 0.864 |
Residual Std. Error | 6.051 (df = 2598) |
F Statistic | 597.046*** (df = 28; 2598) |
Note: | p<0.1; p<0.05; p<0.01 |
Test:
On teste le modèle sur les données de la semaine actuelle:
plot(pred_dc_1, my_basis_dc[my_basis_dc$semaine == "semaine_t00", "dc"],
xlab = "valeurs prédites", ylab = "valeurs observées")
abline(a = 0, b = 1)
text(pred_dc_1, my_basis_dc[my_basis_dc$semaine == "semaine_t00", "dc"],
my_basis_dc[my_basis_dc$semaine == "semaine_t00", "dep"], pos = 2)
L’écart quadratique moyen est égal ici à :
## [1] 139.1891
On utilise la même stratégie que celle présentée pour prédire le nombre de nouveaux cas, de nouvelles hospitalisations et de nouvelles réanimations.
Etape d’apprentissage : on entraîne l’agorithme sur les données passées en enlevant la dernière semaine observée et on prédit sur cette semaine afin de calculer les écarts quadratiques avec les valeurs observées.
pred_dc_2a <- numeric(length(nom_dep))
pred_dc_2b <- numeric(length(nom_dep))
pred_dc_2c <- numeric(length(nom_dep))
for (k in 1:length(nom_dep)) {
temp <- hospital[!(hospital$semaine %in% c("semaine_t0-1", "semaine_t00")) &
hospital$dep == nom_dep[k], ]
my_ts <- zoo(temp$incid_dc, temp$jour)
my_ts_diff <- diff(my_ts)
# tseries::adf.test(my_ts)
# tseries::adf.test(my_ts_diff)
if (nom_dep[k] %in% c("975", "977", "978")) {
pred_dc_2[k] <- NA
} else {
my_mod <- forecast::auto.arima(my_ts_diff)
forecast_my_mod <- as.numeric(forecast(my_mod)$mean)
pred_dc_2a[k] <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:7])
# modèles exponentiels
# Méthode 2 : lissage exponentiel
my_mod_exp <- ets(my_ts)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
pred_dc_2b[k] <- round(sum(forecast_my_mod_exp[1:7]), 0)
# Méthode 3 : lissage exponentiel sur données hebdomadaires
temp <- my_basis[my_basis$dep == nom_dep[k] & !(my_basis$semaine %in%
c("semaine_t0-4", "semaine_t0-3",
"semaine_t0-2", "semaine_t0-1", "semaine_t00")), ]
my_ts_exp <- zoo(temp$dc, temp$jour)
my_mod_exp_2 <- ets(my_ts_exp)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp_2)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
pred_dc_2c[k] <- round(forecast_my_mod_exp[1], 0)
}
}
On représente le graphique des valeurs prédites / valeurs observées :
par(mfrow = c(1, 3))
plot(pred_dc_2a, my_basis_dc[my_basis_dc$semaine == "semaine_t00", "dc"],
xlab = "valeurs prédites", ylab = "valeurs observées", main = "Box-Jenkins")
abline(a = 0, b = 1)
text(pred_dc_2a, my_basis_dc[my_basis_dc$semaine == "semaine_t00", "dc"],
my_basis_dc[my_basis_dc$semaine == "semaine_t00", "dep"], pos = 2)
plot(pred_dc_2b, my_basis_dc[my_basis_dc$semaine == "semaine_t00", "dc"],
xlab = "valeurs prédites", ylab = "valeurs observées", main = "Lissage exponentiel journalier")
abline(a = 0, b = 1)
text(pred_dc_2b, my_basis_dc[my_basis_dc$semaine == "semaine_t00", "dc"],
my_basis_dc[my_basis_dc$semaine == "semaine_t00", "dep"], pos = 2)
plot(pred_dc_2c, my_basis_dc[my_basis_dc$semaine == "semaine_t00", "dc"],
xlab = "valeurs prédites", ylab = "valeurs observées", main = "Lissage exponentiel hebdomadaire")
abline(a = 0, b = 1)
text(pred_dc_2c, my_basis_dc[my_basis_dc$semaine == "semaine_t00", "dc"],
my_basis_dc[my_basis_dc$semaine == "semaine_t00", "dep"], pos = 2)
L’écart quadratique moyen est égal ici à :
c(
mean((pred_dc_2a - my_basis_dc[my_basis_dc$semaine == "semaine_t00", "dc"]) ^ 2, na.rm = T),
mean((pred_dc_2b - my_basis_dc[my_basis_dc$semaine == "semaine_t00", "dc"]) ^ 2, na.rm = T),
mean((pred_dc_2c - my_basis_dc[my_basis_dc$semaine == "semaine_t00", "dc"]) ^ 2, na.rm = T)
)
## [1] 179.1809 170.4059 168.9703
Les 3 prédictions sont très proches et on va choisir un algorithme de type stepwise sur les prédictions pour choisir la meilleure combinaison et ne garder qu’une prédiction de type série temporelle:
lm_2_dc_ts <- step(lm(my_basis[my_basis$semaine == "semaine_t00", "dc"] ~
pred_dc_2a + pred_dc_2b + pred_dc_2c - 1))
## Start: AIC=447.74
## my_basis[my_basis$semaine == "semaine_t00", "dc"] ~ pred_dc_2a +
## pred_dc_2b + pred_dc_2c - 1
##
## Df Sum of Sq RSS AIC
## - pred_dc_2a 1 47.74 8060.2 446.34
## - pred_dc_2b 1 112.73 8125.2 447.15
## <none> 8012.4 447.74
## - pred_dc_2c 1 1543.07 9555.5 463.53
##
## Step: AIC=446.34
## my_basis[my_basis$semaine == "semaine_t00", "dc"] ~ pred_dc_2b +
## pred_dc_2c - 1
##
## Df Sum of Sq RSS AIC
## - pred_dc_2b 1 67.21 8127.4 445.18
## <none> 8060.2 446.34
## - pred_dc_2c 1 1624.29 9684.5 462.88
##
## Step: AIC=445.18
## my_basis[my_basis$semaine == "semaine_t00", "dc"] ~ pred_dc_2c -
## 1
##
## Df Sum of Sq RSS AIC
## <none> 8127 445.18
## - pred_dc_2c 1 90873 99000 695.66
pred_dc_2 <- predict(lm_2_dc_ts)
mean((pred_dc_2 - na.omit(my_basis[my_basis$semaine == "semaine_t00", "dc"])) ^ 2)
## [1] 80.46937
Combinaison des prédictions: on peut envisager de faire un panaché des deux prédictions en régressant (avec un algorithme de type stepwise) le nombre de décés observé la semaine t0 en fonction des deux méthodes de régression. On obtient l’écart moyen quadratique suivant :
lm_dc_3 <- lm(my_basis_dc[my_basis_dc$semaine == "semaine_t00", "dc"] ~
pred_dc_1 + pred_dc_2 - 1)
mean((predict(lm_dc_3) - na.omit(my_basis_dc[my_basis_dc$semaine == "semaine_t00", "dc"])) ^ 2)
## [1] 66.63043
On adapte le poids des prédictions en fonction de la semaine à prédire
semaine_to_drop <- c("semaine_t0-4", "semaine_t0-3", "semaine_t0-2", "semaine_t0-1", "semaine_t00")
pred_dc_1_s2 <- numeric(0)
pred_dc_2a_s2 <- numeric(0)
pred_dc_2b_s2 <- numeric(0)
pred_dc_2c_s2 <- numeric(0)
y_true <- numeric(0)
for (j in 0:2) {
semaine_to_estim <- paste0("semaine_t0", j)
y_true <- c(y_true, my_basis[my_basis$semaine == semaine_to_estim, "dc"])
semaine_to_drop <- c(semaine_to_drop, paste0("semaine_t0", j + 1))
res_lm_dc_1 <- lm(dc ~ region + rea:region - 1,
data = my_basis_dc[!(my_basis_dc$semaine %in% semaine_to_drop), ])
pred_dc_1_s2 <- c(pred_dc_1_s2,
round(predict(res_lm_dc_1, newdata = my_basis_dc[my_basis_dc$semaine == semaine_to_estim, ])))
pred_dc_2a_temp <- numeric(length(nom_dep))
pred_dc_2b_temp <- numeric(length(nom_dep))
pred_dc_2c_temp <- numeric(length(nom_dep))
for (k in 1:length(nom_dep)) {
temp <- hospital[!(hospital$semaine %in% semaine_to_drop) &
hospital$dep == nom_dep[k], ]
my_ts <- zoo(temp$incid_dc, temp$jour)
my_ts_diff <- diff(my_ts)
# tseries::adf.test(my_ts)
# tseries::adf.test(my_ts_diff)
if (nom_dep[k] %in% c("975", "977", "978")) {
pred_dc_2[k] <- NA
} else {
my_mod <- forecast::auto.arima(my_ts_diff)
forecast_my_mod <- as.numeric(forecast(my_mod, h = 14)$mean)
temp <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:7])
pred_dc_2a_temp[k] <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:14]) - temp
# modèles exponentiels
# Méthode 2 : lissage exponentiel
my_mod_exp <- ets(my_ts)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp, h = 14)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
temp <- round(sum(forecast_my_mod_exp[1:7]), 0)
pred_dc_2b_temp[k] <- round(sum(forecast_my_mod_exp[1:14]), 0) - temp
# Méthode 3 : lissage exponentiel sur données hebdomadaires
temp <- my_basis[my_basis$dep == nom_dep[k] & !(my_basis$semaine %in% semaine_to_drop), ]
my_ts_exp <- zoo(temp$dc, temp$jour)
if (all(my_ts_exp == 0)) {
pred_dc_2c_temp[k] <- 0
} else {
my_mod_exp_2 <- ets(my_ts_exp)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp_2)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
pred_dc_2c_temp[k] <- round(forecast_my_mod_exp[2], 0)
}
}
}
pred_dc_2a_s2 <- c(pred_dc_2a_s2, pred_dc_2a_temp)
pred_dc_2b_s2 <- c(pred_dc_2b_s2, pred_dc_2b_temp)
pred_dc_2c_s2 <- c(pred_dc_2c_s2, pred_dc_2c_temp)
}
lm_2_dc_ts_s1 <- step(lm(y_true ~ pred_dc_2a_s2 + pred_dc_2b_s2 + pred_dc_2c_s2 - 1))
## Start: AIC=1434.14
## y_true ~ pred_dc_2a_s2 + pred_dc_2b_s2 + pred_dc_2c_s2 - 1
##
## Df Sum of Sq RSS AIC
## - pred_dc_2c_s2 1 77.2 33838 1432.8
## <none> 33761 1434.1
## - pred_dc_2b_s2 1 836.3 34597 1439.5
## - pred_dc_2a_s2 1 8217.0 41978 1498.1
##
## Step: AIC=1432.83
## y_true ~ pred_dc_2a_s2 + pred_dc_2b_s2 - 1
##
## Df Sum of Sq RSS AIC
## <none> 33838 1432.8
## - pred_dc_2b_s2 1 833.6 34672 1438.2
## - pred_dc_2a_s2 1 8165.0 42003 1496.3
pred_dc_2_s2 <- predict(lm_2_dc_ts_s1)
lm_dc_3b <- lm(y_true ~ pred_dc_1_s2 + pred_dc_2_s2 - 1)
#######
# Semaine + 2
#######
semaine_to_drop <- c("semaine_t0-4", "semaine_t0-3", "semaine_t0-2", "semaine_t0-1", "semaine_t00", "semaine_t01")
pred_dc_1_s3 <- pred_dc_1_s2
pred_dc_2a_s3 <- pred_dc_2a_s2
pred_dc_2b_s3 <- pred_dc_2b_s2
pred_dc_2c_s3 <- pred_dc_2c_s2
for (j in 0:1) {
semaine_to_estim <- paste0("semaine_t0", j)
y_true <- c(y_true, my_basis[my_basis$semaine == semaine_to_estim, "dc"])
semaine_to_drop <- c(semaine_to_drop, paste0("semaine_t0", j + 2))
res_lm_dc_1 <- lm(dc ~ region + rea:region - 1,
data = my_basis_dc[!(my_basis_dc$semaine %in% semaine_to_drop), ])
pred_dc_1_s3 <- c(pred_dc_1_s3, round(predict(res_lm_dc_1,
newdata = my_basis_dc[my_basis_dc$semaine == semaine_to_estim, ])))
pred_dc_2a_temp <- numeric(length(nom_dep))
pred_dc_2b_temp <- numeric(length(nom_dep))
pred_dc_2c_temp <- numeric(length(nom_dep))
for (k in 1:length(nom_dep)) {
temp <- hospital[!(hospital$semaine %in% semaine_to_drop) & hospital$dep == nom_dep[k], ]
my_ts <- zoo(temp$incid_dc, temp$jour)
my_ts_diff <- diff(my_ts)
# tseries::adf.test(my_ts)
# tseries::adf.test(my_ts_diff)
if (nom_dep[k] %in% c("975", "977", "978")) {
pred_dc_2[k] <- NA
} else {
my_mod <- forecast::auto.arima(my_ts_diff)
forecast_my_mod <- as.numeric(forecast(my_mod, h = 21)$mean)
temp1 <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:7])
temp2 <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:14]) - temp1
temp3 <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:21]) - temp1 - temp2
pred_dc_2a_temp[k] <- ifelse(temp3 > 0, round(temp3), 0)
# modèles exponentiels
# Méthode 2 : lissage exponentiel
my_mod_exp <- ets(my_ts)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp, h = 21)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
temp1 <- round(sum(forecast_my_mod_exp[1:7]), 0)
temp2 <- round(sum(forecast_my_mod_exp[1:14]), 0) - temp1
pred_dc_2b_temp[k] <- round(sum(forecast_my_mod_exp[1:21]), 0) - temp2 - temp1
# Méthode 3 : lissage exponentiel sur données hebdomadaires
temp <- my_basis[my_basis$dep == nom_dep[k] & !(my_basis$semaine %in% semaine_to_drop), ]
my_ts_exp <- zoo(temp$dc, temp$jour)
if (all(my_ts_exp == 0)) {
pred_dc_2c_temp[k] <- 0
} else {
my_mod_exp_2 <- ets(my_ts_exp)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp_2)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
pred_dc_2c_temp[k] <- round(forecast_my_mod_exp[3], 0)
}
}
}
pred_dc_2a_s3 <- c(pred_dc_2a_s3, pred_dc_2a_temp)
pred_dc_2b_s3 <- c(pred_dc_2b_s3, pred_dc_2b_temp)
pred_dc_2c_s3 <- c(pred_dc_2c_s3, pred_dc_2c_temp)
}
lm_2_dc_ts_s2 <- step(lm(y_true ~ pred_dc_2a_s3 + pred_dc_2b_s3 + pred_dc_2c_s3 - 1))
## Start: AIC=2471.83
## y_true ~ pred_dc_2a_s3 + pred_dc_2b_s3 + pred_dc_2c_s3 - 1
##
## Df Sum of Sq RSS AIC
## - pred_dc_2c_s3 1 0.7 66663 2469.8
## <none> 66662 2471.8
## - pred_dc_2b_s3 1 718.6 67381 2475.2
## - pred_dc_2a_s3 1 23804.5 90467 2624.0
##
## Step: AIC=2469.84
## y_true ~ pred_dc_2a_s3 + pred_dc_2b_s3 - 1
##
## Df Sum of Sq RSS AIC
## <none> 66663 2469.8
## - pred_dc_2b_s3 1 1103.7 67766 2476.1
## - pred_dc_2a_s3 1 24753.1 91416 2627.3
pred_dc_2_s3 <- predict(lm_2_dc_ts_s2)
lm_dc_3c <- lm(y_true ~ pred_dc_1_s3 + pred_dc_2_s3 - 1)
#######
# Semaine T + 3
#######
semaine_to_drop <- c("semaine_t0-4", "semaine_t0-3", "semaine_t0-2", "semaine_t0-1",
"semaine_t00", "semaine_t01", "semaine_t02")
pred_dc_1_s4 <- pred_dc_1_s3
pred_dc_2a_s4 <- pred_dc_2a_s3
pred_dc_2b_s4 <- pred_dc_2b_s3
pred_dc_2c_s4 <- pred_dc_2c_s3
for (j in 0:1) {
semaine_to_estim <- paste0("semaine_t0", j)
y_true <- c(y_true, my_basis[my_basis$semaine == semaine_to_estim, "dc"])
semaine_to_drop <- c(semaine_to_drop, paste0("semaine_t0", j + 3))
res_lm_dc_1 <- lm(dc ~ region + rea:region - 1,
data = my_basis_dc[!(my_basis_dc$semaine %in% semaine_to_drop), ])
pred_dc_1_s4 <- c(pred_dc_1_s4, round(predict(res_lm_dc_1,
newdata = my_basis_dc[my_basis_dc$semaine == semaine_to_estim, ])))
pred_dc_2a_temp <- numeric(length(nom_dep))
pred_dc_2b_temp <- numeric(length(nom_dep))
pred_dc_2c_temp <- numeric(length(nom_dep))
for (k in 1:length(nom_dep)) {
temp <- hospital[!(hospital$semaine %in% semaine_to_drop) & hospital$dep == nom_dep[k], ]
my_ts <- zoo(temp$incid_dc, temp$jour)
my_ts_diff <- diff(my_ts)
# tseries::adf.test(my_ts)
# tseries::adf.test(my_ts_diff)
if (nom_dep[k] %in% c("975", "977", "978")) {
pred_dc_2[k] <- NA
} else {
my_mod <- forecast::auto.arima(my_ts_diff)
forecast_my_mod <- as.numeric(forecast(my_mod, h = 28)$mean)
temp1 <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:7])
temp2 <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:14]) - temp1
temp3 <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:21]) - temp1 - temp2
temp4 <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:28]) - temp1 - temp2 - temp3
pred_dc_2a_temp[k] <- ifelse(temp4 > 0, round(temp4), 0)
# modèles exponentiels
# Méthode 2 : lissage exponentiel
my_mod_exp <- ets(my_ts)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp, h = 28)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
temp1 <- round(sum(forecast_my_mod_exp[1:7]), 0)
temp2 <- round(sum(forecast_my_mod_exp[1:14]), 0) - temp1
temp3 <- round(sum(forecast_my_mod_exp[1:21]), 0) - temp1 - temp2
pred_dc_2b_temp[k] <- round(sum(forecast_my_mod_exp[1:28]), 0) - temp1 - temp2 - temp3
# Méthode 3 : lissage exponentiel sur données hebdomadaires
temp <- my_basis[my_basis$dep == nom_dep[k] & !(my_basis$semaine %in% semaine_to_drop), ]
my_ts_exp <- zoo(temp$dc, temp$jour)
if (all(my_ts_exp == 0)) {
pred_dc_2c_temp[k] <- 0
} else {
my_mod_exp_2 <- ets(my_ts_exp)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp_2)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
pred_dc_2c_temp[k] <- round(forecast_my_mod_exp[4], 0)
}
}
}
pred_dc_2a_s4 <- c(pred_dc_2a_s4, pred_dc_2a_temp)
pred_dc_2b_s4 <- c(pred_dc_2b_s4, pred_dc_2b_temp)
pred_dc_2c_s4 <- c(pred_dc_2c_s4, pred_dc_2c_temp)
}
lm_2_dc_ts_s3 <- step(lm(y_true ~ pred_dc_2a_s4 + pred_dc_2b_s4 + pred_dc_2c_s4 - 1))
## Start: AIC=3708.37
## y_true ~ pred_dc_2a_s4 + pred_dc_2b_s4 + pred_dc_2c_s4 - 1
##
## Df Sum of Sq RSS AIC
## - pred_dc_2c_s4 1 0 132955 3706.4
## <none> 132955 3708.4
## - pred_dc_2b_s4 1 1379 134333 3713.7
## - pred_dc_2a_s4 1 40541 173495 3894.5
##
## Step: AIC=3706.37
## y_true ~ pred_dc_2a_s4 + pred_dc_2b_s4 - 1
##
## Df Sum of Sq RSS AIC
## <none> 132955 3706.4
## - pred_dc_2b_s4 1 2134 135089 3715.6
## - pred_dc_2a_s4 1 42114 175069 3898.9
On prédit:
le nombre de décès à venir du [02 décembre 2020; 08 décembre 2020] en utilisant les nouvelles réanimations du [25 novembre 2020; 01 décembre 2020]
le nombre de décès à venir du [09 décembre 2020; 15 décembre 2020] en utilisant la prédiction des réanimations à venir du [02 décembre 2020; 08 décembre 2020]
le nombre de décès à venir du [16 décembre 2020; 22 décembre 2020] en utilisant la prédiction des réanimations à venir du [09 décembre 2020; 15 décembre 2020]
le nombre de décès à venir du [23 décembre 2020; 29 décembre 2020] en utilisant la prédiction des réanimations à venir du [09 décembre 2020; 15 décembre 2020]
Pour cela, on actualise le modèle, c’est-à-dire qu’on inclut la dernière semaine observée:
res_lm <- lm(dc ~ region + rea:region - 1,
data = my_basis_dc[!(my_basis_dc$semaine %in% c("semaine_t0-2", "semaine_t0-1")), ])
# semaine t+1
new_data_dc_1 <- my_basis_dc[my_basis_dc$semaine %in% c("semaine_t0-1", "semaine_t0-2", "semaine_t0-3", "semaine_t0-4"), ]
pred_dc_1 <- predict(res_lm, newdata = new_data_dc_1)
pred_dc_2 <- matrix(0, length(nom_dep), 4)
pred_dc_2a <- matrix(0, length(nom_dep), 4)
pred_dc_2b <- matrix(0, length(nom_dep), 4)
pred_dc_2c <- matrix(0, length(nom_dep), 4)
for (k in 1:length(nom_dep)) {
temp <- hospital[!(hospital$semaine %in% c("semaine_t0-4", "semaine_t0-3", "semaine_t0-2", "semaine_t0-1")) &
hospital$dep == nom_dep[k], ]
my_ts <- zoo(temp$incid_dc, temp$jour)
my_ts_diff <- diff(my_ts)
# tseries::adf.test(my_ts)
# tseries::adf.test(my_ts_diff)
if (nom_dep[k] %in% c("975", "977", "978")) {
pred_rea_2[k] <- NA
} else {
my_mod <- forecast::auto.arima(my_ts_diff)
forecast_my_mod <- as.numeric(forecast(my_mod, h = 28)$mean)
pred_3a_s1 <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:7])
pred_3a_s2 <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:14]) - pred_3a_s1
pred_3a_s3 <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:21]) -
pred_3a_s1 - pred_3a_s2
pred_3a_s4 <- sum((as.numeric(my_ts[length(my_ts)]) + cumsum(forecast_my_mod))[1:28]) -
pred_3a_s1 - pred_3a_s2 - pred_3a_s3
# Lissage exponentiel
my_mod_exp <- ets(my_ts)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp, h = 28)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
pred_3b_s1 <- round(sum(forecast_my_mod_exp[1:7]), 0)
pred_3b_s2 <- round(sum(forecast_my_mod_exp[1:14]), 0) - pred_3b_s1
pred_3b_s3 <- round(sum(forecast_my_mod_exp[1:21]), 0) - pred_3b_s2 - pred_3b_s1
pred_3b_s4 <- round(sum(forecast_my_mod_exp[1:28]), 0) - pred_3b_s3 - pred_3b_s2 - pred_3b_s1
# Méthode 3 : lissage exponentiel sur données hebdomadaires
temp <- my_basis[my_basis$dep == nom_dep[k] & !(my_basis$semaine %in%
c("semaine_t0-4", "semaine_t0-3", "semaine_t0-2", "semaine_t0-1")), ]
my_ts_exp <- zoo(temp$dc, temp$jour)
my_mod_exp_2 <- ets(my_ts_exp)
forecast_my_mod_exp <- as.numeric(forecast(my_mod_exp_2)$mean)
forecast_my_mod_exp <- ifelse(forecast_my_mod_exp > 0, forecast_my_mod_exp, 0)
pred_3c_s1 <- round(forecast_my_mod_exp[1], 0)
pred_3c_s2 <- round(forecast_my_mod_exp[2], 0)
pred_3c_s3 <- round(forecast_my_mod_exp[3], 0)
pred_3c_s4 <- round(forecast_my_mod_exp[4], 0)
pred_dc_2[k, 1] <- predict(lm_2_dc_ts, newdata = data.frame(pred_dc_2a = pred_3a_s1,
pred_dc_2b = pred_3b_s1,
pred_dc_2c = pred_3c_s1))
pred_dc_2[k, 2] <- predict(lm_2_dc_ts_s1, newdata = data.frame(pred_dc_2a_s2 = pred_3a_s2,
pred_dc_2b_s2 = pred_3b_s2,
pred_dc_2c_s2 = pred_3c_s2))
pred_dc_2[k, 3] <- predict(lm_2_dc_ts_s2, newdata = data.frame(pred_dc_2a_s3 = pred_3a_s3,
pred_dc_2b_s3 = pred_3b_s3,
pred_dc_2c_s3 = pred_3c_s3))
pred_dc_2[k, 4] <- predict(lm_2_dc_ts_s3, newdata = data.frame(pred_dc_2a_s4 = pred_3a_s4,
pred_dc_2b_s4 = pred_3b_s4,
pred_dc_2c_s4 = pred_3c_s4))
}
}
n_4 <- 4 * length(nom_dep)
pred_dc_a <- predict(lm_dc_3, newdata = data.frame(pred_dc_1 =
pred_dc_1[new_data_dc_1$semaine == "semaine_t0-1"],
pred_dc_2 = as.vector(pred_dc_2)[1:(n_4 / 4)]))
pred_dc_b <- predict(lm_dc_3b, newdata = data.frame(
pred_dc_1_s2 = pred_dc_1[new_data_dc_1$semaine == "semaine_t0-2"],
pred_dc_2_s2 = as.vector(pred_dc_2)[((n_4 / 4) + 1):(2 * n_4 / 4)]))
pred_dc_c <- predict(lm_dc_3c, newdata = data.frame(
pred_dc_1_s3 = pred_dc_1[new_data_dc_1$semaine == "semaine_t0-3"],
pred_dc_2_s3 = as.vector(pred_dc_2)[(2 * n_4 / 4 + 1):(3 * n_4 / 4)]))
pred_dc_d <- predict(lm_dc_4c, newdata = data.frame(
pred_dc_1_s4 = pred_dc_1[new_data_dc_1$semaine == "semaine_t0-4"],
pred_dc_2_s4 = as.vector(pred_dc_2)[(3 * n_4 / 4 + 1):n_4]))
# on synthétise les résultats
new_data <- my_basis[my_basis$semaine %in% "semaine_t0-1", ]
new_data$this_week <- my_basis_dc[my_basis_dc$semaine == "semaine_t00", "dc"]
new_data$next_week <- pred_dc_a
new_data$next_two_week <- pred_dc_b
new_data$next_three_week <- pred_dc_c
new_data$next_four_week <- pred_dc_d
my_basis[my_basis$semaine %in% "semaine_t0-1", "dc"] <- pred_dc_a
my_basis[my_basis$semaine %in% "semaine_t0-2", "dc"] <- pred_dc_b
my_basis[my_basis$semaine %in% "semaine_t0-3", "dc"] <- pred_dc_c
my_basis[my_basis$semaine %in% "semaine_t0-4", "dc"] <- pred_dc_d
On va représenter l’évolution du nombre de décès dans un intervalle de temps de 5 semaines :
new_data_long <- tidyr::pivot_longer(data = select(new_data, dep, region,
this_week, next_week, next_two_week, next_three_week, next_four_week),
col = 3:7,
names_to = "semaine",
values_to = "dc")
new_data_long$semaine <- factor(new_data_long$semaine,
levels = c("this_week", "next_week", "next_two_week", "next_three_week", "next_four_week"),
labels = c(paste0("[", format(to_day - 7, '%d %b'), "; ",
format(to_day - 1, '%d %b'), "]"),
paste0("[", format(to_day, '%d %b'), "; ",
format(to_day + 6, '%d %b'), "]"),
paste0("[", format(to_day + 7, '%d %b'), "; ",
format(to_day + 13, '%d %b'), "]"),
paste0("[", format(to_day + 14, '%d %b'), "; ",
format(to_day + 20, '%d %b'), "]"),
paste0("[", format(to_day + 21, '%d %b'), "; ",
format(to_day + 27, '%d %b'), "]")
)
)
new_data_long$region <- factor(new_data_long$region, levels = hosp_region$region)
p <- ggplot(new_data_long, aes(x = semaine, y = dc, group = dep))+
geom_line() +
facet_wrap(~region)
plotly::ggplotly(p)
On aggrège les données à la France entière:
my_basis_fr <- my_basis %>%
group_by(semaine, jour) %>%
summarise(dc = sum(dc))
p <- ggplot(data = filter(my_basis_fr, semaine %in%
c("semaine_t0-4", "semaine_t0-3", "semaine_t0-2", "semaine_t0-1", "semaine_t00")),
aes(x = jour, y = dc)) +
geom_line(col = "red") +
geom_line(data = filter(my_basis_fr, !(semaine %in%
c("semaine_t0-4", "semaine_t0-3", "semaine_t0-2", "semaine_t0-1"))),
aes(x = jour, y = dc)) +
labs(title = "Prédiction des nouveaux décès dans les 28 jours",
x = "semaine",
y = "décès",
fill = "Age")
plotly::ggplotly(p)
## # A tibble: 5 x 2
## semaine dc
## <fct> <dbl>
## 1 [25 nov.; 01 déc.] 329.
## 2 [02 déc.; 08 déc.] 248.
## 3 [09 déc.; 15 déc.] 226.
## 4 [16 déc.; 22 déc.] 198.
## 5 [23 déc.; 29 déc.] 167.
1.3 Comment a évolué la situation depuis le début de l’épidémie ?
1.3.1 Graphique d’évolution
1.3.1.1 Hospitalisations
Ici, on représente le nombre d’entrée en hospitalisations par semaine en fonction du temps sur la France entière.
On représente la même figure mais en mettant en relief la répartition des valeurs par région :
On représente la même figure mais en mettant en relief la répartition des valeurs par classe d’âge :
On met les valeurs en pourcentages pour que le graphique soit plus visible
1.3.1.2 Réanimations
On représente le nombre cummulé d’entrée en réanimations par semaine en fonction du temps sur la France entière.
On représente la même figure mais en mettant en relief la répartition des valeurs par région :
On représente la même figure mais en mettant en relief la répartition des valeurs par classe d’âge :
On met les valeurs en pourcentages pour que le graphique soit plus visibles
Enfin, on représente le ratio réanimations / hospitalisations :
1.3.1.3 Décès
On représente le nombre cummulé de nouveaux décès par semaine en fonction du temps sur la France entière.
On représente la même figure mais en mettant en relief la répartition des valeurs par région :
On représente la même figure mais en mettant en relief la répartition des valeurs par classe d’âge :
On met les valeurs en pourcentages pour que le graphique soit plus visibles
Enfin, on représente le ratio décès / réanimations :
1.3.2 Graphique d’évolution du nombre d’hospitalisations par départements groupés par région
On va s’intéresser au nombre d’hospitalisations. On peut représenter cette information département par département. Ici, on représente le nombre cummulé d’entrée par semaine en fonction du temps.
On représente d’abord les 4 régions actuellement les plus touchées et pour lesquelles l’axe des ordonnées va de 0 à 1200.
On représente ensuite les 8 régions suivantes les plus touchées mais avec une échelle différente sur l’axe des ordonnées (0 à 400):
Enfin, on représente les 2 régions les moins touchées et avec une échelle différente sur l’axe des ordonnées (0 à 200):
1.3.3 Cartes d’évolution sur les 6 dernières semaines
On représente l’évolution des hospitalisations sur les 6 dernières semaines:
On représente l’évolution des réanimations sur les 6 dernières semaines:
On représente l’évolution des décès sur les 6 dernières semaines: