Il professor Guido Silvestri ha risposto su MaddMaths! al comunicato sottostante, precisando di non aver mai detto quanto attribuitogli da vari siti e giornali, tra cui La Stampa. Rimandiamo a questo link per una ricostruzione della vicenda.
Contrariamente a quanto riportato in un articolo de La Stampa dell’8 giugno, i modelli matematici non hanno fallito sul Covid. Basti pensare che già il 17 gennaio scorso il report dell’Imperial College avvertiva, sulla base di modelli matematici, che la situazione a Wuhan era preoccupante e che si stimava che i casi fossero già 1700 contro i 41 ufficiali.
L’articolo a cui facciamo riferimento riporta una dichiarazione del virologo Guido Silvestri che invita a prendere atto del fallimento dei modelli matematici, in quanto i dati mostrerebbero come i modelli siano stati “inadeguati a prevedere l’andamento reale dell’epidemia”. Di conseguenza, bisognerebbe fare in modo che tali modelli non siano più usati in futuro per prendere decisioni politiche.
Per sostenere la sua tesi, Silvestri si riferisce in particolare ad alcuni modelli matematici sugli effetti della fase 2, come presentati in un rapporto di valutazione dei rischi di diffusione epidemica fatto circolare sui giornali poco prima del 4 maggio: “Avevano paventato 151mila malati in terapia intensiva all’inizio di giugno. Invece sono 286. E dopo 20 giorni dalle aperture di maggio, non c’è alcun segno di un ritorno della pandemia”.
Riguardo a tale previsione, si tratta in realtà solo di uno dei 49 scenari analizzati nello studio, e precisamente di quello peggiore possibile, corrispondente alla situazione in cui si fossero riaperte tutte le attività contemporaneamente, per esempio senza l’uso di mascherine e distanziamento sociale, tornando di fatto alla situazione pre-Covid. In molti degli altri 48 possibili scenari il numero riproduttivo era minore di 1 (e quindi con contenimento dell’epidemia); questi scenari hanno sicuramente aiutato il governo a modulare i tempi e le modalità delle riaperture. I modelli epidemiologici sono fatti così: non si limitano a prevedere un possibile futuro, ma esaminano i vari casi possibili in conseguenza di certe scelte. Così facendo influenzano in maniera anche drastica le decisioni delle autorità e il comportamento dei cittadini, ed è inevitabile, e anche auspicabile, che l’andamento effettivo si scosti di conseguenza dalle previsioni. Il punto che spesso non viene perfettamente capito è che quando entrano in gioco delle crescite esponenziali, anche un piccolo cambiamento può portare a esiti drammaticamente diversi.
A metà marzo uno studio dell’Imperial College aveva previsto che, senza mettere in atto strategie di mitigazione, il numero di morti da COVID-19 nel Regno Unito sarebbe stato intorno ai 500.000. Anche a seguito di tale rapporto, il governo britannico ha messo in atto una strategia abbastanza stretta di `lock-down’ e i morti, nonostante queste misure, sono già oltre 40.000 secondo i dati ufficiali. Non crediamo che si possa dire che ciò sia stato un fallimento del modello, visto che lo studio ha provocato la messa in atto di misure di contenimento. Non sapremo mai con certezza cosa sarebbe successo se queste non fossero state attuate, ma questo, ben lungi da costituire una prova del fallimento del modello, ne evidenzia anzi l’efficacia.
Tornando al rapporto sugli effetti della fase 2, certamente nei modelli usati era presente una componente di incertezza, come riconosciuto nel rapporto stesso, e non si consideravano vari aspetti potenzialmente importanti. D’altra parte, un modello ha sempre un margine di errore che deriva in primo luogo proprio dall’incertezza dei dati e anche da una parziale ignoranza delle caratteristiche del virus. Per esempio, Silvestri menziona la componente stagionale: effettivamente indicazioni statistiche suggeriscono come la trasmissione possa essere minore quando le temperature si alzano (ma l’esempio del Brasile suggerisce che il caldo non sia da solo sufficiente a bloccare l’epidemia). A fine aprile l’evidenza in questo senso era minima, mentre adesso potrebbe essere possibile inserire tale fattore nei modelli, anche se i dati sono ancora insufficienti per fornirci una conclusione netta.
In assenza di evidenza scientifica, è ragionevole, oltre che prudente, fare ipotesi conservative. Per esempio a febbraio, non esisteva alcun dato sull’infezione nei bambini e ci sono ancora oggi moltissime incognite sul loro ruolo nella trasmissione. Alcuni studi suggeriscono che i bambini si infettino e trasmettano tanto quanto gli adulti, ma abbiano un decorso clinico molto più favorevole, mentre altri suggeriscono che i bambini possano essere meno suscettibili all’infezione. In assenza di informazioni, i modelli sviluppati a febbraio hanno assunto che i bambini trasmettessero tanto quanto gli adulti. La chiusura delle scuole è stata allora, anche a livello intuitivo, una strategia in grado di abbassare il numero di contatti e quindi la trasmissione.
Un’altra forte incertezza nei modelli riguarda l’effetto dei dispositivi di protezione individuale: il rapporto ipotizzava che l’uso delle mascherine potesse fare scendere la trasmissibilità del virus fra il 15 e il 25%; adesso cominciano a esserci studi che quantificano l’effetto meccanico delle mascherine, ma naturalmente l’effetto complessivo dipende da quanto e come la popolazione le usa, così come da altri meccanismi di riduzione dei contatti. Questi sono comportamenti che ci sembra importante incentivare, anziché renderli irrilevanti dicendo che il contagio batte in ritirata. L’analisi degli ultimi dati mostra una situazione sotto controllo, ma non ancora completamente tranquillizzante.
Silvestri conclude augurandosi che nel prossimo futuro non si usino più i modelli matematici per prendere decisioni. Se è indubbio che le scelte finali debbano essere fatte dalla politica, bisogna però capire su quale strumento basarsi per fare meno errori. Un modello matematico non è una sfera di cristallo. È uno strumento che permette di calcolare in modo obiettivo le conseguenze di quello che ci è noto sulla trasmissione del virus; sicuramente c’è un forte margine di incertezza legato alla stima dei dati reali e a tutto quello che non conosciamo, ma i modelli, a saperli leggere, forniscono anche stime su quale possa essere il proprio margine di errore. E sicuramente tutti i modelli, per definizione, possono essere migliorati. Tuttavia rinunciare al loro uso per affidarsi totalmente alle sensazioni degli esperti (spesso in contraddizione tra loro, fra l’altro) o magari ad aruspici non ci sembra sia proprio una grande idea.
Contatti
Andrea Pugliese, Univ. Trento,
esperto di modelli matematici delle epidemie
Piermarco Cannarsa, Univ. Tor Vergata,
presidente UMI
Roberto Natalini, CNR,
responsabile comunicazione UMI