venerdì 18 novembre 2016

Falsi miti: vaccini e immunità di gregge

I vaccini e l'immunità di gregge
L'immunizzazione attiva (o vaccinazione) contro le infezioni si basa sulla somministrazione di una piccolissima quantità di un agente infettivo inattivato (virus o batterio, ucciso o attenuato) o di componenti del microorganismo resi sicuri (come antigeni importanti o sostanze che alcuni microorganismi producono) o di proteine ottenute sinteticamente. In questo modo si evoca una risposta immunologica (immunità umorale e cellulare) simile a quella prodotta dall’infezione naturale senza causare la malattia e le sue complicanze. (1)
In teoria quindi chi è vaccinato dovrebbe essere protetto dalla malattia e dalle sue conseguenze, andando incontro a bassi rischi derivanti dalla vaccinazione.
Il principio sfruttato dalla vaccinazione è quello della memoria immunologica, cioè la speciale capacità del nostro sistema immunitario di ricordare le sostanze estranee, tra cui i microorganismi di diversa provenienza, che hanno attaccato il nostro organismo e contro le quali vengono prodotti anticorpi specifici. La vaccinazione simula il primo contatto con l’agente infettivo per stimolare il sistema immunitario e aumentare la concentrazione di cellule e anticorpi specifici in modo che se il microorganismo viene effettivamente incontrato dovrebbe essere neutralizzato.
Con la vaccinazione, in alcuni casi i batteri e i virus sono introdotti nell'organismo già uccisi, quindi non più in grado di causare malattia ma ancora sufficienti a stimolare una risposta immunologica. In altri casi i batteri e i virus sono invece attenuati, ossia non uccisi ma modificati in modo che non possano scatenare la malattia, in teoria. Esempi di vaccini attenuati sono il vaccino Sabin contro la poliomielite e il vaccino contro il morbillo, la parotite e la rosolia (Mpr). In alcuni casi, si utilizzano le sostanze tossiche prodotte dai microorganismi che vengono inattivate prima dell'introduzione nel nostro organismo, come nel caso del vaccino antitetanico e dell'antidifterico. A volte si utilizzano componenti della superficie dei virus o della capsula esterna dei batteri, come nel caso dell'Haemophilus influenzae di tipo b. Infine, una serie di vaccini prevede l'utilizzo di proteine sintetiche, ottenute in laboratorio e che simulano componenti dei virus, come è il caso dell'epatite B o della pertosse. Alle componenti batteriche e virali vengono aggiunti, nella composizione dei vaccini, diversi coadiuvanti per favorirne l'efficacia, prevenirne la contaminazione da parte di altri agenti microbici e stimolare le difese immunitarie dell'organismo vaccinato.
Le vaccinazioni non proteggono per tutta la vita per cui anche se non sono previsti richiami oltre al ciclo di base, molti adulti possono risultare scoperti, come ad esempio per la polio (2). Alcune vaccinazioni, come quella per il tetano, richiedono l’esecuzione di una o più dosi di richiamo dato che la protezione decade con il tempo anche se molti soggetto risultarono in alcuni studi protetti dopo oltre trent'anni dal ciclo primario senza aver effettuato richiami. In caso di epidemie o dell'insorgenza di casi di malattia nella comunità, i soggetti vaccinati dovrebbero avere probabilità molto minori di contrarre l’infezione. Il vantaggio è solo personale però. Infatti, si pensa che per le malattie infettive che si trasmettono da persona a persona, se la percentuale di soggetti vaccinati all’interno di una comunità o popolazione è sufficientemente elevata, la trasmissione dell’agente infettivo nella popolazione è ridotta e anche i soggetti che non possono ricevere il vaccino risultano protetti da quella che viene definita una “immunità di gregge”, cioè dalla bassa possibilità di diffusione della malattia, e quindi di contagio.


La teoria dell'immunità di gregge
Il concetto di “immunità di gregge” però compare per la prima volta negli anni trenta del novecento, quando nella ricerca di Arthur Hedrich della Johns Hopkins University, pubblicata nel maggio 1933 sul "American Journal of Epidemiology" scoprì che, dopo che buona parte della popolazione di Baltimora aveva contratto il morbillo e quindi era diventata immune al morbillo, anche il resto della popolazione, o “gregge”, era protetta. (3)
Egli aveva studiato i modelli di morbillo presentatisi negli Stati Uniti tra il 1900 e il 1931 (quindi molti anni prima della realizzazione dei vaccini contro il morbillo) e osservò che le epidemie della malattia si verificavano solo quando meno del 68% dei bambini aveva sviluppato un'immunità naturale ad essa.
Questa era basata sul principio che i bambini costruiscono la propria immunità solo dopo aver avuto od essere stati esposti alla malattia. La teoria della “herd immunity” era costruita, infatti, su processi di immunizzazione alla malattia del tutto naturali e non aventi niente a che fare con la vaccinazione: se almeno il 68% della popolazione è in grado di costruire autonomamente le proprie difese naturali, non si manifesterebbe nessuna epidemia. (4)
Più tardi i vaccinologi hanno adottato la ricerca e aumentato la cifra dal 68% al 95% senza alcuna giustificazione scientifica del perché e poi hanno dichiarato che ci doveva essere la copertura vaccinale del 95% per poter ottenere l'immunità. In sostanza, hanno preso lo studio di Hedrich e lo hanno manipolato per promuovere i programmi di vaccinazione.
Tale teoria non può essere applicata all'immunità vaccinale per semplici motivi: non immunizza il 100% delle persone vaccinate, non conferisce immunità per tutta la vita, infatti necessita di richiami costanti, stabiliti però in base a medie statistiche, ed infine in alcuni casi gli stessi vaccinati possono rappresentare un pericolo concreto per coloro che non possono essere vaccinati.
In uno studio (5) ritroviamo che è stato effettuato un modello per confrontare le percentuali della popolazione suscettibile al morbillo prima e dopo le campagne di vaccinazione. Lo studio evidenzia come prima della vaccinazione di massa solamente il 10,6% dei bambini al di sotto dei 10 anni risultassero suscettibili alla malattia. Le vaccinazioni hanno abbassato le percentuali al 3,1% dal 1978 al 1981, per poi però iniziare a salire, fino ad arrivare ad una stima del 10,9% entro il 2050.
Che cosa significa? Significa che le persone suscettibili alla malattia non saranno più soltanto bambini, ma anche altre persone nelle più diverse fasce d'età, criticità fino ad ora accantonata vista l'alta immunità naturale presente negli adulti. L'autore mette quindi in guardia le istituzioni sanitarie americane sul fatto che entro il 2050 moltissime persone di tutte le fasce di età saranno suscettibili, in percentuali molto maggiori al 10,6% dell'era prevaccinale, senza nemmeno considerare che l'immunità da vaccino non dura a vita.
In queste due fonti (6) (7) si evince invece che i vaccinati stessi possono comportare rischi a chi non può essere vaccinato. Ricordiamo infine che lo stesso CDC americano ammette che “..dopo una vaccinazione i virus prolificano e causano una infezione non pericolosa NEL VACCINATO”, ma non in chi lo circonda.
Fonti





Nessun commento:

Posta un commento