Visualizzazione post con etichetta epistemologia. Mostra tutti i post
Visualizzazione post con etichetta epistemologia. Mostra tutti i post

venerdì 26 ottobre 2018

La divulgazione scientifica al tempo del prosumatore

Alberto Angela, paleontologo di formazione e divulgatore vecchio stile e senza compromessi. Celebrato sui social media per il suo fascino e per la sue abilità nel "divulgare forte" in  un numero spropositato di memi, i quali hanno ispirato magliette e cosplayer (il meme con Cartesio è imbattibile: "Penso, quindi sono. / Divulgo forte, quindi levati").
Fonte: Google

«Attenzione nell’informarsi. Per lo più si vive d’informazione; il meno è quello che vediamo; viviamo sopra l’altrui fede […] Necessaria è la più fina attenzione in questo punto per iscuoprire la intenzione di colui che è di mezzo, investigando, avanti che parli, di che piede si mosse ad informare. Sia la riflessione quella che faccia paragone dell'oro vero dal falso, e rivegga i pesi e le misure».

Baltasar Gracián y Morales, aforisma n. 79 (1647), dalla traduzione italiana di Vincenzo Giovanni De Lastanosa intitolata Oracolo Manuale e Arte di Prudenza, Venezia, 1690.

Ipsa scientia potestas est


Che cos’è che rende efficace la divulgazione scientifica? Dove si può tirare una linea di demarcazione e dire questo prodotto non è divulgazione, mentre quest’altro lo è? Che cos’è che rende un prodotto divulgativo un buon servizio divulgativo, e che cosa lo differenzia da un “cattivo” esempio di divulgazione? Quale impatto hanno avuto la Rete e i social network sulla qualità della divulgazione? 

La questione è molto più complicata e ambigua di quanto si possa pensare, e l’etimologia del termine – primo possibile argine alla nostra confusione – non ci aiuta molto. Divulgare, come leggiamo sul sito della Treccani, ha due accezioni principali. La prima ci informa che divulgare equivale a «Rendere noto a tutti o a molti, diffondere»; la seconda ci suggerisce come significato quello di «Rendere accessibili a un più vasto pubblico, per mezzo di un’esposizione semplice e piana, nozioni scientifiche e tecniche» [1]. Sono due accezioni fortemente in contrasto, perché se la prima stabilisce un livello di accettabilità minimo potenzialmente slegato dalla tipologia (e dalla qualità) dei contenuti, la seconda reca con sé la necessità di conoscere mezzi, metodi e teorie in modo approfondito per saperli poi divulgare, ossia diffondere

Il presupposto banale di ogni divulgazione fatta come si deve è che dietro alla voglia di diffondere ci sia anche la volontà di contribuire ad aumentare le conoscenze per il bene comune. Il sapere è infatti la pietra di volta di ogni miglioramento sociale e individuale. Se so come accendere un fuoco, cucinerò meglio e scalderò la mia famiglia. Se conosco la storia posso imparare ad evitare gli errori già commessi nel passato. Se so che cos’è il tempo profondo dell’evoluzione riuscirò a liberarmi di preconcetti razziali antiquati e a essere – si spera – un individuo moralmente migliore.

Ipsa scientia potestas est: la conoscenza in sé è potere, secondo il motto coniato dal filosofo inglese Francis Bacon nel 1597. Bacon sottintendeva almeno tre accezioni dietro a questa frase:
  1. l’accumulo di conoscenze verificate risultante dallo studio sperimentale che serve per migliorare le condizioni di vita;
  2. coloro che possiedono conoscenze pratiche sulla base del punto (1) sono in una posizione privilegiata per occupare cariche pubbliche e posizioni politiche di rilievo rispetto a chi le detiene o le eredita perché nobile di nascita;
  3. questo sapere può esser organizzato ed utilizzato per implementare una tecnologia del sapere, ossia una serie di processi cognitivi, strumenti sociali, pratiche, e discorsi volti a irreggimentare una disciplina della ricerca non aliena a scopi e motivazioni di carattere politico – in ottemperanza a quanto stabilito dal punto (1) [2].
Fin qui, tutto normale. Al tempo di Bacon si trattava di giustificare l’investimento e la mobilitazione di capitali intellettuali e politici allo scopo di istituire le fondamenta di un’organizzazione scientifica capillare ancora di là da venire. Sto ovviamente tagliando il discorso storiografico con l’accetta, ma il discorso resta valido anche oggi. Se dobbiamo decidere come smaltire scorie radioattive, come affrontare in modo efficace il riscaldamento globale o come gestire i gruppi che fanno pressione perché si elimini l’insegnamento della biologia evoluzionistica dalle scuole dell’obbligo si spera che i decisori politici abbiano conoscenze approfondite in merito a ingegneria nucleare, climatologia e  storia della scienza o genetica (o per lo meno, si spera che abbiano saputo circondarsi di consiglieri capaci). Cosa che però, al tempo della post-verità, del negazionismo climatico e di cospirazionismi vari, evidentemente non è [3].

Non è un caso che il terzo punto della relazione tra potere e sapere, quello più strettamente legato all’esercizio pratico del potere, si sia prestato agli affondi poststrutturalisti di studiosi come Michel Foucault e Pierre Bourdieu, i quali hanno passato al setaccio le negoziazioni e i rapporti di potere tra classi sociali e individui, tra subordinati e dominanti, per svelare i modi in cui i discorsi e le pratiche che rappresentano il guscio esterno del “sapere” possono contribuire a influenzare, indirizzare, manipolare e distorcere la ricerca stessa e l’applicazione dei suoi risultati per convenienze politiche e sociali [4]. Un esempio storico? L’accettazione del lysenkoismo come genetica di stato nell’Unione Sovietica fu motivato non tanto dai risultati sperimentali (deludenti e fallimentari) ma dalla sua adozione all’interno di una tecnologia sociale del sapere (in termini filosofici, una tecnologia scissa dall’epistemologia) volta a contrapporsi a priori e per motivi ideologici alla genetica “occidentale”, ritenuta macchiata da compromessi borghesi e capitalistici. Il risultato fu triplice: 
  • la sostanziale marginalizzazione dell’ambito di ricerca nell’URSS;
  • lo smantellamento della biologia sperimentale russa tramite licenziamento o reclusione dei ricercatori;
  • l’esodo di genetisti russi all’estero (che decisero di non tornare più, come fece Theodosius Dobhzansky). 
Il lysenkoismo diventò un’arma della propaganda interna la quale adottò, diffuse e divulgò questa dottrina per sostenere l’agricoltura russa in un momento difficile. Di esempi simili ce ne sono tanti per ogni epoca e per ogni latitudine (le manipolazioni nazifasciste dei discorsi e delle pratiche scientifiche in epoca interbellica furono ancora più aberranti), ma tanto basti per ricordarci banalmente che le idee e la loro diffusione non sono innocue ma hanno conseguenze tangibili sul reale [5].

Un cervello dell’età della pietra


Possiamo quindi capire che divulgare non può e non deve essere considerato come cosa buona di per sé. I ciarlatani possono divulgare in modo efficace e convincente. E, purtroppo, abilissimi ricercatori possono essere carenti dal punto di vista delle doti comunicative. Quando chi sa viene marginalizzato  o delegittimato per motivi di convenienza, non è raro che si diffondano con maggiore efficacia le voci dei ciarlatani. Ricordo l'esempio recente del parlamentare ed ex ministro conservatore inglese Michael Gove il quale, durante la campagna per il referendum del Regno Unito sul mantenimento dell'adesione all’Unione Europea, commentò di averne “avuto abbastanza degli esperti”. Come il caso del lysenkoismo insegna, e come la storia sociale della scienza ha ribadito fino allo sfinimento, possono esistere pressioni sociali dietro alla ricerca, all’imposizione o al silenziamento del sapere, e queste pressioni sociali si traducono nella creazione di un ambiente nel quale le idee competono e si diffondono sulla base della loro forza persuasiva. In breve, l’utilità ideologica e la spendibilità politica prendono il sopravvento sulla conoscenza sperimentale in senso lato – ossia sul sapere dotato della dovuta garanzia di affidabilità o di replicabilità a seconda del tipo di scienza coinvolto.

Ma se vengono meno i paletti di valutazione propriamente scientifici, come si fa a giudicare? In questo caso, si giudica o sulla base dell’aderenza ad un progetto ideologico (come l’esempio del lysenkoismo dimostra) e/o sulla base del grado di apprezzamento e di accettabilità intuitivi rispetto al contenuto divulgato. In altre parole, entrano in ballo i bias cognitivi e le fallacie logiche, ossia quella serie di scorciatoie razionali che sono il frutto dell’evoluzione di Homo sapiens (i bias) e della sua organizzazione socio-culturale (le fallacie). Questi accessori computazionali sono condizione necessaria ma non sufficiente per capire il mondo e il suo funzionamento: necessaria perché fanno parte del pacchetto cognitivo e sensoriale “chiavi in mano” del quale siamo dotati dalla nascita; non sufficiente perché sono il risultato di intuizioni rapidissime e utili nel passato profondo ma potenzialmente inaffidabili sul funzionamento del mondo. Fare affidamento su queste intuizioni “di pancia” nel mondo ultrasociale e ipertecnologizzato di oggi equivale a un suicidio intellettuale [6]. Siamo primati evoluti per gestire un mondo fatto di un nucleo esteso di familiari e conoscenze di 150 individui al massimo, un mondo nel quale se sentiamo del brusio tra le siepi potrebbe esserci un predatore nascosto pronto a farci la pelle, un mondo nel quale la comunicazione è quella che avviene a voce – e stop. Se i bias e le intuizioni sono utili è perché hanno permesso ai nostri antenati di sopravvivere in quelle determinate condizioni – e stop. Non servivano capacità cognitive peculiari per gestire il sovraccarico cognitivo di informazioni quotidiane o le migliaia di followers sui social media, perché il volume della rete sociale e di informazioni condivise nell’arco della vita intera di un nostro lontano antenato paleolitico starebbe tranquillamente su un quaderno A4 o su un floppy disk. Eppure, nonostante la stupefacente tecnologia computazionale racchiusa nella nostra CPU cognitiva sia stata costantemente ri-sistemata dal bricolage evolutivo, alla base c’è ancora la struttura portante di quel lontano sistema operativo paleolitico. Con tutti i suoi limiti e i suoi bias che ci portiamo dietro. Faccio tre esempi banali.
  • Ci sembra ovvio che sia il Sole a sorgere, e continuerà a sembrarci così anche se sappiamo che è la Terra a girare intorno al Sole e persino se vinciamo un Nobel. Non ci siamo evoluti per volare nello spazio e vedere la Terra dall’alto.

Earthrise, 24 dicembre 1968. missione Apollo 8. Fonte: NASA, immagine di dominio pubblico; da Wikipedia.

  • Ci sembra ovvio che il primo segmento dall'alto dell’immagine qui sotto sia più lungo del  secondo segmento, e continuerà a sembrarci così anche dopo aver misurato entrambi i segmenti e aver appurato che in realtà sono della stessa misura. Non ci siamo evoluti per discriminare le illusioni ottiche e il nostro sistema di percezione visiva è a malapena sufficiente. 


Illusione di Müller-Lyer. Fonte: Wikipedia.

  • Ci sembra ovvio che gli animali non stiano evolvendo a occhio nudo nell’arco dei decenni della vostra esistenza su questa Terra, e nel leggere testi antichi o nel vedere statue e dipinti potremmo pensare che non si siano mai evoluti. Non ci siamo evoluti per vedere le mutazioni microscopiche che agiscono nel DNA, nei microbi e nei microrganismi nel giro di ore o giorni.[7] 

Attenti al cane! Certe cose, a quanto pare, non cambiano mai... Fonte: Wikipedia

Per farla breve, non ci siamo evoluti allo scopo di fare proprio un bel niente – tutto le nostre capacità fisiche e mentali sono il frutto di processi selettivi privi di scopo che hanno filtrato quelle caratteristiche sufficientemente buone da permettere la sopravvivenza e la riproduzione dei nostri antenati lungo la storia profonda dell’evoluzione sulla Terra. Sopravvivenza fino alla riproduzione – e stop. Se davvero vogliamo individuare una qualche peculiarità è quella di aver ereditato una nicchia cognitiva specifica che ha permesso lo sfruttamento cumulativo e intergenerazionale del surplus computazionale del nostro sistema nervoso centrale per accumulare conoscenze di ogni tipo, dalle tecniche di caccia agli alberi storico-genealogici per tenere conto di alleati e nemici, fino ad arrivare ai memi di Alberto Angela che “divulga forte” sulla Rete [8]. Va da sé che questo sistema computazionale e cognitivo è ben lungi dall’essere perfetto: i pregiudizi e le fallacie lo dimostrano.

Ora, le culture umane sono il risultato dell’interazione continua e sostenuta di più sistemi centrali nervosi individuale connessi in una rete sociale. Per insistere sulla nostra metafora informatica, questi PC sono sì collegati in rete (la cultura), ma sono di seconda mano (evoluti) e con tutti i loro software preinstallati, vecchi, in prova, incompleti, “craccati” e in conflitto tra di loro (i bias). Non stupiamoci allora se anche le culture umane (e la nostra non fa eccezione) sono spesso afflitte da pregiudizi di ogni tipo. Eppure, un argine a questi pregiudizi lo si può trovare proprio in quell’accumulo di sapere che è il frutto della nostra nicchia cognitiva  – se, e solo se, vincolato a tecniche e metodi logici e razionali. Ricordiamocelo: anche i ciarlatani possono divulgare in modo efficace, sfruttando proprio gli stessi strumenti della cassetta degli attrezzi cognitivi che ha permesso di costruire la nostra nicchia cognitiva. Il sapere può contenere i biases e correggere le fallacie se, e solo se, questo viene vincolato a tecniche e metodi logici e razionali. Per tale motivo, lottare contro questi processi cognitivi suggestivi e accattivanti costa molta fatica intellettuale e impegna decenni di alfabetizzazione scientifica e umanistica. Il geocentrismo è stato falsificato, le illusioni ottiche dimostrano il peso dei vincoli evolutivi nella percezione dinamica dell’ambiente ecologico e la stupefacente prospettiva aperta dal tempo profondo è stata dischiusa con sforzi immani dalle geologia. Il problema sta nel fatto che solamente un livello sufficiente di formazione intellettuale può ovviare alla proliferazione incontrollata di queste trappole seducenti e intuitive – anzi, seducenti perché intuitive. E perché ciò avvenga, è necessario che ci siano istituzioni capaci di fare buona divulgazione, ossia, in primo luogo, la scuola e l’università.


L'illusione di Müller-Lyer è un artefatto culturale: in ambienti reali e tridimensionali è un indice affidabile di profondità. Esistono altre spiegazioni ecologico-evolutive che contribuiscono a spiegare questa e altre illusioni, ma la sostanza è la stessa: il nostro sistema percettivo può essere 'fregato' da indizi sensoriali sconnessi dall'input ecologico primario. Questo vale per tutti i domini percettivo-sensoriali: pensate ai dolcificanti che mimano l'effetto dello zucchero. Da Wikipedia.


I vizi del prosumatore


Grazie alla nostra nicchia cognitiva e al sistema di accumulo culturale a denti d’arresto, l’evoluzione culturale viaggia più velocemente dell’evoluzione biologica. Per questo c’è sempre uno scarto tra le due, con l’evoluzione biologica a segnare il passo. In questo senso, la globalizzazione, la commercializzazione di massa dei personal computer e la diffusione di connessioni Internet rapide e a buon mercato hanno segnato uno spartiacque di dimensioni ciclopiche: ogni prodotto audiovisivo e letterario creato da Homo sapiens è potenzialmente catalogato (o catalogabile), disponibile e a portata di clic. Questa sovrabbondanza di informazione disponibile ovunque, per chiunque e in tempo reale ha modificato pesantemente sia il sistema sociale sia quello economico. In breve, la divulgazione non ha fatto altro che seguire o adeguarsi alla trasformazione generale della cultura di massa, all’interno della quale si sono imposti i cosiddetti “prosumer”, o prosumatori. Per prosumatore si intende un agente a metà tra produttore/professionista e consumatore, anzi, un «consumatore che è a sua volta produttore o, nell’atto stesso che consuma, contribuisce alla produzione» [9]. Il prosumatore produce e diffonde più o meno gratuitamente contenuti sulle stesse piattaforme digitali adibite al consumo di informazioni. L’attuale nicchia culturale dei prosumatori è quello dei social media in genere, e in particolare quella dei podcast da scaricare e dei canali su Youtube, la nota piattaforma per la condivisione di clip audiovisive. Due fattori concomitanti e legati tra di loro hanno causato questo rapidissimo avvicendamento: 
  1. l’esplosione dei social network, i quali – a partire dall’introduzione dell’iPhone di Apple nel 2007 – hanno gradualmente depauperato le funzioni dei blog rendendoli obsoleti (le interazioni e la fidelizzazione dei followers non avvengono più su Blogger o Wordpress, ma hanno luogo soprattutto su Twitter, su Facebook, su Instagram e sulla sezione commenti di Youtube); 
  2. la diffusione a macchia d’olio degli smartphone i quali hanno reso possibile la creazione e la fruizione di contenuti audio-video di buona qualità ovunque e in ogni istante: nel 2016 i social media contavano 2,3 miliardi di utenti e, di questi, 1,9 erano connessi grazie alle app sul cellulare [10]
In pratica, l’esistenza di prodotti relativamente economici ha creato un bacino smisurato di prosumatori dotati di account e di profili sui maggiori social media, un bacino che coincide virtualmente con quello dei possessori di mezzi tecnologici sufficientemente adeguati. Questo si traduce nella coesistenza di produzione e consumo da parte di tutti i possessori di smartphone e nella trasformazione dei social media in fonte di contenuti informativi/divulgativi creati dai consumatori stessi. Questa massa enorme di prosumatori crea un ambiente altamente competitivo all’interno del quale vigono criteri che non sono quelli che dovrebbero garantire una corretta informazione (scientifica e non). Dato che viene a mancare un controllo fattuale dell’informazione, questi criteri coincidono piuttosto con i bias cognitivi e con le fallacie logiche e che qui appaiono distribuiti su tre livelli che interagiscono continuamente creando dinamiche specifiche: 
  • individuale: i bias logici ed emotivi che caratterizzano la computazione mentale (ossia, appello alle emozioni, bias di conferma, ecc.);
  • sociale: le dinamiche di gruppo (accettazione di contenuti sulla base del conformismo, del presunto prestigio della fonte, della presunta autorevolezza della fonte, ecc.);
  • tecnologico: i bias presenti negli algoritmi che selezionano automaticamente i contenuti sulla base della preferenze di navigazione, ritagliandoli su misura per ogni prosumatore (ovviamente, i bias non appartengono alle “macchine”, ma ai programmatori che hanno implementato questi programmi) [11] 
Un contenuto può quindi diventare “virale”, ossia diffondersi in modo capillare, come risultato dell’interazione di questi tre livelli. Come ci insegna la network theory, la popolarità, l’adozione (il fatto di “postare” su un profilo) e la condivisione attiva (scrivendone) di certi contenuti da parte di agenti (o influencer) capaci di influenzare a cascata i nodi che compongono la rete di relazioni diventa a sua volta un traino – e un bias. Se Gwineth Paltrow decide di sponsorizzare sulla sua piattaforma commerciale adesivi cutanei capaci di “ribilanciare la frequenza energetica del proprio corpo” [sic!], utenti che non avrebbero mai pensato a questo tipo di prodotto possono subire l’influenza e il prestigio della star in questione e acquistare un pezzo di nastro adesivo che non serve assolutamente a nulla [12]. Infine, l’ambiente dei social media tende ad autoriprodursi, auto-organizzarsi e auto-citarsi, emulando schemi e nozioni riconoscibili perché hanno avuto successo (o semplicemente perché questi schemi sono arrivati prima, imponendosi come vincolo comunicativo), e questo crea un’omogeneizzazione delle fonti (e una bolla conscitiva) che incide negativamente sul livello di approfondimento: nella stragrande maggioranza dei casi, per fare divulgazione in un video si tende a citare e a linkare un video di un altro canale Youtube e non un articolo su JStor o JAMA [13]

Ora, per la sola forza dei numeri, il numero di prosumatori diluisce l’efficacia degli agenti possessori di sapere epistemicamente giustificato nel contenere la diffusione di contenuti che non raggiungono un livello minimo di accettabilità scientifica o di affidabilità informativa. Da qui la diffusione delle cosiddette fake news e della pseudoscienza cospirazionista e negazionista che infesta la Rete. Tirando le somme fino a questo punto, l’ipotesi è che sui social media, su Youtube e sulle piattaforme ad esso collegate il volume di contenuti volti a «Rendere noto a tutti o a molti, diffondere» sia di gran lunga maggiore rispetto ai contenuti diretti a «Rendere accessibili a un più vasto pubblico, per mezzo di un’esposizione semplice e piana, nozioni scientifiche e tecniche». [14]

All’interno dell’ambiente concettuale creato dalle utenze connesse via smartphone, le conoscenze scientifiche, onerose da acquisire e lente da apprendere, e pertanto possedute da una minoranza di utenti, sono state schiacciate dal numero stupefacente di prosumatori estranei al mondo scientifico. Questi ultimi sono però interessati all’accumulo del capitale sociale ottenibile grazie al prestigio della scienza, e consumando/producendo contenuti che si caratterizzano in linea di massima come materiale di intrattenimento estemporaneo creano una nicchia prontamente occupata da bias e fallacie. Mancando i presupposti conoscitivi del sapere accumulato, non c’è garanzia che i loro prodotti siano affidabili [14bis]. Se a ciò aggiungiamo che quello dello youtuber prosumatore è diventato un mestiere retribuito sulla base di una partnership aziendale (sancita a sua volta dal raggiungimento di un certo numero di followers – una spinta dal “basso”), non è difficile capire come la produzione di materiale di consumo social possa diventare la molla e il motivo fondamentale per incontrare e assecondare i bias innati del pubblico – rinunciando così alla missione educativa su lungo termine.

In breve, la conseguenza di maggior rilievo per la divulgazione scientifica è 
la creazione di una nicchia cognitivamente ottimale (ossia sufficientemente intuitiva – immediata e capace di catturare l’attenzione – ma non sufficientemente scientifica – cioè lenta e che si acquisisce sulla base di un accumulo di conoscenze), che prevede la creazione/consumo di materiale facilmente assimilabile, capace di venire incontro ai bias e alle fallacie logiche comuni e che si presenta come aderente alla seconda accezione della definizione di Treccani riportata all’inizio del post ma che, in buona o cattiva fede, ricade nella prima. 

Purché se ne parli


Si legge sempre meno in Italia, lo sappiamo [15]. Questo processo, incoraggiato da decenni di strapotere televisivo e di disimpegno culturale cavalcato a spron battuto dalla società e dai decisori politici (una fase che in qualche modo preannunciava la post-verità di oggi), ha avuto un impatto sia sulla divulgazione “vecchio stile” (quella alla Carl Sagan e alla Piero Angela, per intenderci) sia su chi ha abbracciato nel frattempo la “terza cultura” alla Brockman, ossia la produzione di materiale divulgativo per mano dei ricercatori e degli scienziati stessi. Entrambe le tipologie di divulgazione abbracciano idealmente uno standard di divulgazione lento e cumulativo, prediligendo pacchetti divulgativi chiusi capaci di «Rendere accessibili a un più vasto pubblico, per mezzo di un’esposizione semplice e piana, nozioni scientifiche e tecniche». 

La concorrenza con le nuove tecnologie, la dipendenza digitale delle nuove generazioni, e i tagli ai fondi destinati alle infrastrutture istituzionali per la creazione di prodotti di qualità, hanno fatto sì che alcune delle caratteristiche basilari del modello prosumeristico si siano imposte graudalmente come nuovo standard per la realizzazione della divulgazione. In questo modo hanno preso piede un nozionismo spettacolare o immagini stupefacenti. Si confronti il Cosmos di Sagan con quello più recente di Neil DeGrasse Tyson, o un qualunque documentario sulla paleontologia degli anni ’80 e uno di oggi. Forse l’esempio più rappresentativo di questo processo è l'acquisizione del National Geographic da parte della Fox di Rupert Murdock, che ha trasformato nel giro di pochi anni il venerabile mensile, alfiere della migliore divulgazione scientifica a tutto tondo, in un brand-piattaforma dedicato all’infotainment sensazionalistico [15bis]

Trova l'intruso...
Fonte: fotografia scattata dall'autore (CC-BY-NC-ND 3.0)

Gli scienziati interessati alla divulgazione (e spronati dall’accademia per fare outreach ed essere visibili sulla scena culturale, pena la rinuncia a fondi sempre più risicati) si sono così dovuti reinventare prosumatori per evitare l’emarginazione culturale, andando incontro al livello di bias e di fallacie coltivato nei social. Nello stesso tempo, la competizione ha creato altresì un ceto digitale di influencer/prosumatori che non dispongono di particolari nozioni nel campo scientifico del quale si occupano, ma che rispondono ai livelli di conoscenza e di attese contenutistiche dell’utenza digitale. Ancora, se la divulgazione classica guidava l’apprendimento secondo uno schema chiuso di accumulo di conoscenze, i format di YouTube e deipodcast non prevedono mai questo palinsesto di lunga durata, preferendo sfruttare un sistema aperto all'interno del quale i temi sono estemporanei e le interviste forniscono spunti per eventuali discussioni, inseguendo l’hot topic del momento per poi abbandonarlo subito dopo. Arrivati a quest’ultimo punto, i problemi sono due:
  1. l’utenza digitale che segue i maggiori siti e account social dedicati alla scienza riceve un’informazione schiacciata pesantemente sulla “spendibilità” pratica e immediata della notizia, a sua volta vincolata dai bias di cui sopra: le fotografie e le illustrazioni e le infografiche vincono sui contenuti, ricordandoci ancora una volta che siamo animali sociali sostanzialmente visivi; i consigli pratici, i consigli sulla salute, e gli appelli estemporanei all’azione concreta o alla solidarietà (esulando spesso dalla scienza in senso stretto) vincono sull’approfondimento e sulla precisione; il nozionismo rapido, slegato da contenuti complessi, è più ficcante degli approfondimenti e delle riflessioni puntuali; e così via [16];
  2. la divulgazione stessa – anche quando fatta bene – soffre delle limitazioni dovute al mezzo stesso di divulgazione: la diffusione e il trasferimento di contenuti culturali e scientifici al di fuori dell’ambiente di origine (ossia l’accademia e il network esteso degli studiosi) comporta un effetto imbuto che da un lato semplifica con successo concetti complicati per veicolarli in modo efficace, ma dall’altro prepara il contenuto trasferito a un arricchimento semantico  che si basa – e qui casca l’asino – sui bias innati di cui parlavamo all’inizio. In altre parole, il concetto semplificato e divulgato viene re-installato all’interno di un contesto dominato da riferimenti socio-cognitivi profondamente differenti, e lì viene addobbato, per così dire, di connotazioni del tutto estranee al concetto stesso. Metafore e concetti minimamente controintuitivi, sfruttati per la loro memorabilità e presa cognitiva ottimale (il gatto di Schrödinger e il collo della giraffa lamarckiana sono un esempio lampante), vengono recepiti e miscelati tra di loro (del tipo, “evoluzione quantistica”) per rientrare come carne da cannone della cultura popolare (film, serie TV, programmi televisivi, riviste di informazione, quotidiani, ecc.), della post-verità, del cospirazionismo e della pseudoscienza esoterica [17]. In pratica, si passa dal gatto di Schrödinger a Deepak Chopra e a Lost senza soluzione di continuità. In buona sostanza, è questa scienza-non-scienza che diventa la fonte principale di conoscenza del pubblico. Ed è per questo che occorre essere quanto più precisi possibile quando si fa divulgazione.

Lo schema più importante di tutto il post, incentrato sull'inevitabile dramma della scorrettezza scientifica: per divulgare efficacemente si deve scendere a patti con bias e fallacie,  ma questo scivolamento comporta il fraintendimento dei contenuti veicolati. Solo un programma a lungo termine di alfabetizzazione scientifica, logico-razionale e culturale può ovviare a queste distorsioni.  Questo programma ci sarebbe già: si chiama "scuola".
Fonte: opera dello scrivente, adattata e modificata da Asprem 2016 (vedi bibliografia) (CC-BY-NC-ND 3.0)


Divulgazione 2.0 tra postmodernismo e post-verità



In conclusione, è più probabile che il movente di un contenuto divulgato online sia meramente quello di essere presenti e di “diffondere” un contenuto, e non il contenuto scientificamente corretto ci si apsetterebbe. Questo contenuto si piega spesso al bisogno di attirare l’attenzione: basta che se ne parli se il trend è hot in quel momento, e se non lo è occorre trovare il modo per renderlo tale. Spesso si cavalca un nozionismo ridanciano che si basa sull’inaspettato, sul “perturbante” (quello che Freud chiamava Unheimlich) e su tutti i mezzi cognitivi per attirare l’attenzione in un mondo digitale dove l’attenzione è il bene più elusivo di tutti (non sto qui a ricordare gli effetti reali o presunti degli smartphone e dei social media sulla cognizione umana [17bis]). E il risultato è che per fare divulgazione si finisce invece a creare edutainment, ossia fondere (molto) divertimento con (poco) materiale educativo. Una cosa che non suona neanche tanto minacciosa, ma che declinata sulla base dei bias e delle fallacie logiche, diventa il veicolo per diffondere contenuti veramente “virali” – nel senso di materiali infettivi e dannosi. 

I fatti socio-politici dell’attualità confermano che la distinzione tra informazione semiseria e diffusione/divulgazione non viene riconosciuta dalla maggioranza dei prosumatori: la Brexit, l’elezione di Trump, il sovranismo europeo, le scie chimiche e l’antivaccinismo sono tutti sostenuti da bugie e da un attivo disprezzo nei confronti degli esperti, e convergono tutti in quel punto all’orizzonte che si chiama postmodernismo – e che è anche il punto di fuga umanistico del prosumerismo. Dal alcuni rivoli della filosofia postmoderna nascono:

  • l’abbaglio sociale dello smantellamento del sapere istituzionale (e specialmente quello scientifico) perché ritenuto colpevole dei mali sociali, politici ed economici;
  • la confusione tra ontologia (quello che c’è, la realtà) e l’epistemologia (ossia il sapere che utilizziamo per giungere alla conoscenza della realtà);
  • il pensiero che il reale sia quello che viene ritenuto tale e non quello che è;
  • l’idea che tutte le opinioni abbiano eguale valore scientifico (in senso lato). 
Allora, è normale che astrologia e astronomia possano avere lo stesso identico peso epistemologico – e lo stesso spazio nelle trasmissioni televisive (in Italia) [18]. E così le bugie politiche e i dati economici, il mercurio nei vaccini che causerebbe l’autismo e gli effetti dell’inquinamento come interferente endocrino, il dramma del cambiamento climatico e il negazionismo della Casa Bianca coesistono tutti come se avessero un peso e un valore identici. Tutto coesiste con il suo contrario, uno vale uno – e chi perde in questo gioco è proprio il sapere. Ma allora, senza controllori adeguati, chi controlla e chi gestisce tutto questo marasma? Nessuno. O meglio: tutti i prosumatori stessi, guidati in stragrande maggioranza dai loro bias intutivi, dai gusti locali, dalle mode del momento e dalle loro fallacie logiche. In un mondo digitale nel quale contano le visualizzazioni e gli iscritti, la divulgazione scientifica, ossia lo scioglimento di contenuti complessi in micro-concetti facilmente assimilabili sui quali costruire e consolidare a lungo termine nozioni man mano più complesse, è stata la prima vittima [18bis].

Ma la scuola? – si potrebbe obiettare. Non avrebbe dovuto formare – e vaccinare razionalmente – quelli che sarebbero poi diventati i prosumatori? Purtroppo no. La scuola dell’obbligo e l’università italiane versano in condizioni che, in generale e paragonate a quelle di altri paesi confinanti, non esiterei a definire sull’orlo del disastro [19]. Entrambe scontano decenni di problematiche strutturali lasciate irrisolte. Spetterebbe all’insegnamento scolastico fornire lo standard della divulgazione: lenta, cumulativa, per gradi di complessità crescente, senza semplificare in modo eccessivo ma cercando di veicolare pensieri complessi in modo diretto, progressivo e con calma. Insegnando innanzitutto a giudicare logicamente le informazioni e le nozioni, a valutare le fonti, a sviluppare una critica sensata ed epistemologicamente fondata. Tutto questo non è più un dato di fatto, qualcosa di scontato, e anche quando questo servizio essenziale viene fornito in modo esemplare il sapere immagazzinato deve vedersela con la competizione costante e il bombardamento cognitivo dell’edutainment/infotainment dei social media. Chiaro, si parla di grandi numeri, e non prendo in considerazioni le eccezioni. Ma i trend internazionali forniti dalle istituzioni più affidabili parlano chiaro: c’è una recrudescenza di fragilità conoscitive e di scelte sociali e politiche inadeguate dovute a un venir meno della conoscenza scientifica condivisa. Si è aperto uno squarcio nella struttura sociale, e se non riusciremo a ricucirlo al più presto, tutti, prosumatori e non, ne pagheremo le conseguenze. 


[1] Treccani – Vocabolario on line, s.v. 'divulgare'. http://www.treccani.it/vocabolario/divulgare/

[2] Rodríguez García, J.M. (2001) “Scientia Potestas Est – Knowledge is Power: Francis Bacon to Michel Foucault”. Neohelicon (2001) 28: 109-121. https://doi.org/10.1023/A:1011901104984

[3] D’Ancona, M (2017). Post-Truth: The New War on Truth and How to Fight Back. Londra: Ebury Press. La post-verità, in breve, rappresenta il risultato politico dell’interazione tra i seguenti fattori: (1) l’esistenza di una corrente filosofica di successo (il postmodernismo) per cui “non esistono i fatti, esistono solamente le opinioni”; (2) un’epoca storica caratterizzata da democrazia, liberismo, capitalismo; (3) l’innovazione tecnologica della Rete. Da Ferraris, M. (2017). Postverità e altri enigmi. Roma e Bari: laterza. p. 10.

[4] Cfr. D’Ancona. Post-Truth..., cit., e Ferrari, Postverità e altri enigmi, cit.

[5] Cassata, F. (2008). Le due scienze. Il «caso Lysenko» in Italia. Torino: Bollati Boringhieri.

[6] Kahneman, D. (2012). Pensieri lenti e pensieri veloci. Milano: Mondadori.

[7] Si veda questa serie di post su McCauley, R. N. (2011). Why Religion Is Natural and Science Is Not. Oxford and New York: Oxford University Press; cfr. anche Tooby, J. & Cosmides, L. (1992). “The psychological foundations of culture”. In J. Barkow, L. Cosmides, & J. Tooby (Eds.), The Adapted Mind: Evolutionary Psychology and the Generation of Culture. New York: Oxford University Press; Dunbar, R. (2004). The Human Story. Faber & Faber; Dunbar, R., Barrett, L. & Lycett, J . (2005). Evolutionary Psychology: A Beginner’s Guide. OneWorld: Oxford. Sui limiti cognitivi relativi ai legami sociali si veda “Do Online Social Media Cut through the Constraints That Limit the Size of Offline Social Networks?” di R. Dunbar, in Royal Society Open Science, Vol. 3, Article No. 150292; January 2016 http://rsos.royalsocietypublishing.org/content/3/1/150292

[8] Pinker, S. (2010). “The cognitive niche: Coevolution of intelligence, sociality, and language”. PNAS 107 (Supplement 2) 8993-8999; published ahead of print May 5, 2010 https://doi.org/10.1073/pnas.0914630107

[9] Menduni, E. (2008). s.v. “prosumer”. Enciclopedia della Scienza e della Tecnica. http://www.treccani.it/enciclopedia/prosumer_%28Enciclopedia-della-Scienza-e-della-Tecnica%29/

[10] Biały, Beata (2017). “Social Media—From Social Exchange to Battlefield.” The Cyber Defense Review 2(2): 69-90. https://www.jstor.org/stable/26267344?seq=1#metadata_info_tab_contents

[11] Pigliucci, M & M. Boudry (2014). Philosophy of Pseudoscience: Reocnsidering the Demarcation Problem. Chicago and London: The University of Chicago Press.

[12] Caulfield, T. (2016). Is Gwyneth Paltrow Wrong About Everything? When Celebrity Culture And Science Clash. London: Penguin.

[13] Cianpaglia, G. L. & F. Menczer (2018). “Misinformation and biases infect social media, both intentionally and accidentally”. June 20, 2018, The Conversation, https://theconversation.com/misinformation-and-biases-infect-social-media-both-intentionally-and-accidentally-97148. Basato su Shao C, Hui P-M, Wang L, Jiang X, Flammini A, Menczer F, et al. (2018) Anatomy of an online misinformation network. PLoS ONE 13(4): e0196087. https://doi.org/10.1371/journal.pone.0196087.

[14] Apro qui in nota una digressione storica, chiedendo scusa in anticipo per la semplificazione eccessiva. La tecnologia e l’industria del libro aveva un numero variabile ma consistente di passaggi e di tecniche da padroneggiare prima che un utente potesse passare da consumatore a produttore, agendo  nell'insieme da dissuasore per i più impreparati. Le tecnologie digitali hanno invece azzerato i tempi di attesa sia nella gestione del materiale che nella produzione. Oggi, chiunque può creare prodotti culturali con una veste grafica di buona o persino di eccellente qualità – cosa che una volta spettava solamente alle case editrici migliori, le quali avevano anche accumulato un capitale di rigore scientifico. Quindi, precisione del contenitore (la veste grafica) e del contenuto (le informazioni divulgate all’interno del libro) spesso coincidevano. Le University Presses anglosassoni erano (e sono tuttora) belle da vedere e da sfogliare ma soprattutto affidabili. Oggi questi due elementi sono spesso disgiunti. Anzi, la veste grafica viene attivamente sfruttata online per veicolare informazioni e nozioni false, mentre le piattaforme digitali non controllano i contenuti che i loro utenti postano. Oxford University Press, ad esempio, conduce un rigoroso controllo preliminare dell’autore e del tema trattato prima di pubblicare qualcosa, e sottopone il testo a un controllo paritario a doppio cieco; YouTube e Facebook (almeno fino a prima dello scandalo Cambridge Analytica) non esercitano alcun tipo di controllo. Per riflettere sulle conseguenze socio-politiche si rimanda a Floridi, L. (2015). “The New Grey Power.” Philosophy & Technology 28(3): 329-332. DOI 10.1007/s13347-015-0206-y. https://link.springer.com/article/10.1007/s13347-015-0206-y

[14bis] In effetti, una fetta considerevole di utenza si dedica attivamente a fare contro-propaganda divulgativa di ogni tipo: pseudoscientifica, fondamentalista, razzista, ma sempre e in ogni caso fermamente antiscientifica.


[15bis] Thielman, S. (2015). “How Fox ate National Geographic”. The Guardian, 14 novembre 2015. https://www.theguardian.com/media/2015/nov/14/how-fox-ate-national-geographic

[16] Hitlin, P. (2018). “The Science People See on Social Media”. Pew Research Center. http://www.pewinternet.org/2018/03/21/the-science-people-see-on-social-media/

[17] Asprem, E. (2016). “How Schrödinger’s Cat Became a Zombie: On the Epidemiology of Science-Based Representations in Popular and Religious Contexts”. Method & Theory in the Study of Religion 28(2): 113-140. DOI: 10.1163/15700682-12341373

[17bis] Wilmer, H. H., L. E. Sherman & J. M. Chein (2017). “Smartphones and Cognition: A Review of Research Exploring the Links between Mobile Technology Habits and Cognitive Functioning. Front Psychol. 8 605. Published online 2017 Apr 25. doi:  10.3389/fpsyg.2017.00605. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5403814/

[18] Ferraris, M. (2017). Postverità e altri enigmi. Roma-Bari: Laterza. Su astrologia e astornomia cfr. Pigliucci, M. (2016). “Was Feyerabend Right in Defending Astrology? A Commentary on Kidd.” Social Epistemology Review and Reply Collective 5, no. 5 (2016): 1-6. https://social-epistemology.com/2016/05/02/was-feyerabend-right-in-defending-astrology-a-commentary-on-kidd-massimo-pigliucci/

[18bis] Vale la pena domandarsi: quanto sono affidabili gli iscritti, i follower e le visualizzazioni dei migliori canali/account scientifici come indicatori di avvenuta divulgazione in un mondo liquido come quello della Rete, dove i contenuti e le idee devono competere 24 ore su 24 con altri contenuti potenzialmente simili? Trasmissione e visualizzazione non equivalgono a comprensione e condivisione.

[19] OECD (2018). “Italy: Overview of the Education System”. http://gpseducation.oecd.org/CountryProfile?primaryCountry=ITA&treshold=10&topic=EO

sabato 28 maggio 2016

Potenziatori culturali, uccelli giardinieri e sense of beauty. Ipotesi sugli inizi della religione a quarant'anni da Il gene egoista

Copertina dell'edizione italiana del libro di Richard Dawkins intitolato Il gene egoista.
ResearchBlogging.org
Per il quarantennale della pubblicazione de Il gene egoista di Richard Dawkins, ho deciso di omaggiare l’idea di evoluzione culturale attraverso i memi in questo e nel prossimo post [1]. Tenuti a battesimo proprio in quel volume, i memi sono elementi culturali sottoposti a immagazzinamento mnemonico e diffusione attraverso modalità imitative. Nei modelli tratti della memetica dawkinsiana i “memi” vengono intesi come «atomi discreti di informazione ereditaria in competizione tra loro», sulla base di un parallelo tra cambiamento genetico e modifiche culturali nel corso del tempo [2]. Come ha scritto Luigi Luca Cavalli Sforza, da questa prospettiva l’«autoriproduzione delle idee» è resa possibile dal fatto che «le idee […] sono oggetti materiali in quanto hanno bisogno di corpi e cervelli in cui essere prodotte per la prima volta e riprodotte nel processo di trasmissione: come il DNA sono materiali, anche se di natura diversa» [3]. Nonostante l'idea di partenza non fosse originale, in quanto influenzata in origine dalle tesi che furono già di Cavalli Sforza (tra gli altri), la portata e l'appeal della proposta dawkinsiana fu semplicemente enorme [4]. Bene o male, il merito di Dawkins sta nell'aver confezionato e semplificato un potenziale modello di ricerca per renderlo fruibile a livello divulgativo. Coniando un'etichetta di grande successo.

Il battesimo dei memi.
Fonte: Dawkins, Richard. 2010. Il gene egoista. Milano: Mondadori. p. 201.
In questo e nel prossimo post, senza alcuna velleità o pretesa di esaustività, riprendo alcune interessanti pubblicazioni recenti di cui mi sono occupato nella mia tesi di dottorato e nel mio librone, tagliando, aggiornando e correggendo dove necessario. Il punto di partenza e il pretesto provengono dall’idea che tratti culturali socialmente accettati e ampiamente diffusi, come i comportamenti religiosi, siano giocoforza e in qualche modo adattativi. Iniziamo allora in medias res con un bel libro pubblicato nel 2012, scritto dal biologo evoluzionista Mark Pagel e intitolato Wired for Culture: The Natural History of Human Cooperation.
In questo libro, Pagel ritiene che all’interno dei meccanismi di co-evoluzione culturale, elementi quali religione, arte e musica abbiano agito come potenziatori culturali (cultural enhancers), volti a massimizzare il successo dei replicatori (gli esseri umani) all’interno dei veicoli di sopravvivenza culturali. Però, secondo l’interessante (e talvolta problematica) prospettiva memetica sposata da Pagel, la religione o, meglio, i vari componenti di una religione possono essere adattativamente neutrali o persino essere deleteri per i singoli o per i gruppi, indipendentemente dalla diffusione di quel potenziatore culturale:
«la proposta secondo la quale abbiamo curato le arti e la religione poiché ci sono utili deve essere confrontata con la più semplice idea che questi elementi culturali possano esistere per nessun’altra ragione al di fuori del fatto che si sono evoluti per essere capaci di manipolare, sfruttare o approfittarsi di noi al fine di diffondersi – non per aiutarci» [5].
Il concetto di potenziatore culturale non è molto lontano dall’ipotesi di Luther H. Martin per cui la religione avrebbe funzionato agli inizi come elemento di selezione sessuale, come dispiego e sfoggio di caratteristiche individuali valide per indicare la propria fitness, sulla scorta del darwiniano sense of beauty, ossia dell’estetica e delle relative capacità valutative esibite da un sesso per giudicare la fitness dell'altro. Nel suo contributo Martin descrive i meccanismi cognitivi, le strabilianti abilità architettoniche e l’esistenza di tratti culturali condivisi a livello regionale dagli uccelli giardinieri dell'Australia e Nuova Guinea (fam. Ptilonorhynchidae) per paragonarli allo storytelling umano e alla narrazione affabulatoria come display orale nella selezione sessuale umana.

«Proprio in prossimità del sentiero, mi trovai in presenza dell'opera più bella che ingegno di animale abbia mai saputo costruire. Era una capanna in mezzo a un praticello smaltato di fiori. Il tutto in miniatura. [...] Mi contentai di esaminare superficialmente per il momento quella meraviglia e proibii severamente a' miei cacciatori di scomporla». Da Beccari, Odoardo. 1877. Le capanne ed i giardini dell'Amblyornis inornata. Genova: Annali del Museo Civico di Storia Naturale di Genova, vol. IX; testo e immagine riprese da Mazzotti, Stefano. 2011. Esploratori perduti. Storie dimenticate di naturalisti italiani di fine Ottocento. Torino: Codice, risp. pp. 114 e 216. Immagine resa disponibile dall'editore qui.



Martin si basa su quanto concluso da Geoffrey Miller nel suo Uomini, donne e code di pavone: la selezione sessuale e l’evoluzione della natura, secondo cui la capacità di cooptare controintuitivamente determinati concetti all’interno delle narrazioni religiose può avere avuto effetti sulla fitness riproduttiva degli individui [6]. Secondo la prospettiva cognitiva milleriana, «molti degli adattamenti mentali che guidano i nostri comportamenti [sono] intuitivamente accurati». Però, come l'autore suggerisce, «i “fuochi d’artificio mentali che costellano lo spettacolo del corteggiamento” indeboliscono la nostra epistemologia evoluzionistica, “trasformando le nostre facoltà cognitive da seguaci della verità in pubblicità ornamentali per la propria fitness”» [7].
Per un esempio di pubblicità ornamentale come sviluppo esagerato di tratti potenzialmente inutili o addirittura nocivi alla sopravvivenza degli individui si pensi alle melodie degli uccelli canori che ne segnalano la presenza ai potenziali predatori. Ma, come la coda del pavone, si tratta di uno sfoggio di qualità che esagera la fitness dell'individuo sia per scoraggiare eventuali predatori (indicandone la salute e la prestanza) sia per incoraggiare eventuali compagne (idem). D'altra parte Mick Jagger, con il suo repertorio di abilità artistiche immortalate nel testo e nel videoclip di una canzone recente, ha avuto sette figli da quattro compagne – e non stiamo nemmeno a fare la conta delle possibili partner a livello non ufficiale.
«Gli inglesi le hanno chiamate playbing o sporting places, halls, play houses, ma più specialmente Bowers, nome che io tradurrei in italiano in quello di pergolati, gallerie o capanne; Bower birds sono chiamati gli uccelli che costruiscono».
Testo: Beccari, Le capanne ed i giardini dell'Amblyornis inornata, cit.; ripreso da Mazzotti, Esploratori perduti, cit., p. 114. Immagine: BBC Earth (Tim Laman / naturepl.com)
Ogni mezzo è lecito, dunque, e fare sfoggio di tratti esagerati diventa parte integrante di un processo a cascata (runaway effect) per cui domanda e offerta dei potenziali partner si rincorrono nel tempo profondo dell'evoluzione fino a fissare elementi potenzialmente nocivi alla fitness. In un apparentemente paradossale scarto di logica, la difficoltà di espletare funzioni normali e/o l'apprendimento di comportamenti costosi e inutili diventa essa stessa vincolo selettivo [8].

In questo senso, raccontare storie esagerate alimenta la diffusione di elementi narrativi che fanno presa cognitiva proprio a causa degli temi inaspettati che esse contengono. Non è difficile intravedere qui in filigrana l'innesco di narrazioni mitologiche vorticosamente controintuitive che diventano vincolo selettivo per nuove storie sempre più mirabolanti. D'altra parte, un'attenzione innata rivolta ai particolari contenuti che violano le nostre aspettative ontologiche nei confronti del mondo esterno è un fattore potenzialmente adattativo. Chiaramente, una storia fatta di dèi che lanciano fulmini quando sono arrabbiati non ha molto valore adattativo di per sé, ma sapere che i fulmini possono colpire gli alberi perché sacri a quella divinità – e quindi starsene ben lontani quando diluvia – non è poi tanto male. Senza contare l'effetto neuroendocrinologico di soddisfazione epistemica conseguente alla condivisione di una bella e piacevole storia. Chiaro, c'è dell'altro. Ma quello che voglio sottolineare qui è che allora lo storytelling mitologico sarebbe in nuce  una sorta di prodotto collaterale, un by-product, poi ripreso e sfruttato anche a fini adattativi [9].
Ma son tutte fole, direte voi. Eppure, dal fingere di credere al credere nella finzione il passo non è poi così incolmabile come si potrebbe pensare di primo acchito. Se si ha cura di collocarsi nella prospettiva dei tempi profondi, ovvio. In effetti, Robert Trivers ha suggerito che
«la logica dell’inganno pervade la storia della vita sulla Terra, dalla competizione all’interno dei genomi ai rapporti familiari e sociali, e che per rendere efficaci strategie di inganno e manipolazione degli altri si è evoluta a sua volta la capacità di autoingannarsi» [10].
Autoingannarsi come prerequisito per competere meglio, quindi? Questa tesi sollevi alcune interessanti e spinose questioni dal punto di vista cognitivo ed evoluzionistico (sulle quali non possiamo soffermarci in questo post), e permette di considerare in un’ottica di lungo periodo il rapporto tra competizione intra- ed inter-sessuale (ossia all'interno e tra i sessi) e uso del linguaggio.

Alcune ricerche di sociolinguistica riprese da Anne Campbell, ad esempio, hanno individuato una correlazione positiva tra questi due elementi negli adolescenti di sesso maschile del genere Homo sapiens, per i quali
«[...] il fattore importante non è il contenuto del discorso, quanto ciò che attraverso di esso si può raggiungere. Parlare equivale a reclamare, mantenere o contestare lo status sociale. Per i ragazzi mantenere l’attenzione di un pubblico è un vero talento perché, a differenza di quanto avviene con le ragazze, l’oratore non può contare su un pubblico paziente e comprensivo: “Narrare storie [storytelling], raccontare barzellette [joke telling] e altre perfomance narrative sono caratteristiche comuni dell’interazione sociale dei ragazzi… Il narratore deve affrontare di frequente la derisione, le sfide e i commenti sulla sua storia. Una delle maggiori abilità sociolinguistiche che un ragazzo deve apprendere per interagire con i suoi pari è superare questa serie di sfide, mantenere l’attenzione del pubblico e arrivare con successo alla fine della sua storia» [11].
La prossima volta che qualcuno tra i vostri amici e conoscenti si mette svergognatamente in mostra in pizzeria, raccontando storie assurde o barzellette penose pensando di essere divertente, attirando l'attenzione di tutti i commensali, non riuscirete a non pensare ad una coda di pavone. O a un pergolato degli uccelli giardinieri.
Metti un Amblyornis inornata in pizzeria... Illustrazione di John Gould.
FonteWikipedia

[continua...]

[1] Dawkins, R. (2010). Il gene egoista. Milano: Mondadori (1992 1a ed.). Ed. orig. The Selfish Gene, Oxford and New York: Oxford University Press, 1976; ristampato nel 1989 e  nel 2006).

[2] Pievani, Telmo. 2010. Introduzione alla filosofia della biologia. Roma-Bari: Laterza, p. 73 (2005 1a ed.). Si veda Dawkins, Il gene egoista, cit., pp. 198-210 (cap. Memi: i nuovi replicatori). Passaggio rielaborato da Ambasciano, L. (2014). Sciamanesimo senza sciamanesimo. Le radici intellettuali del modell osciamanico di Mircea Eliade tra evoluzionismo, psicoanalisi, te(le)ologia. Roma: Nuova cultura, p. 495.

[3] Cavalli Sforza, L.L. (2010). L’evoluzione della cultura. Torino: Codice edizioni, p. 131 (2004 1a ed.).

[4] Dawkins ricorda Cavalli Sforza (Il gene egoista, cit., 200), e due suoi testi: Cavalli Sforza, L.L. (1971). "Similarities and Dissimilarities of Sociocultural and Biological Evolution". In Mathematics in the Archaeological and Historical Sciences, edited by Hodson, F.R., Kendall, D.G., and Tăutu, P., 535-541. Edinburgh: Edinburgh University Press, e Cavalli Sforza, L.L. and Feldman, M.W. (1981). Cultural Transmission and Evolution: A Quantitative Approach. Princeton: Princeton University Press (cit. risp. in Dawkins, Il gene egoista, cit.,pp. 336 e 337).

[5] Pagel, M. (2013). Wired Culture: The Natural History of Human Cooperation, Penguin Books, London-New York: Penguin, p. 135 (pubbl. orig. da Allen Lane, London & New York 2012; W.W. Norton & Co., New York 2012).

[6] Miller, G. (2000). The Mating Mind: How Sexual Choice Shaped the Evolution of Human Nature. New York: Random House. Trad. in italiano nel 2002 come Uomini, donne e code di pavone: la selezione sessuale e l’evoluzione della natura. Torino: Einaudi. Si veda inoltre Bartalesi, Lorenzo (2012). Estetica evoluzionistica. Darwin e l'origine del senso estetico. Roma: Carocci.

[7] Martin, L.H. (2013). “The Origins of Religion, Cognition and Culture: The Bowerbird Syndrome”. In Origins of Religion, Cognition and Culture, edited by Geertz, A.W. 178-202; p. 197. Routledge: London and New York. Originally published by Acumen: Durham and Bristol, CT. Citazioni da Miller, G., The Mating Mind, cit., p.p. 423-424.

[8] Cf. Luzzatto, M. (2008). Preghiera darwiniana. Milano: Cortina. p. 48: «E se uno dimostra di sapere a memoria mille poesie, tre lingue, parla bene e sa inventare belle storie, non è forse più attraente agli occhi di un partner? Non potrebbe essere una coda di pavone anche quello?».

[9] Girotto, G., Pievani, T., Vallortigara, G. (2014). Supernatural beliefs: Adaptations for social life or by-products of cognitive adaptations? Evolved Morality: The Biology and Philosophy of Human Conscience, edited by Frans B.M. de Waal, Patricia Smith Churchland, Telmo Pievani, and Stefano Parmigiani. Leiden and Boston: Brill. , 249-266 DOI: 10.1163/9789004263888_019.


[10] Corbellini, G. (2011). Scienza, quindi democrazia. Torino: Einaudi, p. 136. Cfr. Trivers, R. (2011). Deceit and Self-Deception: Fooling Yourself the Better to Fool Others. London: Allen Lane. Trad. in italiano nel 2013 come La follia degli stolti. La logica dell'inganno e dell'autoinganno nella vita umana. Torino: Bollati Boringhieri.

[11] Campbell, A. (2013). A Mind of Her Own: The Evolutionary Psychology of Women. Second Edition, p. 117. Oxford and New York: Oxford University Press (2002 1a ed.). Citazione da (cit. da 208). Maltz, D. and Borker, R. (1982). "A Cultural Approach to Male-Female Miscommunication". In Language and Social Identity, edited by Gumperz, J., pp. 197-216: 208. Cambridge and New York: Cambridge University Press.

giovedì 19 maggio 2016

The Fate of a Healing Goddess _ Supplementary Material: Was the Antonine Plague really that bad?

My name is Antonine plague, queen of epidemics: Look on my (few remaining) documents, ye mighty historian, and despair!
Image: screenshot from Centurion: Defender of Rome, © 1990-1991, Magic Bits / EA.

My peer-reviewed paper The Fate of a Healing Goddess: Ocular Pathologies, the Antonine Plague, and the Ancient Roman Cult of Bona Dea was published in the Open Library of Humanities less than ten days ago. The contribution is included in a Special Collection entitled ‘Healing Gods, Heroes and Rituals in the Graeco-Roman World’ and edited by Panayotis Pachis (Aristotle University, Thessaloniki). If you haven't checked that issue out, you definitely should: it looks nothing short of amazing (added bonus: everything is available without paywall).
In the true spirit of open access, I am delighted to provide here an extended discussion on the reliability (or the lack thereof) of the most relevant ancient sources cited in my paper. You may consider this post as a sort of (quite informal) Supplementary material.
Comments are welcome!

I love this vintage poster! Next step: steampunk digital humanities.
Please be sure to check the OLH website!
Source: OLH
Was the Antonine plague really that bad? This banal question lays bare a crucial point. As noted lucidly by Christer Bruun, there are some persistent problems (2012). First of all, we should consider that in-group religious norms tend to strengthen belonging to any community against free-riders whose behaviour risks undermining the established moral code and subverting social relationship within the community and between the community and the god/s. The theodicic short-circuit between so many different cognitive domains, heuristics, and biases usually urges believers to undertake socially sanctioned - and possibly violent - actions. In the words of Richard P. Duncan-Jones, ‘Societies with no effective medical explanation for plague could easily blame it on human agency’ (Duncan-Jones 1996: 115). If the Antonine Plague was really that terrible, where are the ancient documents linking the outbreak of the plague to the persecution of scapegoats chosen among minorities?

Women, for instance, had already been the object of manic repression during the mid-Republic (331 BCE) when, after the death of some eminent men, the Senate sentenced 170 women to death because of the usual Roman obsession with female pudicitia plus paranoid concerns regarding conspiracy plots to poison high-ranking men with veneficia – which were probably just medicinal potions (Livy, Ab Urbe Condita Libri VIII 17; Pliny, Naturalis Historia, XXXIII vi 17; Valerius Maximus, Facta et Dicta Memorabilia, II v 3; see Cantarella 2010a: 70-73; venena were cited also as charge in the Bacchanalia affaire). As noted by Phyllis Culham, ‘It could simply be that an outbreak of illness was blamed on human agents and that women healers [i.e., initially two patrician, Cornelia and Sergia] were targeted’ (Culham 2004: 149). This precedent, expiated as a prodigium, set the route for other similar and more recent events in 180 BCE and 153 BCE (Cantarella 2010a: 70-75; Cantarella 2010b: 189-192). As far as I know, there is no mention whatsoever of women as scapegoats during the outbreak of the Antonine plague nor of the Bona Dea cult, which might be of interest if we consider that herbal medicines prepared by the priestess of the cult are attested (see Macrobius’ account in my paper). This absence, however, could be easily explained by the sheer scale of the disease and by a radically different social milieu (see Cantarella 1999).

Specifically regarding religious minorities, there is a handful of ancient sources (the most pertinent being the martyrdom in Lyon of a group of Christians, in 177 CE) of which, unfortunately, none is proven beyond reasonable doubt to be relevant (Bruun 2012: 153; the case of Lyon has been explained by a senatus consultum which allowed the use of criminals in the arena to cut down the cost of professional gladiatorial fights; ibid., 157). Yet, in a later and much different socio-political milieu, religious minorities (i.e., Christians) were struck by repression during the following outbreak of the so-called plague of Cyprian, from the name of the bishop of Carthage who described the symptomatology of this (probable) second wave of smallpox (ca. 251-270; see Stathakopoulos 2008; for the Christian theodicic explanation of this plague see Marshall 2008: 597). Interestingly, Bruun highlighted a consistent bias among historians to prefer the most catastrophic sources, which usually come from a much later date: Eutropius, Orosius, the sections of the Historia Augusta dedicated to Lucius Verus and Marcus Aurelius, and an epitome of Dio Cassius’ Ῥωμαϊκὴ Ἱστορία (LXXII xxiv 3-4), where he is reported to have famously written that ‘2,000 people often died at Rome in a single day’ during a new outbreak of the same plague (?) in ca. 189 (a guess ‘at least theoretically possible for the very large capital’ that was Rome; Scheidel 2013: 52).

When coeval sources are available, they are incomplete or not directly interested in covering the topic. Lucian of Samosata, for instance, wrote about the plague only when merely concerned to deplore the style chosen by two historians for their description of the disease (Crepereius Calpurnianus and, possibly, Callimorphus; see Πῶς δεῖ ἱστορίαν συγγράφειν 15-16, in Fowler and Fowler 1905: 109-136; cf. Bruun 2012: 129). Even the accounts of Galen might be doubted, for lack of precision: he wrote two different stories concerning the reason why he left the city of Rome, and only the later account clearly links the concern for leaving the city as soon as possible with the epidemic (see Bruun 2012: 145-146). Gilliam (1961) pinpointed the presence of Salus and Pietas in the numismatic record, without being able to detect any significant pattern (see Bruun 2012: 133). There is a significant amount of coeval legislation concerning peculiar situations which may recall the exceptional setting of an epidemics from the Digest, yet there are close to zero citations of the expected seriousness (Bruun 2012: 138-143).

Civil and religious documents possibly from the same period seem to be equally impervious to an unambiguous identification with the Antonine plague. Bruun lists three categories of relevant archaeological documents:
  1. six Eastern oracular responsa from Claros dealing with plagues (λοιμός), whose dating remains highly controversial;
  2. eleven Western inscriptions (one of which in Greek) with the same text (by imperial decree?), dedicated diis deabusque secundum interpretationem oraculi Clari Apollinis which an older generation of scholars ascribed to Caracalla’s concern for his own psychological and physical health, while more recent scholarship is inclined to identify with the consultation of Alexander of Abonuteichos by Marcus Aurelius himself. Interestingly, Alexander was the prophet behind the cult of the snake-god Glycon, and he was responsible for the diffusion of an oracle against the plague in the whole empire (cf. Lucian, Ἀλέξανδρος ἢ Ψευδομάντις, 36; in ibid. 48, however, the reason for the consultation might have been only the military campaign on the Germanic limes; Bruun 2012: 134, note n. 58);
  3. four bilingual inscriptions from the Roman Forum ex oraculo and dedicated to Athena, Zeus and the Ἀπωσίκακοι θεοί, possibly as a consequence of (2) (see Bruun 2012: 136-137 for discussion and bibliography; however, did the Ἀπωσίκακοι θεοί include Bona Dea? Was it possible not to think of her in the Roman Forum?).
It is well beyond the purview of this post to delve deeper into the analysis of these and other sources, which have already been assessed and discussed in the past. Suffice it to remark here that any rebuttal of these sources against a relation with the Antonine plague should take into consideration that the only reliable document dating from the well-attested Justininiac plague (dated 544 CE) merely concerns prices and salaries (Bruun 2012: 143).

Screenshot from the OLH homepage.
Source: OLH
To the list of possibly converging evidence, albeit questionable, we could add the increased recruitment of castris to ensure a flux of new soldiers after 168 CE (the Historia Augusta relate about the decision of Marcus Aurelius to enrol ‘freedmen, gladiators, Dalmatian and Dardanian bandits, and German tribesmen as soldiers’; Phang 2001: 342). Unfortunately no direct mention of the plague in the relevant sources, as usual. A matter of cultural sensibility, perhaps?
On the other hand, the terminus a quo for the rise of Christian apologetics is exactly the reign of Marcus Aurelius, and this fact may provide another clue to spot a significant change in the coeval mindscape (Bruun 2012: 155). Did Marcus Aurelius really mention simply en passant the plague in his Meditations because of its unimportance (Τὰ εἰς ἑαυτόν IX 2; but see also the reference to physicians and astrologers in ibid., IV 48)? Yet, he was a Stoic who was supposed to endure such dire situations.
Moreover, it could possibly be that the epidemic did not infect the whole empire. Duncan-Jones (1996), for instance, excluded Africa. However, we know from the available African inscriptions described in the paper that local military settlements were significantly devoted to Bona Dea, to Asclepius and Hygieia, and this for decades to come (Phang 2001: 342, note n. 77). Additionally, notwithstanding an approximate dating, the Roman African inscriptions testify to a significant devotion to Asclepius under the reigns of Marcus Aurelius and Commodus (Cadotte 2002; cf. Bruun 2012: 137 for an evaluation). Since the army was reputed the main vehicle of the epidemic since antiquity, a proposographical network analysis of the legions and their movements could provide us with the most interesting results.

It has also been noted that previous statistical analysis concerning the imperial building activity in Italy cannot yield definitive or convincing results of a decline from the 2nd century onward (Duncan-Jones 1996; Horster 2001). Bruun, who re-run the analyses to check them, argues that ‘the material lends itself to different conclusions, depending on the pattern one wants to see and the periods one construes’, not to mention the other factors at play which might swamp any identification such as ideological acts like ‘imperial self-glorification’ (Bruun 2007: 213). He also ‘underlined the fragility of this kind of proof by statistics’, while suggesting that the ‘dearth of projects under Marcus [Aurelius]’ might be an artefact due to the fact that many projects built under Hadrian might have been dedicated by Antoninus Pius (ibid.), therefore saturating the local demand (if any).

It could not be denied that, when approximate and fragmentary data rule, there could hardly be salvation in statistics. Yet, this is the only data available. In cases like this one, as ancient historians, we should be concerned with providing the most statistically plausible reconstruction at the time being, even if the data are nothing more than a historiographical cullender. This is a common theme in other historical natural sciences (palaeontology, palaeoclimatology, epidemiology, evolutionary biology, historical geology, cosmology). As Carol E. Cleland and Sheralee Brindell have observed, the causal connection of localised events studied by these sciences is characterised by an overdetermination of causes and an underdetermination of effects. As in our case, the main goal is to look for ‘telling traces’, or smoking guns, that ‘when added to the prior body of evidence establish that one (or more) of the hypotheses being entertained provides a better explanation for the total body of evidence now available than the other’ (Cleland and Brindell 2013: 194).

Contrary to what has been ascertained beyond any reasonable doubt for the spread of the Justinianic plague (Harbeck et al. 2013), in the case of the Antonine plague we still lack microbiological material from skeletal remains which might help researchers in narrowing the focus for further investigations. Unfortunately, we still rely on symptomatological descriptions from contemporary sources. Sure enough, a definitive answer will come from the recovery of microbiological analysis of samples from multiple, comparable, and trustworthy evidence, e.g., burial sites from the 2nd century CE in good taphonomic conditions. Yet, given that scientific results might still not yield definitive answers (see Manley 2014: 395), interdisciplinary historiographical research might unexpectedly contribute to uncover some distinct patterns, possibly more epistemically reliable than before. In the meantime, we can continue to gather epistemically warranted evidence in the framework of a consilience of induction, which, is consistently pointing to a pattern of anomalies from different historical sources.
Until proven otherwise, of course.

References

Bruun, C 2007 The Antonine Plague and the ‘Third-Century Crisis’. In: Hekster O, de Kleijn, G and Slootjes, D (eds.), Crises and the Roman Empire: Proceedings of the Seventh Workshop of the International Network Impact of Empire (Nijmegen, June 20-24, 2006). Leiden and Boston: Brill. pp. 201-217.

Bruun, C 2012 La mancanza di prove di un effetto catastrofico della ‘peste antonina’ (dal 166 d.C. in poi). In: Lo Cascio, E (ed.), L’impatto della “peste antonina”. Bari: Edipuglia. pp. 123-165.

Cadotte, A 2002 Une double dédicace à Apollon et à Esculape en provenance de Mactar. Epigraphica. Periodico internazionale di epigrafia 64: 93-106.

Cantarella, E 1999 La vita delle donne. In: Giardina, A and Schiavone, A (eds.), Storia di Roma. Turin: Einaudi. pp. 867-894.

Cantarella, E 2010a (1996) Passato prossimo. Donne romane da Tacita a Sulpicia. Milan: Feltrinelli.

Cantarella, E 2010b (1995) Secondo natura. La bisessualità nel mondo antico. Milan: Rizzoli

Cleland, C E and Brindell, S 2013 Science and the Messy, Uncontrollable World of Nature. In: Pigliucci, M and Boudry, M (eds.), Philosophy of Pseudoscience: Reconsidering the Demarcation Problem. Chicago and London: The University of Chicago Press. pp. 183-202.

Culham, P 2004 Women in the Roman Republic. In: Flower, H I (ed.), The Cambridge Companion to the Roman Republic. Cambridge: Cambridge University Press. pp. 139-159.

Duncan-Jones, R P 1996 The Impact of the Antonine Plague. Journal of Roman Archaeology 9: 108-136. DOI: http://dx.doi.org/10.1017/S1047759400016524

Fowler, H W and Fowler, F G 1905 The Works of Lucian of Samosata, Complete with Exceptions Specified in the Preface, translated by H. W. Fowler and F.G. Fowler. In Four Volumes. Volume II. Oxford: Claredon Press.

Gilliam, J F 1961 The Plague under Marcus Aurelius. The American Journal of Philology 82(3): 225-251. DOI: http://dx.doi.org/10.2307/292367

Harbeck M, Seifert L, Hänsch S, Wagner D M, Birdsell D, Parise K L, Wiechmann, I, Grupe, G, Thomas, A, Keim, P, Zöller, L, Bramanti, B Riehm, J and Scholz, H G 2013 Yersinia pestis DNA from Skeletal Remains from the 6th Century AD Reveals Insights into Justinianic Plague. PLoS Pathogens 9(5): e1003349. DOI: http://dx.doi.org/10.1371/journal.ppat.1003349

Horster, M 2001 Bauinschriften römischer Kaiser: Untersuchungen zu Inschriftenpraxis und Bautätigkeit in Städten des westlichen Imperium Romanum in der Zeit des Prinzipats. Stuttgart: Steiner.

Manley, J 2014 Measles and Ancient Plagues: A Note on New Scientific Evidence. Classical World 107(3): 393-397. DOI: http://dx.doi.org/10.1353/clw.2014.0001

Marshall L 2008 Religion and Epidemic Disease. In: Byrne, J P (ed.), Encyclopedia of Pestilence, Pandemics, and Plagues. Volume 2, N-Z. Westoport, CT and London: Greenwood Press. pp. 593-600.

Phang, S E 2001 The Marriage of Roman Soldiers (13 BC-AD 235): Law and Family in the Imperial Army. Leiden, Boston and Köln: Brill.

Scheidel, W 2013 Disease and Death. In: Erdkamp, P (ed.), The Cambridge Companion to Ancient Rome. Cambridge: Cambridge University Press. pp. 46-59.

Stathakopoulos, D 2008 Plagues of the Roman Empire. In: Byrne, J P (ed.), Encyclopedia of Pestilence, Pandemics, and Plagues. Volume 2, N-Z. Westoport, CT and London: Greenwood Press. pp. 536-538.