mercoledì 14 novembre 2018

Poscritto personale. Panda, ricordi e riflessioni (ma soprattutto panda)

Un filatelico panda d'antan. Fonte: Wikipedia

Galeotto fu il post fresco di stampa su Lorologiaio miope. Spronato dalla lettura di questo pezzo, ritorno al mio post precedente per raccontare in breve quello che è avvenuto dietro le quinte. Perché se è vero che mi interessava esplorare l’aspetto cognitivo e storico della divulgazione scientifica al tempo di YouTube, è altrettanto vero che avevo delle motivazioni personali per affrontare quel tipo di discorso proprio ora.

---
Qualche mese fa, nel mezzo di una discussione tra amici e colleghi su uno dei maggiori social media, mi sono ritrovato a notare criticamente che un dato prodotto audiovisivo, consigliato con eguale ironia e convinzione da un noto divulgatore scientifico, non potesse essere ritenuto un buon esempio di divulgazione scientifica. Si trattava di un video accattivante per il prosumatore medio, ma scientificamente impreciso e caratterizzato da un linguaggio scurrile, incentrato sulla frustrante politica di riproduzione dei panda sia in cattività sia allo stato brado.
Il video rilevava che, se proprio tutti questi interventi di conservazione stanno fallendo, è perché «meritano di estinguersi» [sic] dato che i panda «non vogliono scop**e!» [sic]. «Darwin!», continuava l’autore del video rivolgendosi a metà tra il serio e il faceto all'evoluzionista di Shrewsbury, «Hai sbagliato! Ma io mi fidavo di te!» [sic]. Il tono era ovviamente divertito e superficiale, ma il video presentava inoltre tutta una serie di mancati approfondimenti (perché Darwin avrebbe sbagliato? Forse perché l’evoluzione tende al miglioramento progressivo mentre i panda sono e restano stupidi e ottusi? I lettori di questo blog sanno già perché quest’idea è sbagliata), di imprecisioni (l’evoluzione non tende ad alcun miglioramento), di confusioni tra individuo e taxa (non è l’individuo che evolve o che si estingue volendolo!). Il video ricorreva inoltre a un linguaggio antropomorfizzante nei confronti dei panda e delle loro azioni che, per quanto diretto a sortire un’immedesimazione e una fruizione immediata da parte degli utenti, non faceva distinzioni di sorta tra ambiente antropogenico, cattività, stato brado, tempo profondo dell’evoluzione, ecc. 

Sulla discussione social, il video è stato salutato da persone con competenze scientifiche (benché non strettamente zoologiche o evoluzionistiche) come un «esempio da studiare e decostruire» per imparare come funziona l’edutainment. Posizione lecita, ma basata sull’esempio di un video molto discutibile. Perché non cercare un altro video? Perché questo video era hot in quanto a visualizzazioni e occorreva indagare il trend per impararne i segreti della comunicazione che «arriva alla gente». I motivi per cui questa idea è una fallacia logica li ho già spiegati nel post precedente. Quello che qui mi preme raccontare è che la discussione, alimentata dagli interventi di una nutrita schiera accorsa dalle decine di migliaia di followers della pagina social, è stata aizzata dai like e dai commenti del gestore della pagina, i quali hanno dato vita a una tifoseria sostenuta dal bias di conferma e di popolarità. Di conseguenza i toni di tutti si sono scaldati, passando rapidamente dall’ironia al sarcasmo all’insulto e, tra il fuoco amico che ha colpito indifferentemente colleghi e amici, è venuto fuori chiaramente quanto le giustificazioni di settore riguardo all’uso “corretto” dell’edutainment prosumeristico poggiasse su basi epistemologiche e comunicative assai fragili. Intanto, tra i followers accorsi a commentare c’era già chi confermava divertito, sì, i panda sono davvero stupidi!

A quel punto non restava molto da fare.
Cercavo di spiegare; ero un trombone elitario, un «professore», uno perso nella sua torre d’avorio che non sa o che non vuole comunicare alla gente (nonostante questo blog!) e dovevo squindi tare zitto perché le mie spiegazioni non avevano comunque valore (la mia opinione valeva quanto quella di chiunque altro - secondo gli stranoti dettami postmodernisti).
Cercavo di fare notare perché il video fosse un cattivo esempio e che non c’era nulla di valido da imparare; mi sentivo rispondere che tanto «era un esempio delle balle», cambiando così le regole del confronto e evitando il confronto epistemologico.
Ho spiegato che quel video insegue, come molto edutainment su Youtube, il sensazionalismo, il nozionismo fine a se stesso, i bias intuitivi (in questo caso, ortogenesi, teleologia, antropomorfismo ed essenzialismo) e il perturbante controintuitivo (i panda vogliono estinguersi! Non vogliono scop**re!); mi hanno accusato di oscurantismo intellettuale.
Ho scritto che lodare quel video (girato da un chimico senza particolari conoscenze di zoologia - fino a prova contraria) semplicemente perché «arriva alla gente» [sic] senza indagare i motivi dietro la ricezione di quel prodotto era l’equivalente del lodare un ipotetico video sulla presunta memoria omeopatica dell’acqua o del lodare un video sull’etere perché spiega bene la fisica dell’atmosfera; sono stato pesantemente delegittimato.
Al termine di tutto ciò si era tornati al solito, vecchio schema “scienza dura” (chimica e fisica) contro “scienza soft” (scienze sociali e biologia): il divulgatore e gestore della pagina, stufo delle critiche al video da lui postato, si è lanciato in un icastico: «che poi a uno gli viene da dire “Ma ca**o, ma ve lo meritate che nessuno si fila la divulgazione sull’evoluzione!”». E questo dopo aver spiegato e linkato l’eloquente e fondamentale articolo di Dobzhansky dal titolo “Nothing in Biology Makes Sense Except in the Light of Evolution”. Non restava che issare bandiera bianca e abbandonare la discussione. 

Con il senno di poi (per quel che vale) posso dire questo.
Quel giorno ho sbagliato approccio e tono, entrambi troppo diretti, ansiosi e affrettati. Ho avuto timore di tutta quella gente accorsa a deridere e pronta ad attaccare, mi sono sentito accerchiato e con il fiato sul collo. E per questo alla fine sono scappato via, tra rimorsi e rimpianti. In parte, il post che ho pubblicato vuole offrire la riflessione che lasciai incompiuta allora sui social, e dimostra nello stesso tempo che una spiegazione seria e articolata non può trovare posto sui social media.
Quel giorno, chi sosteneva la scelta del video sui panda come esempio vincente da copiare e da seguire, ha sicuramente sbagliato approccio e tono, crassi e limitati. E ha dimostrato una visione della scienza altrettanto crassa e limitata.
Quel giorno ho anche capito che inseguire quel tipo di divulgazione prosumeristica è un gioco controproducente per la scienza stessa – e per la società intera. I social media sono un campo di battaglia e di consumo fine a se stesso (come notava giustamente Lisa Signorile qui) e non un’utopia bucolica di conoscenza condivisa per arrivare alla gente.
Ma l’aspetto che più mi addolora è che quel giorno chi è accorso a frotte su quella pagina per assistere al confronto o per curiosità ha visto confermato il leitmotiv postmoderno della comunità scientifica incapace di mettersi d’accordo persino sulle piccole cose.
Da qualunque parte la si voglia guardare e giudicare, quel giorno abbiamo perso tutti, e se c’è una morale è che c’è ancora tanta (troppa) strada da fare perché si possa davvero parlare di divulgazione – ed educazione – scientifica in Italia.

venerdì 26 ottobre 2018

La divulgazione scientifica al tempo del prosumatore

Alberto Angela, paleontologo di formazione e divulgatore vecchio stile e senza compromessi. Celebrato sui social media per il suo fascino e per la sue abilità nel "divulgare forte" in  un numero spropositato di memi, i quali hanno ispirato magliette e cosplayer (il meme con Cartesio è imbattibile: "Penso, quindi sono. / Divulgo forte, quindi levati").
Fonte: Google

«Attenzione nell’informarsi. Per lo più si vive d’informazione; il meno è quello che vediamo; viviamo sopra l’altrui fede […] Necessaria è la più fina attenzione in questo punto per iscuoprire la intenzione di colui che è di mezzo, investigando, avanti che parli, di che piede si mosse ad informare. Sia la riflessione quella che faccia paragone dell'oro vero dal falso, e rivegga i pesi e le misure».

Baltasar Gracián y Morales, aforisma n. 79 (1647), dalla traduzione italiana di Vincenzo Giovanni De Lastanosa intitolata Oracolo Manuale e Arte di Prudenza, Venezia, 1690.

Ipsa scientia potestas est


Che cos’è che rende efficace la divulgazione scientifica? Dove si può tirare una linea di demarcazione e dire questo prodotto non è divulgazione, mentre quest’altro lo è? Che cos’è che rende un prodotto divulgativo un buon servizio divulgativo, e che cosa lo differenzia da un “cattivo” esempio di divulgazione? Quale impatto hanno avuto la Rete e i social network sulla qualità della divulgazione? 

La questione è molto più complicata e ambigua di quanto si possa pensare, e l’etimologia del termine – primo possibile argine alla nostra confusione – non ci aiuta molto. Divulgare, come leggiamo sul sito della Treccani, ha due accezioni principali. La prima ci informa che divulgare equivale a «Rendere noto a tutti o a molti, diffondere»; la seconda ci suggerisce come significato quello di «Rendere accessibili a un più vasto pubblico, per mezzo di un’esposizione semplice e piana, nozioni scientifiche e tecniche» [1]. Sono due accezioni fortemente in contrasto, perché se la prima stabilisce un livello di accettabilità minimo potenzialmente slegato dalla tipologia (e dalla qualità) dei contenuti, la seconda reca con sé la necessità di conoscere mezzi, metodi e teorie in modo approfondito per saperli poi divulgare, ossia diffondere

Il presupposto banale di ogni divulgazione fatta come si deve è che dietro alla voglia di diffondere ci sia anche la volontà di contribuire ad aumentare le conoscenze per il bene comune. Il sapere è infatti la pietra di volta di ogni miglioramento sociale e individuale. Se so come accendere un fuoco, cucinerò meglio e scalderò la mia famiglia. Se conosco la storia posso imparare ad evitare gli errori già commessi nel passato. Se so che cos’è il tempo profondo dell’evoluzione riuscirò a liberarmi di preconcetti razziali antiquati e a essere – si spera – un individuo moralmente migliore.

Ipsa scientia potestas est: la conoscenza in sé è potere, secondo il motto coniato dal filosofo inglese Francis Bacon nel 1597. Bacon sottintendeva almeno tre accezioni dietro a questa frase:
  1. l’accumulo di conoscenze verificate risultante dallo studio sperimentale che serve per migliorare le condizioni di vita;
  2. coloro che possiedono conoscenze pratiche sulla base del punto (1) sono in una posizione privilegiata per occupare cariche pubbliche e posizioni politiche di rilievo rispetto a chi le detiene o le eredita perché nobile di nascita;
  3. questo sapere può esser organizzato ed utilizzato per implementare una tecnologia del sapere, ossia una serie di processi cognitivi, strumenti sociali, pratiche, e discorsi volti a irreggimentare una disciplina della ricerca non aliena a scopi e motivazioni di carattere politico – in ottemperanza a quanto stabilito dal punto (1) [2].
Fin qui, tutto normale. Al tempo di Bacon si trattava di giustificare l’investimento e la mobilitazione di capitali intellettuali e politici allo scopo di istituire le fondamenta di un’organizzazione scientifica capillare ancora di là da venire. Sto ovviamente tagliando il discorso storiografico con l’accetta, ma il discorso resta valido anche oggi. Se dobbiamo decidere come smaltire scorie radioattive, come affrontare in modo efficace il riscaldamento globale o come gestire i gruppi che fanno pressione perché si elimini l’insegnamento della biologia evoluzionistica dalle scuole dell’obbligo si spera che i decisori politici abbiano conoscenze approfondite in merito a ingegneria nucleare, climatologia e  storia della scienza o genetica (o per lo meno, si spera che abbiano saputo circondarsi di consiglieri capaci). Cosa che però, al tempo della post-verità, del negazionismo climatico e di cospirazionismi vari, evidentemente non è [3].

Non è un caso che il terzo punto della relazione tra potere e sapere, quello più strettamente legato all’esercizio pratico del potere, si sia prestato agli affondi poststrutturalisti di studiosi come Michel Foucault e Pierre Bourdieu, i quali hanno passato al setaccio le negoziazioni e i rapporti di potere tra classi sociali e individui, tra subordinati e dominanti, per svelare i modi in cui i discorsi e le pratiche che rappresentano il guscio esterno del “sapere” possono contribuire a influenzare, indirizzare, manipolare e distorcere la ricerca stessa e l’applicazione dei suoi risultati per convenienze politiche e sociali [4]. Un esempio storico? L’accettazione del lysenkoismo come genetica di stato nell’Unione Sovietica fu motivato non tanto dai risultati sperimentali (deludenti e fallimentari) ma dalla sua adozione all’interno di una tecnologia sociale del sapere (in termini filosofici, una tecnologia scissa dall’epistemologia) volta a contrapporsi a priori e per motivi ideologici alla genetica “occidentale”, ritenuta macchiata da compromessi borghesi e capitalistici. Il risultato fu triplice: 
  • la sostanziale marginalizzazione dell’ambito di ricerca nell’URSS;
  • lo smantellamento della biologia sperimentale russa tramite licenziamento o reclusione dei ricercatori;
  • l’esodo di genetisti russi all’estero (che decisero di non tornare più, come fece Theodosius Dobhzansky). 
Il lysenkoismo diventò un’arma della propaganda interna la quale adottò, diffuse e divulgò questa dottrina per sostenere l’agricoltura russa in un momento difficile. Di esempi simili ce ne sono tanti per ogni epoca e per ogni latitudine (le manipolazioni nazifasciste dei discorsi e delle pratiche scientifiche in epoca interbellica furono ancora più aberranti), ma tanto basti per ricordarci banalmente che le idee e la loro diffusione non sono innocue ma hanno conseguenze tangibili sul reale [5].

Un cervello dell’età della pietra


Possiamo quindi capire che divulgare non può e non deve essere considerato come cosa buona di per sé. I ciarlatani possono divulgare in modo efficace e convincente. E, purtroppo, abilissimi ricercatori possono essere carenti dal punto di vista delle doti comunicative. Quando chi sa viene marginalizzato  o delegittimato per motivi di convenienza, non è raro che si diffondano con maggiore efficacia le voci dei ciarlatani. Ricordo l'esempio recente del parlamentare ed ex ministro conservatore inglese Michael Gove il quale, durante la campagna per il referendum del Regno Unito sul mantenimento dell'adesione all’Unione Europea, commentò di averne “avuto abbastanza degli esperti”. Come il caso del lysenkoismo insegna, e come la storia sociale della scienza ha ribadito fino allo sfinimento, possono esistere pressioni sociali dietro alla ricerca, all’imposizione o al silenziamento del sapere, e queste pressioni sociali si traducono nella creazione di un ambiente nel quale le idee competono e si diffondono sulla base della loro forza persuasiva. In breve, l’utilità ideologica e la spendibilità politica prendono il sopravvento sulla conoscenza sperimentale in senso lato – ossia sul sapere dotato della dovuta garanzia di affidabilità o di replicabilità a seconda del tipo di scienza coinvolto.

Ma se vengono meno i paletti di valutazione propriamente scientifici, come si fa a giudicare? In questo caso, si giudica o sulla base dell’aderenza ad un progetto ideologico (come l’esempio del lysenkoismo dimostra) e/o sulla base del grado di apprezzamento e di accettabilità intuitivi rispetto al contenuto divulgato. In altre parole, entrano in ballo i bias cognitivi e le fallacie logiche, ossia quella serie di scorciatoie razionali che sono il frutto dell’evoluzione di Homo sapiens (i bias) e della sua organizzazione socio-culturale (le fallacie). Questi accessori computazionali sono condizione necessaria ma non sufficiente per capire il mondo e il suo funzionamento: necessaria perché fanno parte del pacchetto cognitivo e sensoriale “chiavi in mano” del quale siamo dotati dalla nascita; non sufficiente perché sono il risultato di intuizioni rapidissime e utili nel passato profondo ma potenzialmente inaffidabili sul funzionamento del mondo. Fare affidamento su queste intuizioni “di pancia” nel mondo ultrasociale e ipertecnologizzato di oggi equivale a un suicidio intellettuale [6]. Siamo primati evoluti per gestire un mondo fatto di un nucleo esteso di familiari e conoscenze di 150 individui al massimo, un mondo nel quale se sentiamo del brusio tra le siepi potrebbe esserci un predatore nascosto pronto a farci la pelle, un mondo nel quale la comunicazione è quella che avviene a voce – e stop. Se i bias e le intuizioni sono utili è perché hanno permesso ai nostri antenati di sopravvivere in quelle determinate condizioni – e stop. Non servivano capacità cognitive peculiari per gestire il sovraccarico cognitivo di informazioni quotidiane o le migliaia di followers sui social media, perché il volume della rete sociale e di informazioni condivise nell’arco della vita intera di un nostro lontano antenato paleolitico starebbe tranquillamente su un quaderno A4 o su un floppy disk. Eppure, nonostante la stupefacente tecnologia computazionale racchiusa nella nostra CPU cognitiva sia stata costantemente ri-sistemata dal bricolage evolutivo, alla base c’è ancora la struttura portante di quel lontano sistema operativo paleolitico. Con tutti i suoi limiti e i suoi bias che ci portiamo dietro. Faccio tre esempi banali.
  • Ci sembra ovvio che sia il Sole a sorgere, e continuerà a sembrarci così anche se sappiamo che è la Terra a girare intorno al Sole e persino se vinciamo un Nobel. Non ci siamo evoluti per volare nello spazio e vedere la Terra dall’alto.

Earthrise, 24 dicembre 1968. missione Apollo 8. Fonte: NASA, immagine di dominio pubblico; da Wikipedia.

  • Ci sembra ovvio che il primo segmento dall'alto dell’immagine qui sotto sia più lungo del  secondo segmento, e continuerà a sembrarci così anche dopo aver misurato entrambi i segmenti e aver appurato che in realtà sono della stessa misura. Non ci siamo evoluti per discriminare le illusioni ottiche e il nostro sistema di percezione visiva è a malapena sufficiente. 


Illusione di Müller-Lyer. Fonte: Wikipedia.

  • Ci sembra ovvio che gli animali non stiano evolvendo a occhio nudo nell’arco dei decenni della vostra esistenza su questa Terra, e nel leggere testi antichi o nel vedere statue e dipinti potremmo pensare che non si siano mai evoluti. Non ci siamo evoluti per vedere le mutazioni microscopiche che agiscono nel DNA, nei microbi e nei microrganismi nel giro di ore o giorni.[7] 

Attenti al cane! Certe cose, a quanto pare, non cambiano mai... Fonte: Wikipedia

Per farla breve, non ci siamo evoluti allo scopo di fare proprio un bel niente – tutto le nostre capacità fisiche e mentali sono il frutto di processi selettivi privi di scopo che hanno filtrato quelle caratteristiche sufficientemente buone da permettere la sopravvivenza e la riproduzione dei nostri antenati lungo la storia profonda dell’evoluzione sulla Terra. Sopravvivenza fino alla riproduzione – e stop. Se davvero vogliamo individuare una qualche peculiarità è quella di aver ereditato una nicchia cognitiva specifica che ha permesso lo sfruttamento cumulativo e intergenerazionale del surplus computazionale del nostro sistema nervoso centrale per accumulare conoscenze di ogni tipo, dalle tecniche di caccia agli alberi storico-genealogici per tenere conto di alleati e nemici, fino ad arrivare ai memi di Alberto Angela che “divulga forte” sulla Rete [8]. Va da sé che questo sistema computazionale e cognitivo è ben lungi dall’essere perfetto: i pregiudizi e le fallacie lo dimostrano.

Ora, le culture umane sono il risultato dell’interazione continua e sostenuta di più sistemi centrali nervosi individuale connessi in una rete sociale. Per insistere sulla nostra metafora informatica, questi PC sono sì collegati in rete (la cultura), ma sono di seconda mano (evoluti) e con tutti i loro software preinstallati, vecchi, in prova, incompleti, “craccati” e in conflitto tra di loro (i bias). Non stupiamoci allora se anche le culture umane (e la nostra non fa eccezione) sono spesso afflitte da pregiudizi di ogni tipo. Eppure, un argine a questi pregiudizi lo si può trovare proprio in quell’accumulo di sapere che è il frutto della nostra nicchia cognitiva  – se, e solo se, vincolato a tecniche e metodi logici e razionali. Ricordiamocelo: anche i ciarlatani possono divulgare in modo efficace, sfruttando proprio gli stessi strumenti della cassetta degli attrezzi cognitivi che ha permesso di costruire la nostra nicchia cognitiva. Il sapere può contenere i biases e correggere le fallacie se, e solo se, questo viene vincolato a tecniche e metodi logici e razionali. Per tale motivo, lottare contro questi processi cognitivi suggestivi e accattivanti costa molta fatica intellettuale e impegna decenni di alfabetizzazione scientifica e umanistica. Il geocentrismo è stato falsificato, le illusioni ottiche dimostrano il peso dei vincoli evolutivi nella percezione dinamica dell’ambiente ecologico e la stupefacente prospettiva aperta dal tempo profondo è stata dischiusa con sforzi immani dalle geologia. Il problema sta nel fatto che solamente un livello sufficiente di formazione intellettuale può ovviare alla proliferazione incontrollata di queste trappole seducenti e intuitive – anzi, seducenti perché intuitive. E perché ciò avvenga, è necessario che ci siano istituzioni capaci di fare buona divulgazione, ossia, in primo luogo, la scuola e l’università.


L'illusione di Müller-Lyer è un artefatto culturale: in ambienti reali e tridimensionali è un indice affidabile di profondità. Esistono altre spiegazioni ecologico-evolutive che contribuiscono a spiegare questa e altre illusioni, ma la sostanza è la stessa: il nostro sistema percettivo può essere 'fregato' da indizi sensoriali sconnessi dall'input ecologico primario. Questo vale per tutti i domini percettivo-sensoriali: pensate ai dolcificanti che mimano l'effetto dello zucchero. Da Wikipedia.


I vizi del prosumatore


Grazie alla nostra nicchia cognitiva e al sistema di accumulo culturale a denti d’arresto, l’evoluzione culturale viaggia più velocemente dell’evoluzione biologica. Per questo c’è sempre uno scarto tra le due, con l’evoluzione biologica a segnare il passo. In questo senso, la globalizzazione, la commercializzazione di massa dei personal computer e la diffusione di connessioni Internet rapide e a buon mercato hanno segnato uno spartiacque di dimensioni ciclopiche: ogni prodotto audiovisivo e letterario creato da Homo sapiens è potenzialmente catalogato (o catalogabile), disponibile e a portata di clic. Questa sovrabbondanza di informazione disponibile ovunque, per chiunque e in tempo reale ha modificato pesantemente sia il sistema sociale sia quello economico. In breve, la divulgazione non ha fatto altro che seguire o adeguarsi alla trasformazione generale della cultura di massa, all’interno della quale si sono imposti i cosiddetti “prosumer”, o prosumatori. Per prosumatore si intende un agente a metà tra produttore/professionista e consumatore, anzi, un «consumatore che è a sua volta produttore o, nell’atto stesso che consuma, contribuisce alla produzione» [9]. Il prosumatore produce e diffonde più o meno gratuitamente contenuti sulle stesse piattaforme digitali adibite al consumo di informazioni. L’attuale nicchia culturale dei prosumatori è quello dei social media in genere, e in particolare quella dei podcast da scaricare e dei canali su Youtube, la nota piattaforma per la condivisione di clip audiovisive. Due fattori concomitanti e legati tra di loro hanno causato questo rapidissimo avvicendamento: 
  1. l’esplosione dei social network, i quali – a partire dall’introduzione dell’iPhone di Apple nel 2007 – hanno gradualmente depauperato le funzioni dei blog rendendoli obsoleti (le interazioni e la fidelizzazione dei followers non avvengono più su Blogger o Wordpress, ma hanno luogo soprattutto su Twitter, su Facebook, su Instagram e sulla sezione commenti di Youtube); 
  2. la diffusione a macchia d’olio degli smartphone i quali hanno reso possibile la creazione e la fruizione di contenuti audio-video di buona qualità ovunque e in ogni istante: nel 2016 i social media contavano 2,3 miliardi di utenti e, di questi, 1,9 erano connessi grazie alle app sul cellulare [10]
In pratica, l’esistenza di prodotti relativamente economici ha creato un bacino smisurato di prosumatori dotati di account e di profili sui maggiori social media, un bacino che coincide virtualmente con quello dei possessori di mezzi tecnologici sufficientemente adeguati. Questo si traduce nella coesistenza di produzione e consumo da parte di tutti i possessori di smartphone e nella trasformazione dei social media in fonte di contenuti informativi/divulgativi creati dai consumatori stessi. Questa massa enorme di prosumatori crea un ambiente altamente competitivo all’interno del quale vigono criteri che non sono quelli che dovrebbero garantire una corretta informazione (scientifica e non). Dato che viene a mancare un controllo fattuale dell’informazione, questi criteri coincidono piuttosto con i bias cognitivi e con le fallacie logiche e che qui appaiono distribuiti su tre livelli che interagiscono continuamente creando dinamiche specifiche: 
  • individuale: i bias logici ed emotivi che caratterizzano la computazione mentale (ossia, appello alle emozioni, bias di conferma, ecc.);
  • sociale: le dinamiche di gruppo (accettazione di contenuti sulla base del conformismo, del presunto prestigio della fonte, della presunta autorevolezza della fonte, ecc.);
  • tecnologico: i bias presenti negli algoritmi che selezionano automaticamente i contenuti sulla base della preferenze di navigazione, ritagliandoli su misura per ogni prosumatore (ovviamente, i bias non appartengono alle “macchine”, ma ai programmatori che hanno implementato questi programmi) [11] 
Un contenuto può quindi diventare “virale”, ossia diffondersi in modo capillare, come risultato dell’interazione di questi tre livelli. Come ci insegna la network theory, la popolarità, l’adozione (il fatto di “postare” su un profilo) e la condivisione attiva (scrivendone) di certi contenuti da parte di agenti (o influencer) capaci di influenzare a cascata i nodi che compongono la rete di relazioni diventa a sua volta un traino – e un bias. Se Gwineth Paltrow decide di sponsorizzare sulla sua piattaforma commerciale adesivi cutanei capaci di “ribilanciare la frequenza energetica del proprio corpo” [sic!], utenti che non avrebbero mai pensato a questo tipo di prodotto possono subire l’influenza e il prestigio della star in questione e acquistare un pezzo di nastro adesivo che non serve assolutamente a nulla [12]. Infine, l’ambiente dei social media tende ad autoriprodursi, auto-organizzarsi e auto-citarsi, emulando schemi e nozioni riconoscibili perché hanno avuto successo (o semplicemente perché questi schemi sono arrivati prima, imponendosi come vincolo comunicativo), e questo crea un’omogeneizzazione delle fonti (e una bolla conscitiva) che incide negativamente sul livello di approfondimento: nella stragrande maggioranza dei casi, per fare divulgazione in un video si tende a citare e a linkare un video di un altro canale Youtube e non un articolo su JStor o JAMA [13]

Ora, per la sola forza dei numeri, il numero di prosumatori diluisce l’efficacia degli agenti possessori di sapere epistemicamente giustificato nel contenere la diffusione di contenuti che non raggiungono un livello minimo di accettabilità scientifica o di affidabilità informativa. Da qui la diffusione delle cosiddette fake news e della pseudoscienza cospirazionista e negazionista che infesta la Rete. Tirando le somme fino a questo punto, l’ipotesi è che sui social media, su Youtube e sulle piattaforme ad esso collegate il volume di contenuti volti a «Rendere noto a tutti o a molti, diffondere» sia di gran lunga maggiore rispetto ai contenuti diretti a «Rendere accessibili a un più vasto pubblico, per mezzo di un’esposizione semplice e piana, nozioni scientifiche e tecniche». [14]

All’interno dell’ambiente concettuale creato dalle utenze connesse via smartphone, le conoscenze scientifiche, onerose da acquisire e lente da apprendere, e pertanto possedute da una minoranza di utenti, sono state schiacciate dal numero stupefacente di prosumatori estranei al mondo scientifico. Questi ultimi sono però interessati all’accumulo del capitale sociale ottenibile grazie al prestigio della scienza, e consumando/producendo contenuti che si caratterizzano in linea di massima come materiale di intrattenimento estemporaneo creano una nicchia prontamente occupata da bias e fallacie. Mancando i presupposti conoscitivi del sapere accumulato, non c’è garanzia che i loro prodotti siano affidabili [14bis]. Se a ciò aggiungiamo che quello dello youtuber prosumatore è diventato un mestiere retribuito sulla base di una partnership aziendale (sancita a sua volta dal raggiungimento di un certo numero di followers – una spinta dal “basso”), non è difficile capire come la produzione di materiale di consumo social possa diventare la molla e il motivo fondamentale per incontrare e assecondare i bias innati del pubblico – rinunciando così alla missione educativa su lungo termine.

In breve, la conseguenza di maggior rilievo per la divulgazione scientifica è 
la creazione di una nicchia cognitivamente ottimale (ossia sufficientemente intuitiva – immediata e capace di catturare l’attenzione – ma non sufficientemente scientifica – cioè lenta e che si acquisisce sulla base di un accumulo di conoscenze), che prevede la creazione/consumo di materiale facilmente assimilabile, capace di venire incontro ai bias e alle fallacie logiche comuni e che si presenta come aderente alla seconda accezione della definizione di Treccani riportata all’inizio del post ma che, in buona o cattiva fede, ricade nella prima. 

Purché se ne parli


Si legge sempre meno in Italia, lo sappiamo [15]. Questo processo, incoraggiato da decenni di strapotere televisivo e di disimpegno culturale cavalcato a spron battuto dalla società e dai decisori politici (una fase che in qualche modo preannunciava la post-verità di oggi), ha avuto un impatto sia sulla divulgazione “vecchio stile” (quella alla Carl Sagan e alla Piero Angela, per intenderci) sia su chi ha abbracciato nel frattempo la “terza cultura” alla Brockman, ossia la produzione di materiale divulgativo per mano dei ricercatori e degli scienziati stessi. Entrambe le tipologie di divulgazione abbracciano idealmente uno standard di divulgazione lento e cumulativo, prediligendo pacchetti divulgativi chiusi capaci di «Rendere accessibili a un più vasto pubblico, per mezzo di un’esposizione semplice e piana, nozioni scientifiche e tecniche». 

La concorrenza con le nuove tecnologie, la dipendenza digitale delle nuove generazioni, e i tagli ai fondi destinati alle infrastrutture istituzionali per la creazione di prodotti di qualità, hanno fatto sì che alcune delle caratteristiche basilari del modello prosumeristico si siano imposte graudalmente come nuovo standard per la realizzazione della divulgazione. In questo modo hanno preso piede un nozionismo spettacolare o immagini stupefacenti. Si confronti il Cosmos di Sagan con quello più recente di Neil DeGrasse Tyson, o un qualunque documentario sulla paleontologia degli anni ’80 e uno di oggi. Forse l’esempio più rappresentativo di questo processo è l'acquisizione del National Geographic da parte della Fox di Rupert Murdock, che ha trasformato nel giro di pochi anni il venerabile mensile, alfiere della migliore divulgazione scientifica a tutto tondo, in un brand-piattaforma dedicato all’infotainment sensazionalistico [15bis]

Trova l'intruso...
Fonte: fotografia scattata dall'autore (CC-BY-NC-ND 3.0)

Gli scienziati interessati alla divulgazione (e spronati dall’accademia per fare outreach ed essere visibili sulla scena culturale, pena la rinuncia a fondi sempre più risicati) si sono così dovuti reinventare prosumatori per evitare l’emarginazione culturale, andando incontro al livello di bias e di fallacie coltivato nei social. Nello stesso tempo, la competizione ha creato altresì un ceto digitale di influencer/prosumatori che non dispongono di particolari nozioni nel campo scientifico del quale si occupano, ma che rispondono ai livelli di conoscenza e di attese contenutistiche dell’utenza digitale. Ancora, se la divulgazione classica guidava l’apprendimento secondo uno schema chiuso di accumulo di conoscenze, i format di YouTube e deipodcast non prevedono mai questo palinsesto di lunga durata, preferendo sfruttare un sistema aperto all'interno del quale i temi sono estemporanei e le interviste forniscono spunti per eventuali discussioni, inseguendo l’hot topic del momento per poi abbandonarlo subito dopo. Arrivati a quest’ultimo punto, i problemi sono due:
  1. l’utenza digitale che segue i maggiori siti e account social dedicati alla scienza riceve un’informazione schiacciata pesantemente sulla “spendibilità” pratica e immediata della notizia, a sua volta vincolata dai bias di cui sopra: le fotografie e le illustrazioni e le infografiche vincono sui contenuti, ricordandoci ancora una volta che siamo animali sociali sostanzialmente visivi; i consigli pratici, i consigli sulla salute, e gli appelli estemporanei all’azione concreta o alla solidarietà (esulando spesso dalla scienza in senso stretto) vincono sull’approfondimento e sulla precisione; il nozionismo rapido, slegato da contenuti complessi, è più ficcante degli approfondimenti e delle riflessioni puntuali; e così via [16];
  2. la divulgazione stessa – anche quando fatta bene – soffre delle limitazioni dovute al mezzo stesso di divulgazione: la diffusione e il trasferimento di contenuti culturali e scientifici al di fuori dell’ambiente di origine (ossia l’accademia e il network esteso degli studiosi) comporta un effetto imbuto che da un lato semplifica con successo concetti complicati per veicolarli in modo efficace, ma dall’altro prepara il contenuto trasferito a un arricchimento semantico  che si basa – e qui casca l’asino – sui bias innati di cui parlavamo all’inizio. In altre parole, il concetto semplificato e divulgato viene re-installato all’interno di un contesto dominato da riferimenti socio-cognitivi profondamente differenti, e lì viene addobbato, per così dire, di connotazioni del tutto estranee al concetto stesso. Metafore e concetti minimamente controintuitivi, sfruttati per la loro memorabilità e presa cognitiva ottimale (il gatto di Schrödinger e il collo della giraffa lamarckiana sono un esempio lampante), vengono recepiti e miscelati tra di loro (del tipo, “evoluzione quantistica”) per rientrare come carne da cannone della cultura popolare (film, serie TV, programmi televisivi, riviste di informazione, quotidiani, ecc.), della post-verità, del cospirazionismo e della pseudoscienza esoterica [17]. In pratica, si passa dal gatto di Schrödinger a Deepak Chopra e a Lost senza soluzione di continuità. In buona sostanza, è questa scienza-non-scienza che diventa la fonte principale di conoscenza del pubblico. Ed è per questo che occorre essere quanto più precisi possibile quando si fa divulgazione.

Lo schema più importante di tutto il post, incentrato sull'inevitabile dramma della scorrettezza scientifica: per divulgare efficacemente si deve scendere a patti con bias e fallacie,  ma questo scivolamento comporta il fraintendimento dei contenuti veicolati. Solo un programma a lungo termine di alfabetizzazione scientifica, logico-razionale e culturale può ovviare a queste distorsioni.  Questo programma ci sarebbe già: si chiama "scuola".
Fonte: opera dello scrivente, adattata e modificata da Asprem 2016 (vedi bibliografia) (CC-BY-NC-ND 3.0)


Divulgazione 2.0 tra postmodernismo e post-verità



In conclusione, è più probabile che il movente di un contenuto divulgato online sia meramente quello di essere presenti e di “diffondere” un contenuto, e non il contenuto scientificamente corretto ci si apsetterebbe. Questo contenuto si piega spesso al bisogno di attirare l’attenzione: basta che se ne parli se il trend è hot in quel momento, e se non lo è occorre trovare il modo per renderlo tale. Spesso si cavalca un nozionismo ridanciano che si basa sull’inaspettato, sul “perturbante” (quello che Freud chiamava Unheimlich) e su tutti i mezzi cognitivi per attirare l’attenzione in un mondo digitale dove l’attenzione è il bene più elusivo di tutti (non sto qui a ricordare gli effetti reali o presunti degli smartphone e dei social media sulla cognizione umana [17bis]). E il risultato è che per fare divulgazione si finisce invece a creare edutainment, ossia fondere (molto) divertimento con (poco) materiale educativo. Una cosa che non suona neanche tanto minacciosa, ma che declinata sulla base dei bias e delle fallacie logiche, diventa il veicolo per diffondere contenuti veramente “virali” – nel senso di materiali infettivi e dannosi. 

I fatti socio-politici dell’attualità confermano che la distinzione tra informazione semiseria e diffusione/divulgazione non viene riconosciuta dalla maggioranza dei prosumatori: la Brexit, l’elezione di Trump, il sovranismo europeo, le scie chimiche e l’antivaccinismo sono tutti sostenuti da bugie e da un attivo disprezzo nei confronti degli esperti, e convergono tutti in quel punto all’orizzonte che si chiama postmodernismo – e che è anche il punto di fuga umanistico del prosumerismo. Dal alcuni rivoli della filosofia postmoderna nascono:

  • l’abbaglio sociale dello smantellamento del sapere istituzionale (e specialmente quello scientifico) perché ritenuto colpevole dei mali sociali, politici ed economici;
  • la confusione tra ontologia (quello che c’è, la realtà) e l’epistemologia (ossia il sapere che utilizziamo per giungere alla conoscenza della realtà);
  • il pensiero che il reale sia quello che viene ritenuto tale e non quello che è;
  • l’idea che tutte le opinioni abbiano eguale valore scientifico (in senso lato). 
Allora, è normale che astrologia e astronomia possano avere lo stesso identico peso epistemologico – e lo stesso spazio nelle trasmissioni televisive (in Italia) [18]. E così le bugie politiche e i dati economici, il mercurio nei vaccini che causerebbe l’autismo e gli effetti dell’inquinamento come interferente endocrino, il dramma del cambiamento climatico e il negazionismo della Casa Bianca coesistono tutti come se avessero un peso e un valore identici. Tutto coesiste con il suo contrario, uno vale uno – e chi perde in questo gioco è proprio il sapere. Ma allora, senza controllori adeguati, chi controlla e chi gestisce tutto questo marasma? Nessuno. O meglio: tutti i prosumatori stessi, guidati in stragrande maggioranza dai loro bias intutivi, dai gusti locali, dalle mode del momento e dalle loro fallacie logiche. In un mondo digitale nel quale contano le visualizzazioni e gli iscritti, la divulgazione scientifica, ossia lo scioglimento di contenuti complessi in micro-concetti facilmente assimilabili sui quali costruire e consolidare a lungo termine nozioni man mano più complesse, è stata la prima vittima [18bis].

Ma la scuola? – si potrebbe obiettare. Non avrebbe dovuto formare – e vaccinare razionalmente – quelli che sarebbero poi diventati i prosumatori? Purtroppo no. La scuola dell’obbligo e l’università italiane versano in condizioni che, in generale e paragonate a quelle di altri paesi confinanti, non esiterei a definire sull’orlo del disastro [19]. Entrambe scontano decenni di problematiche strutturali lasciate irrisolte. Spetterebbe all’insegnamento scolastico fornire lo standard della divulgazione: lenta, cumulativa, per gradi di complessità crescente, senza semplificare in modo eccessivo ma cercando di veicolare pensieri complessi in modo diretto, progressivo e con calma. Insegnando innanzitutto a giudicare logicamente le informazioni e le nozioni, a valutare le fonti, a sviluppare una critica sensata ed epistemologicamente fondata. Tutto questo non è più un dato di fatto, qualcosa di scontato, e anche quando questo servizio essenziale viene fornito in modo esemplare il sapere immagazzinato deve vedersela con la competizione costante e il bombardamento cognitivo dell’edutainment/infotainment dei social media. Chiaro, si parla di grandi numeri, e non prendo in considerazioni le eccezioni. Ma i trend internazionali forniti dalle istituzioni più affidabili parlano chiaro: c’è una recrudescenza di fragilità conoscitive e di scelte sociali e politiche inadeguate dovute a un venir meno della conoscenza scientifica condivisa. Si è aperto uno squarcio nella struttura sociale, e se non riusciremo a ricucirlo al più presto, tutti, prosumatori e non, ne pagheremo le conseguenze. 


[1] Treccani – Vocabolario on line, s.v. 'divulgare'. http://www.treccani.it/vocabolario/divulgare/

[2] Rodríguez García, J.M. (2001) “Scientia Potestas Est – Knowledge is Power: Francis Bacon to Michel Foucault”. Neohelicon (2001) 28: 109-121. https://doi.org/10.1023/A:1011901104984

[3] D’Ancona, M (2017). Post-Truth: The New War on Truth and How to Fight Back. Londra: Ebury Press. La post-verità, in breve, rappresenta il risultato politico dell’interazione tra i seguenti fattori: (1) l’esistenza di una corrente filosofica di successo (il postmodernismo) per cui “non esistono i fatti, esistono solamente le opinioni”; (2) un’epoca storica caratterizzata da democrazia, liberismo, capitalismo; (3) l’innovazione tecnologica della Rete. Da Ferraris, M. (2017). Postverità e altri enigmi. Roma e Bari: laterza. p. 10.

[4] Cfr. D’Ancona. Post-Truth..., cit., e Ferrari, Postverità e altri enigmi, cit.

[5] Cassata, F. (2008). Le due scienze. Il «caso Lysenko» in Italia. Torino: Bollati Boringhieri.

[6] Kahneman, D. (2012). Pensieri lenti e pensieri veloci. Milano: Mondadori.

[7] Si veda questa serie di post su McCauley, R. N. (2011). Why Religion Is Natural and Science Is Not. Oxford and New York: Oxford University Press; cfr. anche Tooby, J. & Cosmides, L. (1992). “The psychological foundations of culture”. In J. Barkow, L. Cosmides, & J. Tooby (Eds.), The Adapted Mind: Evolutionary Psychology and the Generation of Culture. New York: Oxford University Press; Dunbar, R. (2004). The Human Story. Faber & Faber; Dunbar, R., Barrett, L. & Lycett, J . (2005). Evolutionary Psychology: A Beginner’s Guide. OneWorld: Oxford. Sui limiti cognitivi relativi ai legami sociali si veda “Do Online Social Media Cut through the Constraints That Limit the Size of Offline Social Networks?” di R. Dunbar, in Royal Society Open Science, Vol. 3, Article No. 150292; January 2016 http://rsos.royalsocietypublishing.org/content/3/1/150292

[8] Pinker, S. (2010). “The cognitive niche: Coevolution of intelligence, sociality, and language”. PNAS 107 (Supplement 2) 8993-8999; published ahead of print May 5, 2010 https://doi.org/10.1073/pnas.0914630107

[9] Menduni, E. (2008). s.v. “prosumer”. Enciclopedia della Scienza e della Tecnica. http://www.treccani.it/enciclopedia/prosumer_%28Enciclopedia-della-Scienza-e-della-Tecnica%29/

[10] Biały, Beata (2017). “Social Media—From Social Exchange to Battlefield.” The Cyber Defense Review 2(2): 69-90. https://www.jstor.org/stable/26267344?seq=1#metadata_info_tab_contents

[11] Pigliucci, M & M. Boudry (2014). Philosophy of Pseudoscience: Reocnsidering the Demarcation Problem. Chicago and London: The University of Chicago Press.

[12] Caulfield, T. (2016). Is Gwyneth Paltrow Wrong About Everything? When Celebrity Culture And Science Clash. London: Penguin.

[13] Cianpaglia, G. L. & F. Menczer (2018). “Misinformation and biases infect social media, both intentionally and accidentally”. June 20, 2018, The Conversation, https://theconversation.com/misinformation-and-biases-infect-social-media-both-intentionally-and-accidentally-97148. Basato su Shao C, Hui P-M, Wang L, Jiang X, Flammini A, Menczer F, et al. (2018) Anatomy of an online misinformation network. PLoS ONE 13(4): e0196087. https://doi.org/10.1371/journal.pone.0196087.

[14] Apro qui in nota una digressione storica, chiedendo scusa in anticipo per la semplificazione eccessiva. La tecnologia e l’industria del libro aveva un numero variabile ma consistente di passaggi e di tecniche da padroneggiare prima che un utente potesse passare da consumatore a produttore, agendo  nell'insieme da dissuasore per i più impreparati. Le tecnologie digitali hanno invece azzerato i tempi di attesa sia nella gestione del materiale che nella produzione. Oggi, chiunque può creare prodotti culturali con una veste grafica di buona o persino di eccellente qualità – cosa che una volta spettava solamente alle case editrici migliori, le quali avevano anche accumulato un capitale di rigore scientifico. Quindi, precisione del contenitore (la veste grafica) e del contenuto (le informazioni divulgate all’interno del libro) spesso coincidevano. Le University Presses anglosassoni erano (e sono tuttora) belle da vedere e da sfogliare ma soprattutto affidabili. Oggi questi due elementi sono spesso disgiunti. Anzi, la veste grafica viene attivamente sfruttata online per veicolare informazioni e nozioni false, mentre le piattaforme digitali non controllano i contenuti che i loro utenti postano. Oxford University Press, ad esempio, conduce un rigoroso controllo preliminare dell’autore e del tema trattato prima di pubblicare qualcosa, e sottopone il testo a un controllo paritario a doppio cieco; YouTube e Facebook (almeno fino a prima dello scandalo Cambridge Analytica) non esercitano alcun tipo di controllo. Per riflettere sulle conseguenze socio-politiche si rimanda a Floridi, L. (2015). “The New Grey Power.” Philosophy & Technology 28(3): 329-332. DOI 10.1007/s13347-015-0206-y. https://link.springer.com/article/10.1007/s13347-015-0206-y

[14bis] In effetti, una fetta considerevole di utenza si dedica attivamente a fare contro-propaganda divulgativa di ogni tipo: pseudoscientifica, fondamentalista, razzista, ma sempre e in ogni caso fermamente antiscientifica.


[15bis] Thielman, S. (2015). “How Fox ate National Geographic”. The Guardian, 14 novembre 2015. https://www.theguardian.com/media/2015/nov/14/how-fox-ate-national-geographic

[16] Hitlin, P. (2018). “The Science People See on Social Media”. Pew Research Center. http://www.pewinternet.org/2018/03/21/the-science-people-see-on-social-media/

[17] Asprem, E. (2016). “How Schrödinger’s Cat Became a Zombie: On the Epidemiology of Science-Based Representations in Popular and Religious Contexts”. Method & Theory in the Study of Religion 28(2): 113-140. DOI: 10.1163/15700682-12341373

[17bis] Wilmer, H. H., L. E. Sherman & J. M. Chein (2017). “Smartphones and Cognition: A Review of Research Exploring the Links between Mobile Technology Habits and Cognitive Functioning. Front Psychol. 8 605. Published online 2017 Apr 25. doi:  10.3389/fpsyg.2017.00605. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5403814/

[18] Ferraris, M. (2017). Postverità e altri enigmi. Roma-Bari: Laterza. Su astrologia e astornomia cfr. Pigliucci, M. (2016). “Was Feyerabend Right in Defending Astrology? A Commentary on Kidd.” Social Epistemology Review and Reply Collective 5, no. 5 (2016): 1-6. https://social-epistemology.com/2016/05/02/was-feyerabend-right-in-defending-astrology-a-commentary-on-kidd-massimo-pigliucci/

[18bis] Vale la pena domandarsi: quanto sono affidabili gli iscritti, i follower e le visualizzazioni dei migliori canali/account scientifici come indicatori di avvenuta divulgazione in un mondo liquido come quello della Rete, dove i contenuti e le idee devono competere 24 ore su 24 con altri contenuti potenzialmente simili? Trasmissione e visualizzazione non equivalgono a comprensione e condivisione.

[19] OECD (2018). “Italy: Overview of the Education System”. http://gpseducation.oecd.org/CountryProfile?primaryCountry=ITA&treshold=10&topic=EO

domenica 13 agosto 2017

Darwin Day 2017. Parte III: i tempi profondi del bullismo

Riassunto delle puntate precedenti

Nei primi due post di questa serie dedicata alle radici evolutive e cognitive del bullismo abbiamo cercato di vedere quali potessero essere le cause a monte dei comportamenti bullistici, e ci siamo concentrati su due tesi: quella di Jonathan Gottschall, secondo la quale il bullismo rappresenta un adattamento evolutivo, e quella di Christopher Boehm, la quale prevede una modulazione socio-cognitiva dei comportamenti bullistici basata sul rapporto tra ravvedimento individuale e tolleranza sociale. Nel primo caso avremmo una competizione diretta che premierebbe l’esercizio della forza da parte dei bulli, nel secondo un allargamento delle maglie selettive del gruppo a patto che il free rider dominante si ravveda nel caso in cui questi abbia assunto comportamenti antisociali. Nel caso illustrato da Boehm, il passaggio dei geni del free rider dominante alla generazione successiva garantirebbe una certa variabilità fenotipica all’interno del gruppo.

Entrambe le tesi danno però per scontati alcuni assunti molto importanti. Due di questi sono particolarmente importanti: il bullismo come entità sottoposta a selezione e l’uso della comparazione etnografica per tracciare analogie con un’ipotetica umanità ancestrale. Dopo aver trattato del primo punto qui, in questo post ci occupiamo del secondo punto [1].

«Balle!» Quando etnografia e preistoria (non) vanno d’accordo

Homo erectus, Homo georgicus o Homo erectus georgicus? La tassonomia del genere Homo è un mezzo incubo e cambia a seconda che i paleoantropologi siano lumper o splitter, ossia che tendano a separare o unificare più taxa. Vi lascio i numeri di catalogo di cranio e mandibola: D2700 e D2735, da Dmanisi, Georgia.
Da Wikipedia.

L’elefante nella stanza di entrambi i modelli esplicativi è relativo all’uso di popolazioni di cacciatori-raccoglitori attuali per creare un ipotetico modello ancestrale di comportamenti umani sulla base di ulteriori filtri e paragoni con bonobo e scimpanzé come outgroup e pietra di paragone. Come ha scritto Peter J. Richerson in un illuminante commento pubblicato online, e che ho riportato in un mio articolo pubblicato un anno fa,
«esiste un certo cliché riguardo all’ipotetica “natura umana” che penso sia il caso di lasciarci alle spalle. La gente dirà che siamo stati cacciatori-raccoglitori per [due] milioni di anni e tirerà in ballo i San del Kalahari o i Shoshoni come modello di paragone etnografico. Balle! Qualunque cosa Homo erectus stesse facendo (verosimilmente, cose diverse in posti e tempi diversi) non è ciò che i San o i Shoshoni stavano facendo, magari nemmeno lontanamente. Non c’è dubbio che le cose che essi stavano facendo si stessero allontanando dal comportamento ominine ancestrale e indirizzandosi verso ciò che fanno i cacciatori-raccoglitori, ma la di là della produzione di utensili in pietra possiamo dire molto poco di certo. La documentazione paleoantropologica è molto, molto frustante riguardo alle grandi domande. Alcuni Homo arcaici potrebbero aver “sperimentato” con forme di organizzazione sociale devianti rispetto ad un’estrapolazione diretta a partire da quanto avviene negli scimpanzé e nei cacciatori-raccoglitori. Chi può dirlo?» [2].
La chiarezza del commento di Richerson è esemplare. La questione delle ipotetiche sopravvivenze culturali derivanti da periodi pre- o protostorici sulla base di paragoni etnografici analogici è un argomento storiografico spinosissimo e contestato del quale mi sono occupato in vari articoli accademici e che ho trattato nel mio libro [3]. Troppo spesso il rischio è quello di vedere falsi positivi dove non esiste nulla, prendendo fischi per fiaschi, ossia confondendo reinvenzioni culturali o comportamentali (evoluzione parallela) con potenziali omologie (ossia eredità e continuità da antenato comune) [4]. E tracciare omologie a ricavare scale di valore razziale o nazionalistico è stata una tentazione costante nelle discipline storiografiche del primo Novecento. Ho combattuto per anni – e ancora combatto – contro questa tendenza nella storiografia antica e nella storiografia religionistica, e ho ben presente le fallacie logiche che sono alla base di tali considerazioni [5]

Per questo motivo è straniante e provocatorio al tempo stesso leggere quanto recentemente sostenuto da Adrian Currie: non esisterebbe alcun argomento speciale che possa immunizzare per principio e a priori le discipline storiografiche umane dall’uso dell’analogia (in questo caso etnografica) e dal metodo comparativo così come vengono adottati nelle discipline scientifiche naturali [6]. Il problema comune a tutte le discipline storiche è l’interpretazione, ma la presenza di intenzioni umane, così scrive Currie, non inficerebbe a priori l’applicazione di metodologie analitiche comparative. Bisogna invece valutare caso per caso la sottodeterminazione delle teorie a disposizione, relativa cioè all’assenza di prove (evidential underdetermination) o alla presenza di teorie capaci di fornire rilevanza alle prove disponibili (midrange underdetermination). Nel caso dei resoconti etnografici, spesso non possediamo materiale affidabile al 100% (sottodeterminazione delle prove) e ancora più spesso non possediamo teorie capaci di collegare in modo epistemicamente rigoroso questa documentazione alle società umane ancestrali. Però, è vero altresì che nuove ricerche, nuove scoperte e nuove metodologie di indagine oggi cercano di ovviare alle ingenuità del passato e che esistono teorie capaci di collegare in modo brillante campi apparentemente diversi.

Secondo lo schema proposto da Currie, che mira ad unificare la comparazione tipica del campo biologico ed evoluzionistico con quella di tipo storico-umanistico o antropologico (d’altra parte, si tratta sempre di discipline storiche) [7], abbiamo due equivalenze: da un lato inferenza omologia e analogia etnografica diretta, basate sulla continuità storica dei tratti in esame, e dall’altro l’inferenza omoplastica e analogia etnografica indiretta, fondate invece su un «modello che collega i tratti ad altre caratteristiche (vincolate ad un contesto)» [8]. come ricorda Currie, la validità di questi assunti risiede nella loro capacità di soddisfare determinate condizioni (vedi Tabella 1).


In particolare, «per quanto riguarda le analogie dirette, abbiamo bisogno di conoscere il livello di stabilità della cultura umana [trasmessa attraverso spazio e tempo]. In molti casi, questo non è elevato: data la grande plasticità del comportamento e della cultura umane, temo che spesso le analogie dirette non siano utili» [9]. Apparentemente, il confine invalicabile è costituito dalla robustezza dei tratti ereditati e dalla fedeltà della trasmissione. Biologia 1 – Storiografia e antropologia 0. Tuttavia, come evidenziato da Kim Sterelny, esisterebbero specifiche “nicchie epistemiche” all’interno delle culture umane capaci di una resilienza e una fedeltà di trasmissione tali per cui la condizione di stabilità nell’ereditabilità possa essere soddisfatta [10]. Le analogie indirette, invece, hanno solo bisogno di conoscere le “corrispondenze” tra ambiente e tratti culturali [11]. In entrambi casi l’adagio raccomanda comunque prudenza e sangue freddo.

Tirando le somme. Spoiler: vince la scienza

Forse Currie pecca di ingenuità, forse eccede in presunzione. La documentazione storiografica (come quella paleontologica e parimenti per tutte le discipline che possiedono un archivio consistente di documenti persi nel tempo profondo) è un vero colabrodo. E anche quella etnografica, spesso registrata nei secoli passati secondo protocolli desueti e inaffidabili, lascia spesso a desiderare per qualità e quantità. Ma non tuta la hybris scientifica vien per nuocere. Grazie alla sistematizzazione di Currie abbiamo una traccia epistemologica che permette di adottare un metodo sulla base di un protocollo. Può funzionare, oppure no, ma si può iniziare da qualche parte senza eccedere e mettendo da parte le demonizzazioni a priori o il “liberi tutti!” metodologico. Ora ci sono argomenti epistemici. È abbastanza per garantire una certa fiducia. E non è poco.

Proviamo a tirare le fila e a classificare quanto elaborato in merito al bullismo e ai due post precedenti secondo il modello di Currie. La tesi di Gottschall traccia un’analogia etnografica diretta dello stesso (il bullismo c’è ovunque nel mondo animale), mentre la tesi di Boehm identifica un’analogia etnografica indiretta che spiega l’adozione di comportamenti bullistici tipica di primati non-ominini e delle società contemporanee di H. sapiens come una conseguenza dell’attivazione di vincoli strutturali simili (ossia, i free rider dominanti sono un prodotto secondario, o by-product, dell’organizzazione sociale: mutate condizioni socio-economiche avrebbero permesso loro di instaurare gerarchie di dominanza prima assenti). Se c’è continuità storica, questa è relativa solo alle gerarchie a dominanza inversa, e solo per un certo periodo di tempo (primati non-ominini e la maggior parte delle società umane post-neolitiche hanno invece gerarchie di dominanza). Secondo la linea adottata da Boehm, alcune tecnologie sociali e materiali, solo per certe popolazioni, e solamente dopo il Neolitico, avrebbero permesso ai bulli in fieri di stabilire delle gerarchie di dominanza e di legittimare politicamente l’esercizio del potere da parte di free rider dominanti.

Ora, la convergenza storico-scientifica delle prove a disposizione cerca di superare la debolezza di singole sequenze di informazioni indipendenti che puntano verso una determinata con la somma delle parti: solamente più dati, più analisi rigorose, e una maggiore attenzione e serietà interdisciplinare possono contribuire a chiarire il quadro (ad esempio, esistono, come abbiamo ricordato in precedenza, tipi diversi di bullismo). Se consideriamo il ritardo incredibile delle scienze sociali nei confronti di paradigmi realmente scientifici, allora gli esercizi di Gottschall e Boehm possono aiutarci a mettere giù i primi paletti stabili nello studio scientifico di questo aspetto delle culture umane, abbattendo gradualmente il muro che separa ancora le due culture. Sono tentativi ancora incompleti e speculativi, ma ipotesi simili costringono a pensare e a raccogliere dati ulteriori, a cercare ancora e a proporre nuovi paradigmi. Sono parte dell’impalcatura di base, e da lì si procede in avanti. Siamo solo agli inizi, e molto si dimostrerà sbagliato e ingenuo con il proverbiale senno di poi, ma da qualche parte occorre partire. E sbagliare è il sale della ricerca scientifica [12].

Zio Ben può essere fiero di suo nipote. Gli sceneggiatori, beh, non sempre.
Copertina di Spider-Man: Basta bullismo!, Panini Comics giugno 2017 (Uomo Ragno Speciale XXX n.1/2017). Bella e toccante la storia centrale ("Weird", da Avengers No More Bullying n. 1 del 03/2015), ma sgraziata la prima (un bullismo soft, quello di "Friends on the Web, da Avengers: No More Bullying n. 1 del 03/2015) e assolutamente inutile la terza ("Fear Pressure" da Amazing Spider-Man on Bullying Prevention n. 1 del 10/2003), dove una vittima di bullismo diventa bullo a sua volta. Ne abbiamo parlato qui, ma c'era senz'altro un altro modo per affrontare la questione senza dover per forza incolpare una vittima, in un fumetto che tra l'altro dovrebbe essere mirato alla Bullying Prevention!
Per concludere, non esistono bacchette magiche che possano decidere a priori quale metodo sia corretto. Se l’obiettivo delle discipline storiche è quello di ricostruire fatti sulla base di un modello epistemologico volto a minimizzare le speculazioni, promuovendo nel contempo asserzioni epistemicamente fondate e sostenute da una sufficiente “concordanza di induzioni”, bisogna sempre stare attenti e mantenere alto il livello di vigilanza. Per ora, il modello di Boehm, grazie al suo focus spazio-temporale specifico, sembra godere di maggiori chance di falsificazione rispetto a quello di Gottschall. Che non vuol dire che sia più “vero”, attenzione. Significa solo che si può partire da lì per studiare in profondità. E senza dati non si può fare proprio nulla. Vedremo come andrà a finire e cerchiamo di fare scienza, accumulando e ripensando man mano. Per ora, risposte definitive non ne abbiamo, ma di certo sappiamo cosa non sappiamo e dove cercare per imparare a conoscere. Intanto, chiudo questa serie di post. Nel frattempo, il prossimo cretino che fa il bullo finisce in prigione senza passare dal via.

[1] Riprendo e aggiorno la scheda introduttiva da questo post.

[2] Richerson, Peter J. (2014). Comment on Turchin, Peter (2014). "Cooperation: This time, between man and woman". Social Evolution Forum, October 20. Per una contestualizzazione della citazione si rimanda a Ambasciano, L. (2016). “Mind the (Unbridgeable) Gaps: A Cautionary Tale about Pseudoscientific Distortions and Scientific Misconceptions in the Study of Religion.” Method & Theory in the Study of Religion (28)2: 141-225. https://doi.org/10.1163/15700682-12341372

[3] Ambasciano, L(2014a). Sciamanesimo senza sciamanesimo. Le radici intellettuali del modello sciamanico di Mircea Eliade: evoluzionismo, psicoanalisi, te(le)ologia. Roma: Edizioni Nuova Cultura. https://doi.org/10.4458/3529.

[4] Un testo chiave per la traslazione del tema in ambito storiografico (umanistico) è Smith, J. Z. (1990). Drudgery Divine: On the Comparison of Early Christianities and the Religions of Late Antiquity. Chicago and London: University of Chicago Press, 36-54 (§ “On Comparison”). Si veda anche Saler, B. (2000). Conceptualizing Religion: Immanent Anthropologists, Transcendent Natives, & Unbounded Categories. Oxford: Berghan Books.

[5] Ambasciano, Sciamanesimo senza sciamanesimo.... Cfr. Ampolo, C. (2013). “Il problema delle origini di Roma rivisitato: concordismo, ipertradizionalismo acritico, contesti. I”. Annali della Scuola Normale Superiore di Pisa. Classe di Lettere e Filosofia, serie 5: 1217-284. Si veda anche il mio pezzo (di prossima pubblicazione) intitolato “Politics of Nostalgia, Logical Fallacies, and Cognitive Biases: The Importance of Epistemology in the Age of Cognitive Historiography.” In A New Synthesis for the Study of Religion: Cognition, Evolution, and History in the Study of Religion, a cura di I. S. Gilhus, J. S. Jensen, LL. H. Martin, J. Sørensen & A. K. Petersen. Leiden - Boston: Brill.

[6] Currie, A. (2016). “Ethnographic analogy, the comparative method, and archaeological special pleading”. Studies in History and Philosophy of Science Part A (55): 84-94. https://doi.org/10.1016/j.shpsa.2015.08.010

[7] Smail, D. L. (2017). Storia profonda. Il cervello umano e l’origine della storia. Torino: Bollati Boringhieri. Traduzione dall’originale inglese On Deep History and the Brain. Berkeley, Los Angeles & London: University of California Press, di un certo blogger di vostra conoscenza che si occupa di Tempi profondi.

[8] Ibi: 88. Si veda inoltre Cleland, C. E. Cleland & Brindell, S. (2013). “Science and the Messy, Uncontrollable World of Nature.” In Philosophy of Pseudoscience: Reconsidering the Demarcation Problem, a cura di M. Pigliucci e M. Boudry, 183–202. Chicago and London: University of Chicago Press.

[9] Currie, Ethnographic analogy…, p. 91.

[10] Ibid. Cfr. anche Sterelny, K. (2003). Thought in a Hostile World: The Evolution of Human Cognition. Malden, MA and Oxford: Wiley-Blackwell.

[11] Currie, Ethnographic analogy…, p. 91.

[12] Schwartz, M.A. (2008). “The Importance of Stupidity in Scientific Research.” Journal of Cell Science 121: 1771. https://doi.org/10.1242/jcs.033340.

giovedì 11 maggio 2017

Reflecting on "Mary Beard's Ultimate Rome," one year later


It's been more than a year since the BBC broadcast Cambridge historian Mary Beard's celebrated documentary Ultimate Rome: Empire Without Limit. It was an unprecedented critical success, and English media relished and enjoyed the astonishing quality of such a magnificent production. In a time where ancient history, and historiography in general, are suffering the most from institutional budget cuts, from the competition with sexier, scientific disciplines, and from the postmodern disregard for the ancient past, Ultimate Rome tried to prove all the naysayers wrong.

In a sense, the documentary has succeeded spectacularly. It has been hailed by The Guardian as "a thoughtful and resolutely British series that, like its predecessors, deserves to draw in viewers by the million." Personally, I have admired Beard's wit and her down-to-earth, no-nonsense attitude in Ultimate Rome. In the past, I enjoyed reading Beard's groundbreaking academic works, and I have included them when I was preparing the syllabus of my university course about gender issues and female cults in ancient Rome. I was delighted to discover such a lively popularisation of ancient historiography in her documentary. Well, I wish there were more exploration of gender topics in a documentary on ancient Rome, but I digress, for the theme of the present post is not the many things that I have found enjoyable in Ultimate Rome, but the few things that were, in my opinion, quite problematic or debatable.

What follows is a personal selection from some of these issues. It goes without saying that, notwithstanding the accuracy of my personal notes from over one year ago, my memory might fail me. Plus, I might be just wrong in my (mis)recollections. Finally, let me just remark that in no way such criticism detracts from the value of Beard's scholarship. I simply and firmly believe that historiography is a science, sic et simpliciter, and, as such, it must be subjected to the very same evaluation and quality control that preside over any other science. Readers already acquainted with the usual themes of the blog know how many posts I have devoted to such topic.

And now, one note from each of the fourth installments of the series:

EPISODE #1 


We start with nothing more than a trifle. In the first episode, Beard takes the viewers to the Ara Pacis in Rome. Contrary to what images and words suggested, the Augustan Res Gestae seen here is not original. It is a fascist replica engraved in the external wall of the Museum of the Ara Pacis in Rome. Yet, the inscription is presented as if its originality was not in question, which may have led the viewers to take it at face value for a real document. Ancient historians, like palaeontologists, very rarely have the luxury of such mind-blowingly complete documents. History is, most of the times, reconstructed from bits and scraps.

EPISODE #2


The second episode has to do with the unique Roman engineering prowess. Or was it? While standing in front of a stone milestone on the Via Domitia (in France), Beard asserts that, for the first time, it was possible to know exactly where one was on a state network of roads, thanks to a standardised,  precise distance-tracking system. This is exactly the kind of ancient historiography that struck me as quite problematic, especially after the demise of Western Civ in the US and after the groundbreaking impact of global history and Big History on our understanding of the human past. If we take into consideration the parallel and independent development of human cultures scattered all over the world, what about the extremely well-organised Inca road system (e.g., chaskiwasi, tambos, etc.), for instance?
Again, the same point of view is deployed when Beard speaks of the Roman market system, and pottery in particular, as the first example of "globalisation." I may be too harsh here, as this is no longue-durée, big-historical documentary, but again such a statement can be quite misleading. For the record, globalisation as a process began during the first out-of-Africa migration of the genus Homo. Should you really want to maintain a rigorous, geographical focus, long-distance trade in Europe is attested since Cro-Magnons and Neanderthals, by the way. Maybe a redefinition of "globalisation" could have contributed to clarify those general statements.

EPISODE #3


In the third episode, Beard shows in a rather straightforward and absolutely correct way the mixed ethnic composition of Roman Britain, sagaciously deconstructing the ignorant, racist claims of local ethnic purity. Just to be clear once and for all: there is no such thing now, and there was no such thing in the ancient past. Ethnic purity has always been a myth. (On the other hand, obtuse inbreeding led to the War of Spanish Succession, so beware of "purity.")
The results of chemical analyses concerning the isotope signature in the tooth enamel of Roman era bones from York allows her colleague Ella Eckhart to ascertain that the remains pertained to someone who originally grew up in a much colder climate, such as Germany or Poland.
Now, is this an epistemically warranted assertion?
First of all, what about altitude? What if that human being came from the Alps, or the Pyrenees? Simple fact: the higher you go, the colder the temperature you get. There is no need to think in two dimensions. There is no doubt that the addition of archaeological technologies such as stable isotopes analysis have contributed to reshape radically our understanding of ancient physical mobility. However, as Roman historian Greg Woolf has recently cautioned, researchers should avoid such reliance on methodologies that are so constrained by the poor availability of data (in most cases fragmentary). As a matter of fact, isotopes from water consumption are not reliable when considered in a larger environmental network of short-range variation and, most of all, in the Roman technological network which allowed high-altitude drinking water to be brought by aqueducts (see G. Woolf, G. 2016. “Movers and Stayers”, in: L. de Ligt & L. E. Tacoma (eds.), Migration and Mobility in the Early Roman Empire, Leiden & Boston: Brill, pp. 438- 461: 455). Science provides an empowering set of methods, but before using it, one has to master epistemology. In cases like this one, palaeogenetics might be of invaluable help, provided that the quality of data is sufficiently reliable. Maybe this issue has already been resolved by additional research, but I do not recall any clear assertion on that from the episode.
Second, I think that it is quite misleading to conflate (ancient) geographical regions and (modern) peoples. Slavic peoples from the area now occupied by Poland, for instance, were not identified as "Poles" until the eleventh century (at least). As a matter of fact, all European identities and languages were invented and standardised during the Nineteen-century process that Eric Hobsbawm and Terrence Ranger famously called the "invention of tradition."
I know that Beard's was a clever rebuttal to mock racist, blatant claims on ethnic purity, but the parallel between modern Polish (or Germans) and ancient Roman Britain citizens was a bit anachronistic. This is the hard problem implicit in  every popularising effort - especially in history, where labels, names, and definitions might be associated with long-held, essentialised beliefs: what should you give for granted? How should you explain very complicated, longue-durée processes in  just a couple of minutes?

EPISODE #4


Unfortunately, the final episode of  Ultimate Rome did really jump the shark - for me, at least.
A single, highly problematic sentence that has defined so far the dominant paradigm in contemporary Roman History raised my eyebrow. In Beard's own words, "the Romans didn't believe in their gods, they didn't have internal faith in our sense." Roman religion, consequently, "was a religion of doing, not believing" (Beard, M. 2015. SPQR, Profile Books, London. p. 103). A step back might be helpful now. Originally conceived as the wedge to overthrow the previous and problematic disciplinary paradigm (deeply rooted in the Reformation's vocabulary and in its depreciative and belittling view of Catholic ritual as devoid of real religious meaning), this rather curious definition managed to throw the baby out with the bathwater. In other words, and to cut a long story short, since belief was reputed to be a culturally conditioned state of mind that may or may not be present, either you have it or you don't. We have it ("our internal sense of faith"). Romans didn't have it. They did things, they did not believe in things. Full stop.


The most shocking consequence for the discipline is that ancient Romans, with their stress on orthopraxy and rituals, become a bit like Chalmers' zombies, lacking internal conscious states about beliefs. Therefore, through this scholarly perspective, ancient Romans are reputed to have had a totally different cognitive machinery that almost made them a bizarre sort of cognitively peculiar human beings.
An idea which, frankly, seems particularly bonkers. 
Cognitive science of religion is currently helping to reconsider such a statement: ancient Romans were, rather unmistakably and beyond any reasonable doubts, members of the species Homo sapiens. As such, it could be considered more than a safe bet to presume that they were agents with beliefs, desires, and intentions, evolved to communicate with and relate to other agents with beliefs, desired, and intentions. Goddesses and gods, as culturally postulated superhuman beings (according to the classical definition advanced by Melford Spiro in 1971), were a distinct class of imagined agents - but agents nonetheless. Which was the necessary and sufficient condition to communicate with and relate to them, and to believe in whatever they might have been reputed to say. Cognitively and historically speaking, there is so much more to say, but, since I do not want to steal my own thunder, wait for my paper on the topic.

And there you have it: a complete nitpicker's guide to an otherwise brilliant, fabulously shot, and sincerely informative BBC documentary. Do not get me wrong: I have loved and I strongly recommend this documentary. And I eagerly wait for a Mary Beard/BBC documentary on gender issues, androcentrism, and patriarchy in the ancient Mediterranean. That would be awesome.

That's all, folks. So long, and thanks for all the fish.

Credits: all images ©2016 BBC