giovedì 10 gennaio 2019

An Unnatural History of Religions: Academia, Post-Truth, and the Quest for Scientific Knowledge (London and New York: Bloomsbury, 2018)

Source and (c): Bloomsbury
-----

General Info

-----

Published: 27-12-2018
ISBN: 9781350062382 (hbk), 280 pp.
Illustrations: 15 bw illus., 3 tables
Dimensions: 234 x 156 mm

-----

The book at a glance

------

  • the first book ever to outline the development and the study of the history of religions in a scientifically updated framework, from Darwin to neuroscience;
  • the first book ever to offer a neurobiological and psychological perspective on the cumulative process that led from the deep history of intellectual elaborations on religion to the modern science of religion, from Antiquity to Hume;
  • the first book ever to advance an integrated framework in which the deeper evolutionary history of Homo sapiens and its cognitive biases supply the scaffolding to understand the persistence of anti-scientific and post-truth stances in the historical study of religion;
  • the first book ever to engage the concept of post-truth in the historical study of religion and in cultural history.

What An Unnatural History of Religions can offer its readers:
  • a new scientific perspective from which to evaluate the history of the various approaches dedicated to the academic study of religion(s), from the Victorian science of religion to current evolutionary and cognitive approaches;
  • a chronological and comprehensive account dedicated to the most important international schools of the history of religions of the past;
  • a new and no-nonsense understanding of the development of the discipline, at once continuing the tradition of looking back at the paradigms advanced by the founding scholars of the field and subverting the expectations related to the autonomy and distinctiveness of their research programmes [for previous historiographical analyses see: Sharpe, E. J. (1986[1975]). Comparative Religion: A History. Second Edition. London: Duckworth & Co.; Kippenberg, H. G. (2002). Discovering Religious History in the Modern Age. Princeton: Princeton University Press; Stroumsa, G.G. (2010). A New Science: The Discovery of Religion in the Age of Reason. Cambridge, MA: Harvard University Press; Pals, D. L. (2014[1996]). Nine Theories of Religion. Third Edition. New York Oxford: Oxford University Press; Strenski, I. (2015). Understanding Theories of Religion. An Introduction. 2nd Edition. Malden and Oxford: Wiley-Blackwell];
  • a wealth of diagrams and illustrations to clarify the most important theories and concepts and accompany the reader through all the chapters;
  • a primer in cutting-edge and interdisciplinary research, involving both the Humanities and Social Sciences, and specifically focused on cognition, history and philosophy of science, and evolution;
  • a cognitive and historical explanation of post-truth and pseudoscience;
  • a clear understanding of the major issues posed, and innovations advanced, by the historical study of religions;
  • a straightforward evaluation of the scientific value of the most important paradigms and research programmes in the field (e.g., postmodernism, phenomenology, hermeneutics, etc.);
  • a cautionary – and timely – tale on the negative impact of post-truth ideologies, religious beliefs, biases, and fallacies on academia, on the study of religion, and on society as a whole.
-----

 Back cover endorsements

-----
“In his deeply informed book, Leonardo Ambasciano challenges us to rethink long held assumptions on the history of religions – especially those too congenial to our personal values! We should all read this book.”
Michael Ruse, Werkmeister Professor of Philosophy, Florida State University, USA

“It is undeniable that this splendid contribution will require hard work to be challenged. A unique book.”
Nickolas P. Roubekas, Assistant Professor of Religious Studies, University of Vienna, Austria

“A must-read for anyone seriously interested in the cultural phenomenon of religion.”
Massimo Pigliucci, K.D. Irani Professor of Philosophy, City College of New York, USA

“This book is richly informed, beautifully clear, and lucidly argued, advocating the need to awaken from the sleep of reason.’
Anders Klostergaard Petersen, Professor in the Study of Religion, Department for the Study
of Religion, Aarhus University, Denmark

-----

Summary

-----

An Unnatural History of Religions examines the origins, development, and critical issues concerning the history of religion and its relationship with science. The book explores the ideological biases, logical fallacies, and unwarranted beliefs that surround the scientific foundations (or lack thereof) of the academic discipline of the history of religions, positioning them in today’s ‘post-truth’
culture.

Ambasciano provides the necessary critical background to evaluate the most important theories and working concepts dedicated to the explanation of the historical developments of religion. He covers the most important topics and paradigm shifts in the field, such as phenomenology, postmodernism, and cognitive science. These are taken into consideration chronologically, each time with case studies on topics such as shamanism, gender biases, ethnocentrism, and biological evolution.

The author argues that the roots of post-truth may be deep in human biases, but that historical justifications change each time, resulting in different combinations. The surprising rise of once fringe beliefs, such as conspiracy theories, pseudoscientific claims, and so-called scientific creationism, demonstrates the alarming influence that post-truth ideas may exert on both politics and society. Recognising them before they spread anew may be the first step towards a scientifically renewed study of religion.

Leonardo Ambasciano is Managing Editor of the Journal of Cognitive Historiography and was Visiting Lecturer in Religious Studies at Masaryk University, Brno (Czech Republic)

-----

Table of Contents

-----

List of Figures and Tables
Preface: Ghosts, Post-truth Despair, and Brandolini’s Law
Acknowledgements
Note on Text

1. An Incoherent Contradiction
A geological divide
Mapping the problematique
Maps, compasses and bricks
Sui generis crisis
The arms race of natural theology

2. The Deep History of Comparison
A rusty toolbox
Birth certificate(s): Ultimate origins
A preliminary note on imperialism, postmodernism and science
Rationality as cumulative by-product of comparison: From Jean Bodin to Edward Burnett Tylor
Enter comparative mythology: Friedrich Max Müller
Triumph and dissolution of comparison: James George Frazer
Whodunnit?
Shape of things to come

3. The Darwinian Road Not Taken
‘The greatest historian of all time’
The threat of a scientific and comparative study of religion
What makes us human
The Origin of Species, 1859: Breaking the chain of being
The Descent of Man, 1871: Degrees, not kinds
The Rubicon: Max Müller versus Darwin
Ladders, progress and pithecophobia
Original sin

4. Goodbye Science
The theory of everything
A scientific theology? William Robertson Smith’s ‘dual life’
Smith’s heretical accommodationism
The end of the Victorian science of religion
Birth certificate(s): HoR’s proximate origins
Netherlands, 1860s: Tiele’s (tentative) science of religion
Netherlands, 1870s: Chantepie’s theological reaction
Netherlands, 1930s: van der Leeuw’s re-confessionalization
Germany, 1890s: ‘Cultural circles’, geography and reactionary politics
Austria and Switzerland, 1900s–1950s: Schmidt’s apologetic history of religion
Schmidt’s legacy: The strategic rescue of Andrew Lang’s High Gods as an early home run for post-truth
Italy, 1910s–1950s: Pettazzoni’s revolutionary rebuttal
Italy, 1920s–1930s: Pettazzoni’s two-fold gamble
1950: The foundation of the IAHR and the defeat of science

5. Eliadology
Neither with you nor without you: Mircea Eliade
Eliade, 1920s–1980s: From Romanian post-truth to American New Age
The sacred from the Stone Age to the present and back again
Schmidt’s ‘stupendous learning and industry’
An epistemic twilight: Pseudoscience and esotericism
Shamanism, 1200s–1800s: Heretics, noble savages, (super)heroes
Shamanism, 1937–1946: Eliadean superpowers
Shamanism, 1951–1970s: The Eliadean synthesis
Resolving ‘The problem of shamanism’: An unwarranted answer to a non-existent question

6. The Demolition of the Status Quo
Point of (k)no(w) return: The politics of the Eliadean HoR
Sexist biases and gender issues: Eliade’s tunnel vision
Dismantling homo religiosus: Rita M. Gross
Dismantling the Eliadean research programme: Henry Pernet
Dismantling the primacy of shamanism: Mac Linscott Ricketts
Dismantling phenomenological morphology: Ioan P. Culianu
Dismantling classification: Jonathan Z. Smith
Dismantling right-wing ideology: Bruce Lincoln
New generations, poststructuralism and Religious Studies
Be careful what you wish for: Postmodernism
From Deconstruction to New Realism

7. The Cognitive (R)evolution: The End?
Post-truth rules
What is science, anyway? 
Forgotten forerunners: Baldwin’s evolutionary epistemology
Forgotten forerunners: Harrison’s evolutionary psychology
Forgotten forerunners: Macalister’s invention of tradition
Disappearing without a trace
The Dark Ages: Psychoanalysis, behaviourism and cultural anthropology
Modern trail-blazers, 1950s–1990s: The slow Renaissance of science
Cognition, 2000s: Back to a natural history of religion
Cognition, 2010s: More than meets the eye
Learning from your mistakes: The usefulness of scientific ‘false views’
A short-lived success? The inevitable rise of ‘false facts’

Epilogue: The Night of Pseudoscience
Notes
Bibliography
Index 

giovedì 27 dicembre 2018

Il nuovo libro è finalmente uscito! "An Unnatural History of Religions", da oggi in libreria

Iniziamo dall'elefante nella stanza.

Il blog ha subito negli ultimi tempi un notevole rallentamento. Inutile negarlo.
Nonostante la sporadica pubblicazione di qualche post, non mi è stato possibile mantenere una presenza adeguata. Post promessi da tempo sono saltati lasciando spazio a interventi più o meno estemporanei. Chi segue questo blog sui social media saprà che c'è in cantiere - da più di un anno ormai - un post sulle comunità liguri di Tabarka, Nova Tabarca e San Pietro come studio comparativo di caso per un esperimento naturale di storia, per usare la definizione di Jared Diamond e James Robinson. C'è anche un pezzo su Humboldt, S.J. Gould, e la storiografia al tempo della postverità tra i file incompleti da postare qui.

La spiegazione di questo rallentamento è presto detta: ho iniziato a lavorare come traduttore. In questi ultimi due anni ho tradotto Storia profonda di Daniel Lord Smail e Nel nome della Croce di Catherine Nixey - entrambi per i tipi di Bollati Boringhieri. Ma non ho abbandonato la ricerca. Difatti, in questi ultimi due anni ho lavorato con costanza a un manuale accademico su post-verità e antiscientismo nella storia delle religioni accademica. Un libro di storia che vede la pubblicazione proprio oggi, An Unnatural History of  Religions ossia Storia innaturale della religione.

La grafica geometrica e aniconica del mio nuovo libro
Il titolo rimanda alla Storia naturale della religione di David Hume (1755 ).
DISCLAIMER: la scelta della grafica è dipesa dalla collana di appartenenza e non rispecchia scelte personali... fosse stato per me, in copertina ci sarebbe come minimo un teropode o un albero evolutivo dei primati oppure qualche collage retrò con sciamani, cervelli, Darwin e Lascaux. La prossima volta andrà meglio, dai.
Fonte: Bloomsbury
Si tratta del compimento di un progetto di ricerca ideato e iniziato durante il mio dottorato di ricerca, accennato in occasione di un convegno internazionale alla Sapienza Università di Roma nel 2015 e presentato in forma preliminare durante il mio periodo come visiting professor presso l'Università Masaryk a Brno (Repubblica Ceca) nel 2016. Da allora fino alle soglie di questo autunno ho raccolto materiale e sviluppato temi e argomenti ai quali ho accennato talvolta qui su Tempi profondi e nel mio libro precedente, Sciamanesimo senza sciamanesimo. Il prodotto finale è un volume di 253 pagine, corredato da 15 illustrazioni e tre tavole, interamente dedicato alla storia della storia delle religioni, ai suoi molti problemi e ai suoi protagonisti, dalle origini alle soglie del 2018.

Se dovessi riassumere scopo e portata del libro direi che il taglio è quello della storia profonda: per capire i nodi fondamentali della disciplina, le sue idiosincrasie e i suoi vicoli ciechi occorre partire dal cervello umano. Ora prendete la coppia Rodari-Endrigo e andate a ritroso: per fare un cervello ci vuole un primate, per fare un primate ci vuole Mammalia... e così via. Il senso di questa boutade è che, come ha parafrasato Steven Pinker, nulla ha senso in psicologia se non alla luce dell'evoluzione. Al centro di tutto, quindi, Darwin, ritenuto già nel primo decennio del Novecento  il vero fondatore dell'antropologia e della storia delle religioni (rispettivamente da studiosi del calibro dell'oxoniense Robert R. Marett e della cantabrigense Jane E. Harrison). Ma Darwin non arriva da solo, calato dall'alto come provvidenziale deus ex machina, tutt'altro: nel libro cerco di raccontare come si è arrivati a Darwin e qual è stato il ruolo dei maggiori pensatori e studiosi precedenti, primo tra tutti un gigante della filosofia moderna, David Hume. E cerco di ricapitolare e coniugare sia l'aspetto storico-sociale della ricerca scientifica sia la realtà ontologica là fuori.

Ora, se dovessi identificare la peculiarità fondamentale che differenzia il libro rispetto ai vari volumi che si sono occupati di tracciare il percorso della storia delle religioni direi che l'evoluzione e la scienza sono il vero motore che ha condotto all'emancipazione della storiografia religionistica dai vincoli fideistici e dogmatici e il loro ruolo è qui riaffermato con forza alla luce sia degli sviluppi interdisciplinari più recenti nel campo sia della storia della disciplina.

Eppure, nonostante tutto, l'evoluzione e gli approcci non teologici e non fideistici sono sempre stati combattuti e più o meno vittoriosamente respinti durante l'intero corso della storia della disciplina. Il perché di questo estenuante rifiuto religioso contro ogni progresso scientifico che sembra ripetersi a ogni generazione, e identificato con chiarezza già dall'antropologo James G. Frazer all'inizio del Novecento, è la presa cognitiva delle credenze intuitive e la difficoltà a venire a patti con la realtà svelata faticosamente dalla ricerca scientifica. E torniamo a Rodari, Endrigo, al nostro cervello e ai suoi biases intuitivi. Non a caso, tra i temi di maggiore rilevanza che ho individuato nella storia dei vari rami europei della disciplina spicca la rilevanza assunta dalle forme di neo-creazionismo e la virulenza degli attacchi e dei veti contro svariati tipi di ricerca scientifica. Questa lotta tra scienza e religione, storicamente minimizzata da chi aveva interesse a promuovere un accomodazionismo più o meno fideista, si è finora quasi sempre risolta a favore della seconda - a volte in modo più marcato, altre volte seguendo schemi di convenienza e moduli di sopravvivenza o convivenza forzata - rivela un preoccupante legame tra manipolazione della realtà sulla base di sentimenti o credenze, establishment accademico e potere politico. In pratica, la storia della storia delle religioni si rivela essere un necessario campo di studio per la preistoria intellettuale della postverità e dei temi che ancora oggi restano di importanza primaria per una società democratica.

Ma - ci tengo ad aggiungere - il libro è molto di più di questo fosco quadro. Se è vero che molto spazio è necessariamente dedicato a quella che lo storico Paolo Rossi ha definito come "storia degli errori", c'è anche spazio per tutti i maggiori studiosi e per tutte le principali correnti di studio, note e meno note, che si sono opposti a questo status quo con la forza della ragione e del pensiero critico: Fokke Sierskma, James Baldwin, Alexander Macalister, decostruzionismo, poststrutturalismo, filosofia della mente, (paleo)antropologia, primatologia, fino agli astri nascenti dei nuovi approcci scientifici - Pascal Boyer, Lawson & McCauley, Stewart E. Guthrie... E i frutti, oggi, sono finalmente visibili - dalle scienze cognitive della religione ai Religious Studies as a Life Science - con articoli scientifici sulla religione pubblicati sulle maggiori riviste di scienza tout court, da Nature a Plos One. La religione è oggi al centro di un'etologia comparata di Homo sapiens. Ed è tempo che il resto del mondo accademico se ne renda conto.

Riassumendo: se vi stanno a cuore i temi trattati in questi anni nel mio blog, se vi incuriosisce il rapporto tra pseudoscienza, politica e mondo accademico, se volete saperne di più sulle scienze cognitive e sull'evoluzione... insomma, se avete apprezzato questo blog e sopportato le sue divagazioni intellettuali a cavallo tra storiografia, filosofia e storia della scienza, allora questo libro è pane per i vostri denti.

Bonus: la casa editrice è Bloomsbury, la stessa di Harry Potter (o meglio, il suo ramo accademico).... e allora, un bel Riddikulus agli antiscientisti, un Expelliarmus ai fautori della postverità, un buon Lumos per fare un po' di luce e un buona lettura a tutti voi!

P.S.: ahimè, il libro per ora è solo in inglese e in versione cartonata (abbastanza costosa). Il tascabile ("paperback") e l'eventuale traduzione italiana dipenderanno dal successo di questa edizione. Come è facile immaginare, al momento il testo è economicamente al di là della portata di molti lettori, ma ho in cantiere una serie di post riassuntivi sul mio libro (incrociando le dita e impegni permettendo). Intanto, se vi fa piacere essere in qualche modo di aiuto, quello che potete fare è diffondere la notizia sui social on- e off-line per dare maggiore visibilità al libro. Per tutto il resto, mi trovate sempre qua.

Grazie di tutto il vostro appoggio in questi anni e a presto!

mercoledì 14 novembre 2018

Poscritto personale. Panda, ricordi e riflessioni (ma soprattutto panda)

Un filatelico panda d'antan. Fonte: Wikipedia

Galeotto fu il post fresco di stampa su Lorologiaio miope. Spronato dalla lettura di questo pezzo, ritorno al mio post precedente per raccontare in breve quello che è avvenuto dietro le quinte. Perché se è vero che mi interessava esplorare l’aspetto cognitivo e storico della divulgazione scientifica al tempo di YouTube, è altrettanto vero che avevo delle motivazioni personali per affrontare quel tipo di discorso proprio ora.

---
Qualche mese fa, nel mezzo di una discussione tra amici e colleghi su uno dei maggiori social media, mi sono ritrovato a notare criticamente che un dato prodotto audiovisivo, consigliato con eguale ironia e convinzione da un noto divulgatore scientifico, non potesse essere ritenuto un buon esempio di divulgazione scientifica. Si trattava di un video accattivante per il prosumatore medio, ma scientificamente impreciso e caratterizzato da un linguaggio scurrile, incentrato sulla frustrante politica di riproduzione dei panda sia in cattività sia allo stato brado.
Il video rilevava che, se proprio tutti questi interventi di conservazione stanno fallendo, è perché «meritano di estinguersi» [sic] dato che i panda «non vogliono scop**e!» [sic]. «Darwin!», continuava l’autore del video rivolgendosi a metà tra il serio e il faceto all'evoluzionista di Shrewsbury, «Hai sbagliato! Ma io mi fidavo di te!» [sic]. Il tono era ovviamente divertito e superficiale, ma il video presentava inoltre tutta una serie di mancati approfondimenti (perché Darwin avrebbe sbagliato? Forse perché l’evoluzione tende al miglioramento progressivo mentre i panda sono e restano stupidi e ottusi? I lettori di questo blog sanno già perché quest’idea è sbagliata), di imprecisioni (l’evoluzione non tende ad alcun miglioramento), di confusioni tra individuo e taxa (non è l’individuo che evolve o che si estingue volendolo!). Il video ricorreva inoltre a un linguaggio antropomorfizzante nei confronti dei panda e delle loro azioni che, per quanto diretto a sortire un’immedesimazione e una fruizione immediata da parte degli utenti, non faceva distinzioni di sorta tra ambiente antropogenico, cattività, stato brado, tempo profondo dell’evoluzione, ecc. 

Sulla discussione social, il video è stato salutato da persone con competenze scientifiche (benché non strettamente zoologiche o evoluzionistiche) come un «esempio da studiare e decostruire» per imparare come funziona l’edutainment. Posizione lecita, ma basata sull’esempio di un video molto discutibile. Perché non cercare un altro video? Perché questo video era hot in quanto a visualizzazioni e occorreva indagare il trend per impararne i segreti della comunicazione che «arriva alla gente». I motivi per cui questa idea è una fallacia logica li ho già spiegati nel post precedente. Quello che qui mi preme raccontare è che la discussione, alimentata dagli interventi di una nutrita schiera accorsa dalle decine di migliaia di followers della pagina social, è stata aizzata dai like e dai commenti del gestore della pagina, i quali hanno dato vita a una tifoseria sostenuta dal bias di conferma e di popolarità. Di conseguenza i toni di tutti si sono scaldati, passando rapidamente dall’ironia al sarcasmo all’insulto e, tra il fuoco amico che ha colpito indifferentemente colleghi e amici, è venuto fuori chiaramente quanto le giustificazioni di settore riguardo all’uso “corretto” dell’edutainment prosumeristico poggiasse su basi epistemologiche e comunicative assai fragili. Intanto, tra i followers accorsi a commentare c’era già chi confermava divertito, sì, i panda sono davvero stupidi!

A quel punto non restava molto da fare.
Cercavo di spiegare; ero un trombone elitario, un «professore», uno perso nella sua torre d’avorio che non sa o che non vuole comunicare alla gente (nonostante questo blog!) e dovevo squindi tare zitto perché le mie spiegazioni non avevano comunque valore (la mia opinione valeva quanto quella di chiunque altro - secondo gli stranoti dettami postmodernisti).
Cercavo di fare notare perché il video fosse un cattivo esempio e che non c’era nulla di valido da imparare; mi sentivo rispondere che tanto «era un esempio delle balle», cambiando così le regole del confronto e evitando il confronto epistemologico.
Ho spiegato che quel video insegue, come molto edutainment su Youtube, il sensazionalismo, il nozionismo fine a se stesso, i bias intuitivi (in questo caso, ortogenesi, teleologia, antropomorfismo ed essenzialismo) e il perturbante controintuitivo (i panda vogliono estinguersi! Non vogliono scop**re!); mi hanno accusato di oscurantismo intellettuale.
Ho scritto che lodare quel video (girato da un chimico senza particolari conoscenze di zoologia - fino a prova contraria) semplicemente perché «arriva alla gente» [sic] senza indagare i motivi dietro la ricezione di quel prodotto era l’equivalente del lodare un ipotetico video sulla presunta memoria omeopatica dell’acqua o del lodare un video sull’etere perché spiega bene la fisica dell’atmosfera; sono stato pesantemente delegittimato.
Al termine di tutto ciò si era tornati al solito, vecchio schema “scienza dura” (chimica e fisica) contro “scienza soft” (scienze sociali e biologia): il divulgatore e gestore della pagina, stufo delle critiche al video da lui postato, si è lanciato in un icastico: «che poi a uno gli viene da dire “Ma ca**o, ma ve lo meritate che nessuno si fila la divulgazione sull’evoluzione!”». E questo dopo aver spiegato e linkato l’eloquente e fondamentale articolo di Dobzhansky dal titolo “Nothing in Biology Makes Sense Except in the Light of Evolution”. Non restava che issare bandiera bianca e abbandonare la discussione. 

Con il senno di poi (per quel che vale) posso dire questo.
Quel giorno ho sbagliato approccio e tono, entrambi troppo diretti, ansiosi e affrettati. Ho avuto timore di tutta quella gente accorsa a deridere e pronta ad attaccare, mi sono sentito accerchiato e con il fiato sul collo. E per questo alla fine sono scappato via, tra rimorsi e rimpianti. In parte, il post che ho pubblicato vuole offrire la riflessione che lasciai incompiuta allora sui social, e dimostra nello stesso tempo che una spiegazione seria e articolata non può trovare posto sui social media.
Quel giorno, chi sosteneva la scelta del video sui panda come esempio vincente da copiare e da seguire, ha sicuramente sbagliato approccio e tono, crassi e limitati. E ha dimostrato una visione della scienza altrettanto crassa e limitata.
Quel giorno ho anche capito che inseguire quel tipo di divulgazione prosumeristica è un gioco controproducente per la scienza stessa – e per la società intera. I social media sono un campo di battaglia e di consumo fine a se stesso (come notava giustamente Lisa Signorile qui) e non un’utopia bucolica di conoscenza condivisa per arrivare alla gente.
Ma l’aspetto che più mi addolora è che quel giorno chi è accorso a frotte su quella pagina per assistere al confronto o per curiosità ha visto confermato il leitmotiv postmoderno della comunità scientifica incapace di mettersi d’accordo persino sulle piccole cose.
Da qualunque parte la si voglia guardare e giudicare, quel giorno abbiamo perso tutti, e se c’è una morale è che c’è ancora tanta (troppa) strada da fare perché si possa davvero parlare di divulgazione – ed educazione – scientifica in Italia.

venerdì 26 ottobre 2018

La divulgazione scientifica al tempo del prosumatore

Alberto Angela, paleontologo di formazione e divulgatore vecchio stile e senza compromessi. Celebrato sui social media per il suo fascino e per la sue abilità nel "divulgare forte" in  un numero spropositato di memi, i quali hanno ispirato magliette e cosplayer (il meme con Cartesio è imbattibile: "Penso, quindi sono. / Divulgo forte, quindi levati").
Fonte: Google

«Attenzione nell’informarsi. Per lo più si vive d’informazione; il meno è quello che vediamo; viviamo sopra l’altrui fede […] Necessaria è la più fina attenzione in questo punto per iscuoprire la intenzione di colui che è di mezzo, investigando, avanti che parli, di che piede si mosse ad informare. Sia la riflessione quella che faccia paragone dell'oro vero dal falso, e rivegga i pesi e le misure».

Baltasar Gracián y Morales, aforisma n. 79 (1647), dalla traduzione italiana di Vincenzo Giovanni De Lastanosa intitolata Oracolo Manuale e Arte di Prudenza, Venezia, 1690.

Ipsa scientia potestas est


Che cos’è che rende efficace la divulgazione scientifica? Dove si può tirare una linea di demarcazione e dire questo prodotto non è divulgazione, mentre quest’altro lo è? Che cos’è che rende un prodotto divulgativo un buon servizio divulgativo, e che cosa lo differenzia da un “cattivo” esempio di divulgazione? Quale impatto hanno avuto la Rete e i social network sulla qualità della divulgazione? 

La questione è molto più complicata e ambigua di quanto si possa pensare, e l’etimologia del termine – primo possibile argine alla nostra confusione – non ci aiuta molto. Divulgare, come leggiamo sul sito della Treccani, ha due accezioni principali. La prima ci informa che divulgare equivale a «Rendere noto a tutti o a molti, diffondere»; la seconda ci suggerisce come significato quello di «Rendere accessibili a un più vasto pubblico, per mezzo di un’esposizione semplice e piana, nozioni scientifiche e tecniche» [1]. Sono due accezioni fortemente in contrasto, perché se la prima stabilisce un livello di accettabilità minimo potenzialmente slegato dalla tipologia (e dalla qualità) dei contenuti, la seconda reca con sé la necessità di conoscere mezzi, metodi e teorie in modo approfondito per saperli poi divulgare, ossia diffondere

Il presupposto banale di ogni divulgazione fatta come si deve è che dietro alla voglia di diffondere ci sia anche la volontà di contribuire ad aumentare le conoscenze per il bene comune. Il sapere è infatti la pietra di volta di ogni miglioramento sociale e individuale. Se so come accendere un fuoco, cucinerò meglio e scalderò la mia famiglia. Se conosco la storia posso imparare ad evitare gli errori già commessi nel passato. Se so che cos’è il tempo profondo dell’evoluzione riuscirò a liberarmi di preconcetti razziali antiquati e a essere – si spera – un individuo moralmente migliore.

Ipsa scientia potestas est: la conoscenza in sé è potere, secondo il motto coniato dal filosofo inglese Francis Bacon nel 1597. Bacon sottintendeva almeno tre accezioni dietro a questa frase:
  1. l’accumulo di conoscenze verificate risultante dallo studio sperimentale che serve per migliorare le condizioni di vita;
  2. coloro che possiedono conoscenze pratiche sulla base del punto (1) sono in una posizione privilegiata per occupare cariche pubbliche e posizioni politiche di rilievo rispetto a chi le detiene o le eredita perché nobile di nascita;
  3. questo sapere può esser organizzato ed utilizzato per implementare una tecnologia del sapere, ossia una serie di processi cognitivi, strumenti sociali, pratiche, e discorsi volti a irreggimentare una disciplina della ricerca non aliena a scopi e motivazioni di carattere politico – in ottemperanza a quanto stabilito dal punto (1) [2].
Fin qui, tutto normale. Al tempo di Bacon si trattava di giustificare l’investimento e la mobilitazione di capitali intellettuali e politici allo scopo di istituire le fondamenta di un’organizzazione scientifica capillare ancora di là da venire. Sto ovviamente tagliando il discorso storiografico con l’accetta, ma il discorso resta valido anche oggi. Se dobbiamo decidere come smaltire scorie radioattive, come affrontare in modo efficace il riscaldamento globale o come gestire i gruppi che fanno pressione perché si elimini l’insegnamento della biologia evoluzionistica dalle scuole dell’obbligo si spera che i decisori politici abbiano conoscenze approfondite in merito a ingegneria nucleare, climatologia e  storia della scienza o genetica (o per lo meno, si spera che abbiano saputo circondarsi di consiglieri capaci). Cosa che però, al tempo della post-verità, del negazionismo climatico e di cospirazionismi vari, evidentemente non è [3].

Non è un caso che il terzo punto della relazione tra potere e sapere, quello più strettamente legato all’esercizio pratico del potere, si sia prestato agli affondi poststrutturalisti di studiosi come Michel Foucault e Pierre Bourdieu, i quali hanno passato al setaccio le negoziazioni e i rapporti di potere tra classi sociali e individui, tra subordinati e dominanti, per svelare i modi in cui i discorsi e le pratiche che rappresentano il guscio esterno del “sapere” possono contribuire a influenzare, indirizzare, manipolare e distorcere la ricerca stessa e l’applicazione dei suoi risultati per convenienze politiche e sociali [4]. Un esempio storico? L’accettazione del lysenkoismo come genetica di stato nell’Unione Sovietica fu motivato non tanto dai risultati sperimentali (deludenti e fallimentari) ma dalla sua adozione all’interno di una tecnologia sociale del sapere (in termini filosofici, una tecnologia scissa dall’epistemologia) volta a contrapporsi a priori e per motivi ideologici alla genetica “occidentale”, ritenuta macchiata da compromessi borghesi e capitalistici. Il risultato fu triplice: 
  • la sostanziale marginalizzazione dell’ambito di ricerca nell’URSS;
  • lo smantellamento della biologia sperimentale russa tramite licenziamento o reclusione dei ricercatori;
  • l’esodo di genetisti russi all’estero (che decisero di non tornare più, come fece Theodosius Dobhzansky). 
Il lysenkoismo diventò un’arma della propaganda interna la quale adottò, diffuse e divulgò questa dottrina per sostenere l’agricoltura russa in un momento difficile. Di esempi simili ce ne sono tanti per ogni epoca e per ogni latitudine (le manipolazioni nazifasciste dei discorsi e delle pratiche scientifiche in epoca interbellica furono ancora più aberranti), ma tanto basti per ricordarci banalmente che le idee e la loro diffusione non sono innocue ma hanno conseguenze tangibili sul reale [5].

Un cervello dell’età della pietra


Possiamo quindi capire che divulgare non può e non deve essere considerato come cosa buona di per sé. I ciarlatani possono divulgare in modo efficace e convincente. E, purtroppo, abilissimi ricercatori possono essere carenti dal punto di vista delle doti comunicative. Quando chi sa viene marginalizzato  o delegittimato per motivi di convenienza, non è raro che si diffondano con maggiore efficacia le voci dei ciarlatani. Ricordo l'esempio recente del parlamentare ed ex ministro conservatore inglese Michael Gove il quale, durante la campagna per il referendum del Regno Unito sul mantenimento dell'adesione all’Unione Europea, commentò di averne “avuto abbastanza degli esperti”. Come il caso del lysenkoismo insegna, e come la storia sociale della scienza ha ribadito fino allo sfinimento, possono esistere pressioni sociali dietro alla ricerca, all’imposizione o al silenziamento del sapere, e queste pressioni sociali si traducono nella creazione di un ambiente nel quale le idee competono e si diffondono sulla base della loro forza persuasiva. In breve, l’utilità ideologica e la spendibilità politica prendono il sopravvento sulla conoscenza sperimentale in senso lato – ossia sul sapere dotato della dovuta garanzia di affidabilità o di replicabilità a seconda del tipo di scienza coinvolto.

Ma se vengono meno i paletti di valutazione propriamente scientifici, come si fa a giudicare? In questo caso, si giudica o sulla base dell’aderenza ad un progetto ideologico (come l’esempio del lysenkoismo dimostra) e/o sulla base del grado di apprezzamento e di accettabilità intuitivi rispetto al contenuto divulgato. In altre parole, entrano in ballo i bias cognitivi e le fallacie logiche, ossia quella serie di scorciatoie razionali che sono il frutto dell’evoluzione di Homo sapiens (i bias) e della sua organizzazione socio-culturale (le fallacie). Questi accessori computazionali sono condizione necessaria ma non sufficiente per capire il mondo e il suo funzionamento: necessaria perché fanno parte del pacchetto cognitivo e sensoriale “chiavi in mano” del quale siamo dotati dalla nascita; non sufficiente perché sono il risultato di intuizioni rapidissime e utili nel passato profondo ma potenzialmente inaffidabili sul funzionamento del mondo. Fare affidamento su queste intuizioni “di pancia” nel mondo ultrasociale e ipertecnologizzato di oggi equivale a un suicidio intellettuale [6]. Siamo primati evoluti per gestire un mondo fatto di un nucleo esteso di familiari e conoscenze di 150 individui al massimo, un mondo nel quale se sentiamo del brusio tra le siepi potrebbe esserci un predatore nascosto pronto a farci la pelle, un mondo nel quale la comunicazione è quella che avviene a voce – e stop. Se i bias e le intuizioni sono utili è perché hanno permesso ai nostri antenati di sopravvivere in quelle determinate condizioni – e stop. Non servivano capacità cognitive peculiari per gestire il sovraccarico cognitivo di informazioni quotidiane o le migliaia di followers sui social media, perché il volume della rete sociale e di informazioni condivise nell’arco della vita intera di un nostro lontano antenato paleolitico starebbe tranquillamente su un quaderno A4 o su un floppy disk. Eppure, nonostante la stupefacente tecnologia computazionale racchiusa nella nostra CPU cognitiva sia stata costantemente ri-sistemata dal bricolage evolutivo, alla base c’è ancora la struttura portante di quel lontano sistema operativo paleolitico. Con tutti i suoi limiti e i suoi bias che ci portiamo dietro. Faccio tre esempi banali.
  • Ci sembra ovvio che sia il Sole a sorgere, e continuerà a sembrarci così anche se sappiamo che è la Terra a girare intorno al Sole e persino se vinciamo un Nobel. Non ci siamo evoluti per volare nello spazio e vedere la Terra dall’alto.

Earthrise, 24 dicembre 1968. missione Apollo 8. Fonte: NASA, immagine di dominio pubblico; da Wikipedia.

  • Ci sembra ovvio che il primo segmento dall'alto dell’immagine qui sotto sia più lungo del  secondo segmento, e continuerà a sembrarci così anche dopo aver misurato entrambi i segmenti e aver appurato che in realtà sono della stessa misura. Non ci siamo evoluti per discriminare le illusioni ottiche e il nostro sistema di percezione visiva è a malapena sufficiente. 


Illusione di Müller-Lyer. Fonte: Wikipedia.

  • Ci sembra ovvio che gli animali non stiano evolvendo a occhio nudo nell’arco dei decenni della vostra esistenza su questa Terra, e nel leggere testi antichi o nel vedere statue e dipinti potremmo pensare che non si siano mai evoluti. Non ci siamo evoluti per vedere le mutazioni microscopiche che agiscono nel DNA, nei microbi e nei microrganismi nel giro di ore o giorni.[7] 

Attenti al cane! Certe cose, a quanto pare, non cambiano mai... Fonte: Wikipedia

Per farla breve, non ci siamo evoluti allo scopo di fare proprio un bel niente – tutto le nostre capacità fisiche e mentali sono il frutto di processi selettivi privi di scopo che hanno filtrato quelle caratteristiche sufficientemente buone da permettere la sopravvivenza e la riproduzione dei nostri antenati lungo la storia profonda dell’evoluzione sulla Terra. Sopravvivenza fino alla riproduzione – e stop. Se davvero vogliamo individuare una qualche peculiarità è quella di aver ereditato una nicchia cognitiva specifica che ha permesso lo sfruttamento cumulativo e intergenerazionale del surplus computazionale del nostro sistema nervoso centrale per accumulare conoscenze di ogni tipo, dalle tecniche di caccia agli alberi storico-genealogici per tenere conto di alleati e nemici, fino ad arrivare ai memi di Alberto Angela che “divulga forte” sulla Rete [8]. Va da sé che questo sistema computazionale e cognitivo è ben lungi dall’essere perfetto: i pregiudizi e le fallacie lo dimostrano.

Ora, le culture umane sono il risultato dell’interazione continua e sostenuta di più sistemi centrali nervosi individuale connessi in una rete sociale. Per insistere sulla nostra metafora informatica, questi PC sono sì collegati in rete (la cultura), ma sono di seconda mano (evoluti) e con tutti i loro software preinstallati, vecchi, in prova, incompleti, “craccati” e in conflitto tra di loro (i bias). Non stupiamoci allora se anche le culture umane (e la nostra non fa eccezione) sono spesso afflitte da pregiudizi di ogni tipo. Eppure, un argine a questi pregiudizi lo si può trovare proprio in quell’accumulo di sapere che è il frutto della nostra nicchia cognitiva  – se, e solo se, vincolato a tecniche e metodi logici e razionali. Ricordiamocelo: anche i ciarlatani possono divulgare in modo efficace, sfruttando proprio gli stessi strumenti della cassetta degli attrezzi cognitivi che ha permesso di costruire la nostra nicchia cognitiva. Il sapere può contenere i biases e correggere le fallacie se, e solo se, questo viene vincolato a tecniche e metodi logici e razionali. Per tale motivo, lottare contro questi processi cognitivi suggestivi e accattivanti costa molta fatica intellettuale e impegna decenni di alfabetizzazione scientifica e umanistica. Il geocentrismo è stato falsificato, le illusioni ottiche dimostrano il peso dei vincoli evolutivi nella percezione dinamica dell’ambiente ecologico e la stupefacente prospettiva aperta dal tempo profondo è stata dischiusa con sforzi immani dalle geologia. Il problema sta nel fatto che solamente un livello sufficiente di formazione intellettuale può ovviare alla proliferazione incontrollata di queste trappole seducenti e intuitive – anzi, seducenti perché intuitive. E perché ciò avvenga, è necessario che ci siano istituzioni capaci di fare buona divulgazione, ossia, in primo luogo, la scuola e l’università.


L'illusione di Müller-Lyer è un artefatto culturale: in ambienti reali e tridimensionali è un indice affidabile di profondità. Esistono altre spiegazioni ecologico-evolutive che contribuiscono a spiegare questa e altre illusioni, ma la sostanza è la stessa: il nostro sistema percettivo può essere 'fregato' da indizi sensoriali sconnessi dall'input ecologico primario. Questo vale per tutti i domini percettivo-sensoriali: pensate ai dolcificanti che mimano l'effetto dello zucchero. Da Wikipedia.


I vizi del prosumatore


Grazie alla nostra nicchia cognitiva e al sistema di accumulo culturale a denti d’arresto, l’evoluzione culturale viaggia più velocemente dell’evoluzione biologica. Per questo c’è sempre uno scarto tra le due, con l’evoluzione biologica a segnare il passo. In questo senso, la globalizzazione, la commercializzazione di massa dei personal computer e la diffusione di connessioni Internet rapide e a buon mercato hanno segnato uno spartiacque di dimensioni ciclopiche: ogni prodotto audiovisivo e letterario creato da Homo sapiens è potenzialmente catalogato (o catalogabile), disponibile e a portata di clic. Questa sovrabbondanza di informazione disponibile ovunque, per chiunque e in tempo reale ha modificato pesantemente sia il sistema sociale sia quello economico. In breve, la divulgazione non ha fatto altro che seguire o adeguarsi alla trasformazione generale della cultura di massa, all’interno della quale si sono imposti i cosiddetti “prosumer”, o prosumatori. Per prosumatore si intende un agente a metà tra produttore/professionista e consumatore, anzi, un «consumatore che è a sua volta produttore o, nell’atto stesso che consuma, contribuisce alla produzione» [9]. Il prosumatore produce e diffonde più o meno gratuitamente contenuti sulle stesse piattaforme digitali adibite al consumo di informazioni. L’attuale nicchia culturale dei prosumatori è quello dei social media in genere, e in particolare quella dei podcast da scaricare e dei canali su Youtube, la nota piattaforma per la condivisione di clip audiovisive. Due fattori concomitanti e legati tra di loro hanno causato questo rapidissimo avvicendamento: 
  1. l’esplosione dei social network, i quali – a partire dall’introduzione dell’iPhone di Apple nel 2007 – hanno gradualmente depauperato le funzioni dei blog rendendoli obsoleti (le interazioni e la fidelizzazione dei followers non avvengono più su Blogger o Wordpress, ma hanno luogo soprattutto su Twitter, su Facebook, su Instagram e sulla sezione commenti di Youtube); 
  2. la diffusione a macchia d’olio degli smartphone i quali hanno reso possibile la creazione e la fruizione di contenuti audio-video di buona qualità ovunque e in ogni istante: nel 2016 i social media contavano 2,3 miliardi di utenti e, di questi, 1,9 erano connessi grazie alle app sul cellulare [10]
In pratica, l’esistenza di prodotti relativamente economici ha creato un bacino smisurato di prosumatori dotati di account e di profili sui maggiori social media, un bacino che coincide virtualmente con quello dei possessori di mezzi tecnologici sufficientemente adeguati. Questo si traduce nella coesistenza di produzione e consumo da parte di tutti i possessori di smartphone e nella trasformazione dei social media in fonte di contenuti informativi/divulgativi creati dai consumatori stessi. Questa massa enorme di prosumatori crea un ambiente altamente competitivo all’interno del quale vigono criteri che non sono quelli che dovrebbero garantire una corretta informazione (scientifica e non). Dato che viene a mancare un controllo fattuale dell’informazione, questi criteri coincidono piuttosto con i bias cognitivi e con le fallacie logiche e che qui appaiono distribuiti su tre livelli che interagiscono continuamente creando dinamiche specifiche: 
  • individuale: i bias logici ed emotivi che caratterizzano la computazione mentale (ossia, appello alle emozioni, bias di conferma, ecc.);
  • sociale: le dinamiche di gruppo (accettazione di contenuti sulla base del conformismo, del presunto prestigio della fonte, della presunta autorevolezza della fonte, ecc.);
  • tecnologico: i bias presenti negli algoritmi che selezionano automaticamente i contenuti sulla base della preferenze di navigazione, ritagliandoli su misura per ogni prosumatore (ovviamente, i bias non appartengono alle “macchine”, ma ai programmatori che hanno implementato questi programmi) [11] 
Un contenuto può quindi diventare “virale”, ossia diffondersi in modo capillare, come risultato dell’interazione di questi tre livelli. Come ci insegna la network theory, la popolarità, l’adozione (il fatto di “postare” su un profilo) e la condivisione attiva (scrivendone) di certi contenuti da parte di agenti (o influencer) capaci di influenzare a cascata i nodi che compongono la rete di relazioni diventa a sua volta un traino – e un bias. Se Gwineth Paltrow decide di sponsorizzare sulla sua piattaforma commerciale adesivi cutanei capaci di “ribilanciare la frequenza energetica del proprio corpo” [sic!], utenti che non avrebbero mai pensato a questo tipo di prodotto possono subire l’influenza e il prestigio della star in questione e acquistare un pezzo di nastro adesivo che non serve assolutamente a nulla [12]. Infine, l’ambiente dei social media tende ad autoriprodursi, auto-organizzarsi e auto-citarsi, emulando schemi e nozioni riconoscibili perché hanno avuto successo (o semplicemente perché questi schemi sono arrivati prima, imponendosi come vincolo comunicativo), e questo crea un’omogeneizzazione delle fonti (e una bolla conscitiva) che incide negativamente sul livello di approfondimento: nella stragrande maggioranza dei casi, per fare divulgazione in un video si tende a citare e a linkare un video di un altro canale Youtube e non un articolo su JStor o JAMA [13]

Ora, per la sola forza dei numeri, il numero di prosumatori diluisce l’efficacia degli agenti possessori di sapere epistemicamente giustificato nel contenere la diffusione di contenuti che non raggiungono un livello minimo di accettabilità scientifica o di affidabilità informativa. Da qui la diffusione delle cosiddette fake news e della pseudoscienza cospirazionista e negazionista che infesta la Rete. Tirando le somme fino a questo punto, l’ipotesi è che sui social media, su Youtube e sulle piattaforme ad esso collegate il volume di contenuti volti a «Rendere noto a tutti o a molti, diffondere» sia di gran lunga maggiore rispetto ai contenuti diretti a «Rendere accessibili a un più vasto pubblico, per mezzo di un’esposizione semplice e piana, nozioni scientifiche e tecniche». [14]

All’interno dell’ambiente concettuale creato dalle utenze connesse via smartphone, le conoscenze scientifiche, onerose da acquisire e lente da apprendere, e pertanto possedute da una minoranza di utenti, sono state schiacciate dal numero stupefacente di prosumatori estranei al mondo scientifico. Questi ultimi sono però interessati all’accumulo del capitale sociale ottenibile grazie al prestigio della scienza, e consumando/producendo contenuti che si caratterizzano in linea di massima come materiale di intrattenimento estemporaneo creano una nicchia prontamente occupata da bias e fallacie. Mancando i presupposti conoscitivi del sapere accumulato, non c’è garanzia che i loro prodotti siano affidabili [14bis]. Se a ciò aggiungiamo che quello dello youtuber prosumatore è diventato un mestiere retribuito sulla base di una partnership aziendale (sancita a sua volta dal raggiungimento di un certo numero di followers – una spinta dal “basso”), non è difficile capire come la produzione di materiale di consumo social possa diventare la molla e il motivo fondamentale per incontrare e assecondare i bias innati del pubblico – rinunciando così alla missione educativa su lungo termine.

In breve, la conseguenza di maggior rilievo per la divulgazione scientifica è 
la creazione di una nicchia cognitivamente ottimale (ossia sufficientemente intuitiva – immediata e capace di catturare l’attenzione – ma non sufficientemente scientifica – cioè lenta e che si acquisisce sulla base di un accumulo di conoscenze), che prevede la creazione/consumo di materiale facilmente assimilabile, capace di venire incontro ai bias e alle fallacie logiche comuni e che si presenta come aderente alla seconda accezione della definizione di Treccani riportata all’inizio del post ma che, in buona o cattiva fede, ricade nella prima. 

Purché se ne parli


Si legge sempre meno in Italia, lo sappiamo [15]. Questo processo, incoraggiato da decenni di strapotere televisivo e di disimpegno culturale cavalcato a spron battuto dalla società e dai decisori politici (una fase che in qualche modo preannunciava la post-verità di oggi), ha avuto un impatto sia sulla divulgazione “vecchio stile” (quella alla Carl Sagan e alla Piero Angela, per intenderci) sia su chi ha abbracciato nel frattempo la “terza cultura” alla Brockman, ossia la produzione di materiale divulgativo per mano dei ricercatori e degli scienziati stessi. Entrambe le tipologie di divulgazione abbracciano idealmente uno standard di divulgazione lento e cumulativo, prediligendo pacchetti divulgativi chiusi capaci di «Rendere accessibili a un più vasto pubblico, per mezzo di un’esposizione semplice e piana, nozioni scientifiche e tecniche». 

La concorrenza con le nuove tecnologie, la dipendenza digitale delle nuove generazioni, e i tagli ai fondi destinati alle infrastrutture istituzionali per la creazione di prodotti di qualità, hanno fatto sì che alcune delle caratteristiche basilari del modello prosumeristico si siano imposte graudalmente come nuovo standard per la realizzazione della divulgazione. In questo modo hanno preso piede un nozionismo spettacolare o immagini stupefacenti. Si confronti il Cosmos di Sagan con quello più recente di Neil DeGrasse Tyson, o un qualunque documentario sulla paleontologia degli anni ’80 e uno di oggi. Forse l’esempio più rappresentativo di questo processo è l'acquisizione del National Geographic da parte della Fox di Rupert Murdock, che ha trasformato nel giro di pochi anni il venerabile mensile, alfiere della migliore divulgazione scientifica a tutto tondo, in un brand-piattaforma dedicato all’infotainment sensazionalistico [15bis]

Trova l'intruso...
Fonte: fotografia scattata dall'autore (CC-BY-NC-ND 3.0)

Gli scienziati interessati alla divulgazione (e spronati dall’accademia per fare outreach ed essere visibili sulla scena culturale, pena la rinuncia a fondi sempre più risicati) si sono così dovuti reinventare prosumatori per evitare l’emarginazione culturale, andando incontro al livello di bias e di fallacie coltivato nei social. Nello stesso tempo, la competizione ha creato altresì un ceto digitale di influencer/prosumatori che non dispongono di particolari nozioni nel campo scientifico del quale si occupano, ma che rispondono ai livelli di conoscenza e di attese contenutistiche dell’utenza digitale. Ancora, se la divulgazione classica guidava l’apprendimento secondo uno schema chiuso di accumulo di conoscenze, i format di YouTube e deipodcast non prevedono mai questo palinsesto di lunga durata, preferendo sfruttare un sistema aperto all'interno del quale i temi sono estemporanei e le interviste forniscono spunti per eventuali discussioni, inseguendo l’hot topic del momento per poi abbandonarlo subito dopo. Arrivati a quest’ultimo punto, i problemi sono due:
  1. l’utenza digitale che segue i maggiori siti e account social dedicati alla scienza riceve un’informazione schiacciata pesantemente sulla “spendibilità” pratica e immediata della notizia, a sua volta vincolata dai bias di cui sopra: le fotografie e le illustrazioni e le infografiche vincono sui contenuti, ricordandoci ancora una volta che siamo animali sociali sostanzialmente visivi; i consigli pratici, i consigli sulla salute, e gli appelli estemporanei all’azione concreta o alla solidarietà (esulando spesso dalla scienza in senso stretto) vincono sull’approfondimento e sulla precisione; il nozionismo rapido, slegato da contenuti complessi, è più ficcante degli approfondimenti e delle riflessioni puntuali; e così via [16];
  2. la divulgazione stessa – anche quando fatta bene – soffre delle limitazioni dovute al mezzo stesso di divulgazione: la diffusione e il trasferimento di contenuti culturali e scientifici al di fuori dell’ambiente di origine (ossia l’accademia e il network esteso degli studiosi) comporta un effetto imbuto che da un lato semplifica con successo concetti complicati per veicolarli in modo efficace, ma dall’altro prepara il contenuto trasferito a un arricchimento semantico  che si basa – e qui casca l’asino – sui bias innati di cui parlavamo all’inizio. In altre parole, il concetto semplificato e divulgato viene re-installato all’interno di un contesto dominato da riferimenti socio-cognitivi profondamente differenti, e lì viene addobbato, per così dire, di connotazioni del tutto estranee al concetto stesso. Metafore e concetti minimamente controintuitivi, sfruttati per la loro memorabilità e presa cognitiva ottimale (il gatto di Schrödinger e il collo della giraffa lamarckiana sono un esempio lampante), vengono recepiti e miscelati tra di loro (del tipo, “evoluzione quantistica”) per rientrare come carne da cannone della cultura popolare (film, serie TV, programmi televisivi, riviste di informazione, quotidiani, ecc.), della post-verità, del cospirazionismo e della pseudoscienza esoterica [17]. In pratica, si passa dal gatto di Schrödinger a Deepak Chopra e a Lost senza soluzione di continuità. In buona sostanza, è questa scienza-non-scienza che diventa la fonte principale di conoscenza del pubblico. Ed è per questo che occorre essere quanto più precisi possibile quando si fa divulgazione.

Lo schema più importante di tutto il post, incentrato sull'inevitabile dramma della scorrettezza scientifica: per divulgare efficacemente si deve scendere a patti con bias e fallacie,  ma questo scivolamento comporta il fraintendimento dei contenuti veicolati. Solo un programma a lungo termine di alfabetizzazione scientifica, logico-razionale e culturale può ovviare a queste distorsioni.  Questo programma ci sarebbe già: si chiama "scuola".
Fonte: opera dello scrivente, adattata e modificata da Asprem 2016 (vedi bibliografia) (CC-BY-NC-ND 3.0)


Divulgazione 2.0 tra postmodernismo e post-verità



In conclusione, è più probabile che il movente di un contenuto divulgato online sia meramente quello di essere presenti e di “diffondere” un contenuto, e non il contenuto scientificamente corretto ci si apsetterebbe. Questo contenuto si piega spesso al bisogno di attirare l’attenzione: basta che se ne parli se il trend è hot in quel momento, e se non lo è occorre trovare il modo per renderlo tale. Spesso si cavalca un nozionismo ridanciano che si basa sull’inaspettato, sul “perturbante” (quello che Freud chiamava Unheimlich) e su tutti i mezzi cognitivi per attirare l’attenzione in un mondo digitale dove l’attenzione è il bene più elusivo di tutti (non sto qui a ricordare gli effetti reali o presunti degli smartphone e dei social media sulla cognizione umana [17bis]). E il risultato è che per fare divulgazione si finisce invece a creare edutainment, ossia fondere (molto) divertimento con (poco) materiale educativo. Una cosa che non suona neanche tanto minacciosa, ma che declinata sulla base dei bias e delle fallacie logiche, diventa il veicolo per diffondere contenuti veramente “virali” – nel senso di materiali infettivi e dannosi. 

I fatti socio-politici dell’attualità confermano che la distinzione tra informazione semiseria e diffusione/divulgazione non viene riconosciuta dalla maggioranza dei prosumatori: la Brexit, l’elezione di Trump, il sovranismo europeo, le scie chimiche e l’antivaccinismo sono tutti sostenuti da bugie e da un attivo disprezzo nei confronti degli esperti, e convergono tutti in quel punto all’orizzonte che si chiama postmodernismo – e che è anche il punto di fuga umanistico del prosumerismo. Dal alcuni rivoli della filosofia postmoderna nascono:

  • l’abbaglio sociale dello smantellamento del sapere istituzionale (e specialmente quello scientifico) perché ritenuto colpevole dei mali sociali, politici ed economici;
  • la confusione tra ontologia (quello che c’è, la realtà) e l’epistemologia (ossia il sapere che utilizziamo per giungere alla conoscenza della realtà);
  • il pensiero che il reale sia quello che viene ritenuto tale e non quello che è;
  • l’idea che tutte le opinioni abbiano eguale valore scientifico (in senso lato). 
Allora, è normale che astrologia e astronomia possano avere lo stesso identico peso epistemologico – e lo stesso spazio nelle trasmissioni televisive (in Italia) [18]. E così le bugie politiche e i dati economici, il mercurio nei vaccini che causerebbe l’autismo e gli effetti dell’inquinamento come interferente endocrino, il dramma del cambiamento climatico e il negazionismo della Casa Bianca coesistono tutti come se avessero un peso e un valore identici. Tutto coesiste con il suo contrario, uno vale uno – e chi perde in questo gioco è proprio il sapere. Ma allora, senza controllori adeguati, chi controlla e chi gestisce tutto questo marasma? Nessuno. O meglio: tutti i prosumatori stessi, guidati in stragrande maggioranza dai loro bias intutivi, dai gusti locali, dalle mode del momento e dalle loro fallacie logiche. In un mondo digitale nel quale contano le visualizzazioni e gli iscritti, la divulgazione scientifica, ossia lo scioglimento di contenuti complessi in micro-concetti facilmente assimilabili sui quali costruire e consolidare a lungo termine nozioni man mano più complesse, è stata la prima vittima [18bis].

Ma la scuola? – si potrebbe obiettare. Non avrebbe dovuto formare – e vaccinare razionalmente – quelli che sarebbero poi diventati i prosumatori? Purtroppo no. La scuola dell’obbligo e l’università italiane versano in condizioni che, in generale e paragonate a quelle di altri paesi confinanti, non esiterei a definire sull’orlo del disastro [19]. Entrambe scontano decenni di problematiche strutturali lasciate irrisolte. Spetterebbe all’insegnamento scolastico fornire lo standard della divulgazione: lenta, cumulativa, per gradi di complessità crescente, senza semplificare in modo eccessivo ma cercando di veicolare pensieri complessi in modo diretto, progressivo e con calma. Insegnando innanzitutto a giudicare logicamente le informazioni e le nozioni, a valutare le fonti, a sviluppare una critica sensata ed epistemologicamente fondata. Tutto questo non è più un dato di fatto, qualcosa di scontato, e anche quando questo servizio essenziale viene fornito in modo esemplare il sapere immagazzinato deve vedersela con la competizione costante e il bombardamento cognitivo dell’edutainment/infotainment dei social media. Chiaro, si parla di grandi numeri, e non prendo in considerazioni le eccezioni. Ma i trend internazionali forniti dalle istituzioni più affidabili parlano chiaro: c’è una recrudescenza di fragilità conoscitive e di scelte sociali e politiche inadeguate dovute a un venir meno della conoscenza scientifica condivisa. Si è aperto uno squarcio nella struttura sociale, e se non riusciremo a ricucirlo al più presto, tutti, prosumatori e non, ne pagheremo le conseguenze. 


[1] Treccani – Vocabolario on line, s.v. 'divulgare'. http://www.treccani.it/vocabolario/divulgare/

[2] Rodríguez García, J.M. (2001) “Scientia Potestas Est – Knowledge is Power: Francis Bacon to Michel Foucault”. Neohelicon (2001) 28: 109-121. https://doi.org/10.1023/A:1011901104984

[3] D’Ancona, M (2017). Post-Truth: The New War on Truth and How to Fight Back. Londra: Ebury Press. La post-verità, in breve, rappresenta il risultato politico dell’interazione tra i seguenti fattori: (1) l’esistenza di una corrente filosofica di successo (il postmodernismo) per cui “non esistono i fatti, esistono solamente le opinioni”; (2) un’epoca storica caratterizzata da democrazia, liberismo, capitalismo; (3) l’innovazione tecnologica della Rete. Da Ferraris, M. (2017). Postverità e altri enigmi. Roma e Bari: laterza. p. 10.

[4] Cfr. D’Ancona. Post-Truth..., cit., e Ferrari, Postverità e altri enigmi, cit.

[5] Cassata, F. (2008). Le due scienze. Il «caso Lysenko» in Italia. Torino: Bollati Boringhieri.

[6] Kahneman, D. (2012). Pensieri lenti e pensieri veloci. Milano: Mondadori.

[7] Si veda questa serie di post su McCauley, R. N. (2011). Why Religion Is Natural and Science Is Not. Oxford and New York: Oxford University Press; cfr. anche Tooby, J. & Cosmides, L. (1992). “The psychological foundations of culture”. In J. Barkow, L. Cosmides, & J. Tooby (Eds.), The Adapted Mind: Evolutionary Psychology and the Generation of Culture. New York: Oxford University Press; Dunbar, R. (2004). The Human Story. Faber & Faber; Dunbar, R., Barrett, L. & Lycett, J . (2005). Evolutionary Psychology: A Beginner’s Guide. OneWorld: Oxford. Sui limiti cognitivi relativi ai legami sociali si veda “Do Online Social Media Cut through the Constraints That Limit the Size of Offline Social Networks?” di R. Dunbar, in Royal Society Open Science, Vol. 3, Article No. 150292; January 2016 http://rsos.royalsocietypublishing.org/content/3/1/150292

[8] Pinker, S. (2010). “The cognitive niche: Coevolution of intelligence, sociality, and language”. PNAS 107 (Supplement 2) 8993-8999; published ahead of print May 5, 2010 https://doi.org/10.1073/pnas.0914630107

[9] Menduni, E. (2008). s.v. “prosumer”. Enciclopedia della Scienza e della Tecnica. http://www.treccani.it/enciclopedia/prosumer_%28Enciclopedia-della-Scienza-e-della-Tecnica%29/

[10] Biały, Beata (2017). “Social Media—From Social Exchange to Battlefield.” The Cyber Defense Review 2(2): 69-90. https://www.jstor.org/stable/26267344?seq=1#metadata_info_tab_contents

[11] Pigliucci, M & M. Boudry (2014). Philosophy of Pseudoscience: Reocnsidering the Demarcation Problem. Chicago and London: The University of Chicago Press.

[12] Caulfield, T. (2016). Is Gwyneth Paltrow Wrong About Everything? When Celebrity Culture And Science Clash. London: Penguin.

[13] Cianpaglia, G. L. & F. Menczer (2018). “Misinformation and biases infect social media, both intentionally and accidentally”. June 20, 2018, The Conversation, https://theconversation.com/misinformation-and-biases-infect-social-media-both-intentionally-and-accidentally-97148. Basato su Shao C, Hui P-M, Wang L, Jiang X, Flammini A, Menczer F, et al. (2018) Anatomy of an online misinformation network. PLoS ONE 13(4): e0196087. https://doi.org/10.1371/journal.pone.0196087.

[14] Apro qui in nota una digressione storica, chiedendo scusa in anticipo per la semplificazione eccessiva. La tecnologia e l’industria del libro aveva un numero variabile ma consistente di passaggi e di tecniche da padroneggiare prima che un utente potesse passare da consumatore a produttore, agendo  nell'insieme da dissuasore per i più impreparati. Le tecnologie digitali hanno invece azzerato i tempi di attesa sia nella gestione del materiale che nella produzione. Oggi, chiunque può creare prodotti culturali con una veste grafica di buona o persino di eccellente qualità – cosa che una volta spettava solamente alle case editrici migliori, le quali avevano anche accumulato un capitale di rigore scientifico. Quindi, precisione del contenitore (la veste grafica) e del contenuto (le informazioni divulgate all’interno del libro) spesso coincidevano. Le University Presses anglosassoni erano (e sono tuttora) belle da vedere e da sfogliare ma soprattutto affidabili. Oggi questi due elementi sono spesso disgiunti. Anzi, la veste grafica viene attivamente sfruttata online per veicolare informazioni e nozioni false, mentre le piattaforme digitali non controllano i contenuti che i loro utenti postano. Oxford University Press, ad esempio, conduce un rigoroso controllo preliminare dell’autore e del tema trattato prima di pubblicare qualcosa, e sottopone il testo a un controllo paritario a doppio cieco; YouTube e Facebook (almeno fino a prima dello scandalo Cambridge Analytica) non esercitano alcun tipo di controllo. Per riflettere sulle conseguenze socio-politiche si rimanda a Floridi, L. (2015). “The New Grey Power.” Philosophy & Technology 28(3): 329-332. DOI 10.1007/s13347-015-0206-y. https://link.springer.com/article/10.1007/s13347-015-0206-y

[14bis] In effetti, una fetta considerevole di utenza si dedica attivamente a fare contro-propaganda divulgativa di ogni tipo: pseudoscientifica, fondamentalista, razzista, ma sempre e in ogni caso fermamente antiscientifica.


[15bis] Thielman, S. (2015). “How Fox ate National Geographic”. The Guardian, 14 novembre 2015. https://www.theguardian.com/media/2015/nov/14/how-fox-ate-national-geographic

[16] Hitlin, P. (2018). “The Science People See on Social Media”. Pew Research Center. http://www.pewinternet.org/2018/03/21/the-science-people-see-on-social-media/

[17] Asprem, E. (2016). “How Schrödinger’s Cat Became a Zombie: On the Epidemiology of Science-Based Representations in Popular and Religious Contexts”. Method & Theory in the Study of Religion 28(2): 113-140. DOI: 10.1163/15700682-12341373

[17bis] Wilmer, H. H., L. E. Sherman & J. M. Chein (2017). “Smartphones and Cognition: A Review of Research Exploring the Links between Mobile Technology Habits and Cognitive Functioning. Front Psychol. 8 605. Published online 2017 Apr 25. doi:  10.3389/fpsyg.2017.00605. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5403814/

[18] Ferraris, M. (2017). Postverità e altri enigmi. Roma-Bari: Laterza. Su astrologia e astornomia cfr. Pigliucci, M. (2016). “Was Feyerabend Right in Defending Astrology? A Commentary on Kidd.” Social Epistemology Review and Reply Collective 5, no. 5 (2016): 1-6. https://social-epistemology.com/2016/05/02/was-feyerabend-right-in-defending-astrology-a-commentary-on-kidd-massimo-pigliucci/

[18bis] Vale la pena domandarsi: quanto sono affidabili gli iscritti, i follower e le visualizzazioni dei migliori canali/account scientifici come indicatori di avvenuta divulgazione in un mondo liquido come quello della Rete, dove i contenuti e le idee devono competere 24 ore su 24 con altri contenuti potenzialmente simili? Trasmissione e visualizzazione non equivalgono a comprensione e condivisione.

[19] OECD (2018). “Italy: Overview of the Education System”. http://gpseducation.oecd.org/CountryProfile?primaryCountry=ITA&treshold=10&topic=EO

domenica 13 agosto 2017

Darwin Day 2017. Parte III: i tempi profondi del bullismo

Riassunto delle puntate precedenti

Nei primi due post di questa serie dedicata alle radici evolutive e cognitive del bullismo abbiamo cercato di vedere quali potessero essere le cause a monte dei comportamenti bullistici, e ci siamo concentrati su due tesi: quella di Jonathan Gottschall, secondo la quale il bullismo rappresenta un adattamento evolutivo, e quella di Christopher Boehm, la quale prevede una modulazione socio-cognitiva dei comportamenti bullistici basata sul rapporto tra ravvedimento individuale e tolleranza sociale. Nel primo caso avremmo una competizione diretta che premierebbe l’esercizio della forza da parte dei bulli, nel secondo un allargamento delle maglie selettive del gruppo a patto che il free rider dominante si ravveda nel caso in cui questi abbia assunto comportamenti antisociali. Nel caso illustrato da Boehm, il passaggio dei geni del free rider dominante alla generazione successiva garantirebbe una certa variabilità fenotipica all’interno del gruppo.

Entrambe le tesi danno però per scontati alcuni assunti molto importanti. Due di questi sono particolarmente importanti: il bullismo come entità sottoposta a selezione e l’uso della comparazione etnografica per tracciare analogie con un’ipotetica umanità ancestrale. Dopo aver trattato del primo punto qui, in questo post ci occupiamo del secondo punto [1].

«Balle!» Quando etnografia e preistoria (non) vanno d’accordo

Homo erectus, Homo georgicus o Homo erectus georgicus? La tassonomia del genere Homo è un mezzo incubo e cambia a seconda che i paleoantropologi siano lumper o splitter, ossia che tendano a separare o unificare più taxa. Vi lascio i numeri di catalogo di cranio e mandibola: D2700 e D2735, da Dmanisi, Georgia.
Da Wikipedia.

L’elefante nella stanza di entrambi i modelli esplicativi è relativo all’uso di popolazioni di cacciatori-raccoglitori attuali per creare un ipotetico modello ancestrale di comportamenti umani sulla base di ulteriori filtri e paragoni con bonobo e scimpanzé come outgroup e pietra di paragone. Come ha scritto Peter J. Richerson in un illuminante commento pubblicato online, e che ho riportato in un mio articolo pubblicato un anno fa,
«esiste un certo cliché riguardo all’ipotetica “natura umana” che penso sia il caso di lasciarci alle spalle. La gente dirà che siamo stati cacciatori-raccoglitori per [due] milioni di anni e tirerà in ballo i San del Kalahari o i Shoshoni come modello di paragone etnografico. Balle! Qualunque cosa Homo erectus stesse facendo (verosimilmente, cose diverse in posti e tempi diversi) non è ciò che i San o i Shoshoni stavano facendo, magari nemmeno lontanamente. Non c’è dubbio che le cose che essi stavano facendo si stessero allontanando dal comportamento ominine ancestrale e indirizzandosi verso ciò che fanno i cacciatori-raccoglitori, ma la di là della produzione di utensili in pietra possiamo dire molto poco di certo. La documentazione paleoantropologica è molto, molto frustante riguardo alle grandi domande. Alcuni Homo arcaici potrebbero aver “sperimentato” con forme di organizzazione sociale devianti rispetto ad un’estrapolazione diretta a partire da quanto avviene negli scimpanzé e nei cacciatori-raccoglitori. Chi può dirlo?» [2].
La chiarezza del commento di Richerson è esemplare. La questione delle ipotetiche sopravvivenze culturali derivanti da periodi pre- o protostorici sulla base di paragoni etnografici analogici è un argomento storiografico spinosissimo e contestato del quale mi sono occupato in vari articoli accademici e che ho trattato nel mio libro [3]. Troppo spesso il rischio è quello di vedere falsi positivi dove non esiste nulla, prendendo fischi per fiaschi, ossia confondendo reinvenzioni culturali o comportamentali (evoluzione parallela) con potenziali omologie (ossia eredità e continuità da antenato comune) [4]. E tracciare omologie a ricavare scale di valore razziale o nazionalistico è stata una tentazione costante nelle discipline storiografiche del primo Novecento. Ho combattuto per anni – e ancora combatto – contro questa tendenza nella storiografia antica e nella storiografia religionistica, e ho ben presente le fallacie logiche che sono alla base di tali considerazioni [5]

Per questo motivo è straniante e provocatorio al tempo stesso leggere quanto recentemente sostenuto da Adrian Currie: non esisterebbe alcun argomento speciale che possa immunizzare per principio e a priori le discipline storiografiche umane dall’uso dell’analogia (in questo caso etnografica) e dal metodo comparativo così come vengono adottati nelle discipline scientifiche naturali [6]. Il problema comune a tutte le discipline storiche è l’interpretazione, ma la presenza di intenzioni umane, così scrive Currie, non inficerebbe a priori l’applicazione di metodologie analitiche comparative. Bisogna invece valutare caso per caso la sottodeterminazione delle teorie a disposizione, relativa cioè all’assenza di prove (evidential underdetermination) o alla presenza di teorie capaci di fornire rilevanza alle prove disponibili (midrange underdetermination). Nel caso dei resoconti etnografici, spesso non possediamo materiale affidabile al 100% (sottodeterminazione delle prove) e ancora più spesso non possediamo teorie capaci di collegare in modo epistemicamente rigoroso questa documentazione alle società umane ancestrali. Però, è vero altresì che nuove ricerche, nuove scoperte e nuove metodologie di indagine oggi cercano di ovviare alle ingenuità del passato e che esistono teorie capaci di collegare in modo brillante campi apparentemente diversi.

Secondo lo schema proposto da Currie, che mira ad unificare la comparazione tipica del campo biologico ed evoluzionistico con quella di tipo storico-umanistico o antropologico (d’altra parte, si tratta sempre di discipline storiche) [7], abbiamo due equivalenze: da un lato inferenza omologia e analogia etnografica diretta, basate sulla continuità storica dei tratti in esame, e dall’altro l’inferenza omoplastica e analogia etnografica indiretta, fondate invece su un «modello che collega i tratti ad altre caratteristiche (vincolate ad un contesto)» [8]. come ricorda Currie, la validità di questi assunti risiede nella loro capacità di soddisfare determinate condizioni (vedi Tabella 1).


In particolare, «per quanto riguarda le analogie dirette, abbiamo bisogno di conoscere il livello di stabilità della cultura umana [trasmessa attraverso spazio e tempo]. In molti casi, questo non è elevato: data la grande plasticità del comportamento e della cultura umane, temo che spesso le analogie dirette non siano utili» [9]. Apparentemente, il confine invalicabile è costituito dalla robustezza dei tratti ereditati e dalla fedeltà della trasmissione. Biologia 1 – Storiografia e antropologia 0. Tuttavia, come evidenziato da Kim Sterelny, esisterebbero specifiche “nicchie epistemiche” all’interno delle culture umane capaci di una resilienza e una fedeltà di trasmissione tali per cui la condizione di stabilità nell’ereditabilità possa essere soddisfatta [10]. Le analogie indirette, invece, hanno solo bisogno di conoscere le “corrispondenze” tra ambiente e tratti culturali [11]. In entrambi casi l’adagio raccomanda comunque prudenza e sangue freddo.

Tirando le somme. Spoiler: vince la scienza

Forse Currie pecca di ingenuità, forse eccede in presunzione. La documentazione storiografica (come quella paleontologica e parimenti per tutte le discipline che possiedono un archivio consistente di documenti persi nel tempo profondo) è un vero colabrodo. E anche quella etnografica, spesso registrata nei secoli passati secondo protocolli desueti e inaffidabili, lascia spesso a desiderare per qualità e quantità. Ma non tuta la hybris scientifica vien per nuocere. Grazie alla sistematizzazione di Currie abbiamo una traccia epistemologica che permette di adottare un metodo sulla base di un protocollo. Può funzionare, oppure no, ma si può iniziare da qualche parte senza eccedere e mettendo da parte le demonizzazioni a priori o il “liberi tutti!” metodologico. Ora ci sono argomenti epistemici. È abbastanza per garantire una certa fiducia. E non è poco.

Proviamo a tirare le fila e a classificare quanto elaborato in merito al bullismo e ai due post precedenti secondo il modello di Currie. La tesi di Gottschall traccia un’analogia etnografica diretta dello stesso (il bullismo c’è ovunque nel mondo animale), mentre la tesi di Boehm identifica un’analogia etnografica indiretta che spiega l’adozione di comportamenti bullistici tipica di primati non-ominini e delle società contemporanee di H. sapiens come una conseguenza dell’attivazione di vincoli strutturali simili (ossia, i free rider dominanti sono un prodotto secondario, o by-product, dell’organizzazione sociale: mutate condizioni socio-economiche avrebbero permesso loro di instaurare gerarchie di dominanza prima assenti). Se c’è continuità storica, questa è relativa solo alle gerarchie a dominanza inversa, e solo per un certo periodo di tempo (primati non-ominini e la maggior parte delle società umane post-neolitiche hanno invece gerarchie di dominanza). Secondo la linea adottata da Boehm, alcune tecnologie sociali e materiali, solo per certe popolazioni, e solamente dopo il Neolitico, avrebbero permesso ai bulli in fieri di stabilire delle gerarchie di dominanza e di legittimare politicamente l’esercizio del potere da parte di free rider dominanti.

Ora, la convergenza storico-scientifica delle prove a disposizione cerca di superare la debolezza di singole sequenze di informazioni indipendenti che puntano verso una determinata con la somma delle parti: solamente più dati, più analisi rigorose, e una maggiore attenzione e serietà interdisciplinare possono contribuire a chiarire il quadro (ad esempio, esistono, come abbiamo ricordato in precedenza, tipi diversi di bullismo). Se consideriamo il ritardo incredibile delle scienze sociali nei confronti di paradigmi realmente scientifici, allora gli esercizi di Gottschall e Boehm possono aiutarci a mettere giù i primi paletti stabili nello studio scientifico di questo aspetto delle culture umane, abbattendo gradualmente il muro che separa ancora le due culture. Sono tentativi ancora incompleti e speculativi, ma ipotesi simili costringono a pensare e a raccogliere dati ulteriori, a cercare ancora e a proporre nuovi paradigmi. Sono parte dell’impalcatura di base, e da lì si procede in avanti. Siamo solo agli inizi, e molto si dimostrerà sbagliato e ingenuo con il proverbiale senno di poi, ma da qualche parte occorre partire. E sbagliare è il sale della ricerca scientifica [12].

Zio Ben può essere fiero di suo nipote. Gli sceneggiatori, beh, non sempre.
Copertina di Spider-Man: Basta bullismo!, Panini Comics giugno 2017 (Uomo Ragno Speciale XXX n.1/2017). Bella e toccante la storia centrale ("Weird", da Avengers No More Bullying n. 1 del 03/2015), ma sgraziata la prima (un bullismo soft, quello di "Friends on the Web, da Avengers: No More Bullying n. 1 del 03/2015) e assolutamente inutile la terza ("Fear Pressure" da Amazing Spider-Man on Bullying Prevention n. 1 del 10/2003), dove una vittima di bullismo diventa bullo a sua volta. Ne abbiamo parlato qui, ma c'era senz'altro un altro modo per affrontare la questione senza dover per forza incolpare una vittima, in un fumetto che tra l'altro dovrebbe essere mirato alla Bullying Prevention!
Per concludere, non esistono bacchette magiche che possano decidere a priori quale metodo sia corretto. Se l’obiettivo delle discipline storiche è quello di ricostruire fatti sulla base di un modello epistemologico volto a minimizzare le speculazioni, promuovendo nel contempo asserzioni epistemicamente fondate e sostenute da una sufficiente “concordanza di induzioni”, bisogna sempre stare attenti e mantenere alto il livello di vigilanza. Per ora, il modello di Boehm, grazie al suo focus spazio-temporale specifico, sembra godere di maggiori chance di falsificazione rispetto a quello di Gottschall. Che non vuol dire che sia più “vero”, attenzione. Significa solo che si può partire da lì per studiare in profondità. E senza dati non si può fare proprio nulla. Vedremo come andrà a finire e cerchiamo di fare scienza, accumulando e ripensando man mano. Per ora, risposte definitive non ne abbiamo, ma di certo sappiamo cosa non sappiamo e dove cercare per imparare a conoscere. Intanto, chiudo questa serie di post. Nel frattempo, il prossimo cretino che fa il bullo finisce in prigione senza passare dal via.

[1] Riprendo e aggiorno la scheda introduttiva da questo post.

[2] Richerson, Peter J. (2014). Comment on Turchin, Peter (2014). "Cooperation: This time, between man and woman". Social Evolution Forum, October 20. Per una contestualizzazione della citazione si rimanda a Ambasciano, L. (2016). “Mind the (Unbridgeable) Gaps: A Cautionary Tale about Pseudoscientific Distortions and Scientific Misconceptions in the Study of Religion.” Method & Theory in the Study of Religion (28)2: 141-225. https://doi.org/10.1163/15700682-12341372

[3] Ambasciano, L(2014a). Sciamanesimo senza sciamanesimo. Le radici intellettuali del modello sciamanico di Mircea Eliade: evoluzionismo, psicoanalisi, te(le)ologia. Roma: Edizioni Nuova Cultura. https://doi.org/10.4458/3529.

[4] Un testo chiave per la traslazione del tema in ambito storiografico (umanistico) è Smith, J. Z. (1990). Drudgery Divine: On the Comparison of Early Christianities and the Religions of Late Antiquity. Chicago and London: University of Chicago Press, 36-54 (§ “On Comparison”). Si veda anche Saler, B. (2000). Conceptualizing Religion: Immanent Anthropologists, Transcendent Natives, & Unbounded Categories. Oxford: Berghan Books.

[5] Ambasciano, Sciamanesimo senza sciamanesimo.... Cfr. Ampolo, C. (2013). “Il problema delle origini di Roma rivisitato: concordismo, ipertradizionalismo acritico, contesti. I”. Annali della Scuola Normale Superiore di Pisa. Classe di Lettere e Filosofia, serie 5: 1217-284. Si veda anche il mio pezzo (di prossima pubblicazione) intitolato “Politics of Nostalgia, Logical Fallacies, and Cognitive Biases: The Importance of Epistemology in the Age of Cognitive Historiography.” In A New Synthesis for the Study of Religion: Cognition, Evolution, and History in the Study of Religion, a cura di I. S. Gilhus, J. S. Jensen, LL. H. Martin, J. Sørensen & A. K. Petersen. Leiden - Boston: Brill.

[6] Currie, A. (2016). “Ethnographic analogy, the comparative method, and archaeological special pleading”. Studies in History and Philosophy of Science Part A (55): 84-94. https://doi.org/10.1016/j.shpsa.2015.08.010

[7] Smail, D. L. (2017). Storia profonda. Il cervello umano e l’origine della storia. Torino: Bollati Boringhieri. Traduzione dall’originale inglese On Deep History and the Brain. Berkeley, Los Angeles & London: University of California Press, di un certo blogger di vostra conoscenza che si occupa di Tempi profondi.

[8] Ibi: 88. Si veda inoltre Cleland, C. E. Cleland & Brindell, S. (2013). “Science and the Messy, Uncontrollable World of Nature.” In Philosophy of Pseudoscience: Reconsidering the Demarcation Problem, a cura di M. Pigliucci e M. Boudry, 183–202. Chicago and London: University of Chicago Press.

[9] Currie, Ethnographic analogy…, p. 91.

[10] Ibid. Cfr. anche Sterelny, K. (2003). Thought in a Hostile World: The Evolution of Human Cognition. Malden, MA and Oxford: Wiley-Blackwell.

[11] Currie, Ethnographic analogy…, p. 91.

[12] Schwartz, M.A. (2008). “The Importance of Stupidity in Scientific Research.” Journal of Cell Science 121: 1771. https://doi.org/10.1242/jcs.033340.