SCIENZA E PARADIGMI SOCIALI

 

Marcello Buiatti

 

Tradizionalmente la discussione sui rapporti fra struttura e dinamica della scienza, genesi delle teorie scientifiche e loro applicazione, e società civile, si articola su due correnti di pensiero contrapposte.  Gran parte della epistemologia classica cerca di interpretare la dinamica della ricerca e della formazione dei paradigmi in base a leggi del tutto interne alla scienza stessa ed alle comunità scientifiche, quasi che la storia degli scienziati e della scienza si muovesse sulla base di interazioni fra dati, concetti e teorie dotati di vita propria e non derivanti da esseri umani forniti come gli altri di corpo e cervello ed interagenti con i loro simili all’interno, ma anche al di fuori della comunità scientifica.  In questa versione il ruolo della scienza nella costruzione del consenso viene sottovalutato e, se mai, la sua utilizzazione a fini sociali e politici viene interpretata come strumentalizzazione o falsificazione dei dati e delle teorie.

 

Un’altra corrente di tradizione genericamente marxista o comunque catalogata come di sinistra, sostiene una sorta di dipendenza meccanica della scienza dalle scelte socio-economiche dominanti, e quindi dalle pressioni politiche ed economiche che sarebbero alla base della committenza, della scelta degli oggetti di ricerca, della stessa interpretazione parziale dei dati o addirittura della loro invenzione.  La prima impostazione quindi raffigura la comunità scientifica come una lobby autonoma depositaria della conoscenza e perciò capace, autonomamente, di mutare le cose del mondo nel bene (gli scienziati come maghi benefici) o nel male (la magia distruttrice); la seconda attribuisce tout court alle classi dominanti la responsabilità delle scelte e, in fondo, anche delle teorie.  In ambedue i casi uno dei due partners viene considerato come essenzialmente passivo, l’altro attivo e si attribuisce ben scarsa importanza alle interazioni fra i soggetti collettivi.  Nella mia breve analisi cercherò invece di affermare il concetto della circolarità della interazione tra scienza e società e dei feedback positivi e negativi fra le comunità.  Per farlo prenderò le mosse da alcune ipotesi di lavoro del tutto aperte in quanto preliminari, che possono essere sottoposte ad una verifica iniziale utilizzando una casistica purtroppo un po’ parziale in quanto ricavata, per ovvia deformazione professionale, in parte notevole dalla storia della biologia.

 

Può se mai consolare il sottoscritto il fatto che la biologia, trattando di esseri viventi e quindi anche di noi stessi, appare la scienza che più ha influito nella creazione del consenso a concezioni dell’uomo e quindi ad ideologie e politiche sociali.

 

Dalla società alle comunità scientifiche

Una prima ipotesi di lavoro parte da alcune osservazioni sulla dinamica dei rapporti fra l’emergere delle teorie scientifiche e l’affermarsi di quei concetti dominanti, tendenze, modi di vedere, metodi e angoli di osservazione del mondo che costituiscono le mutevoli strutture culturali della società e che, spesso erroneamente identificati con paradigmi di tipo kühniano, potrebbero essere chiamati paradigmi sociali.  L’ipotesi di lavoro è che la struttura culturale dominante, a sua volta ovviamente influenzata dalla organizzazione socio-economica, sposti l’attenzione di chi osserva la natura su angoli visuali e livelli di osservazione di volta in volta diversi, favorendo la formulazione di teorie che universalizzano concetti e dati necessariamente parziali perché appunto legati ad una osservazione di parte.  Queste a loro volta circolarmente interverrebbero sulla stessa struttura culturale che le ha in parte generate accelerandone la modificazione.  Questa ipotesi parte dalla constatazione che aspetti specifici della natura sembrano assumere grande importanza improvvisamente in campi del sapere anche molto diversi, appartenenti talvolta alle due culture e non comunicanti se non in modo molto superficiale fra di loro.

 

Ad esempio, mentre verso la fine dell’ottocento i processi naturali (tipico è il caso delle teorie evolutive) tendevano ad essere visti come continui, la discontinuità emerge da una serie di teorie dei primi anni del ‘900.  In fisica infatti vengono formulate e si impongono le teorie di Thomson e Max Planck, in matematica Lebesgue appronta un importante strumento matematico per l’analisi delle funzioni discontinue, in biologia vengono riscoperte le leggi di Mendel e i ‘mendeliani’ (Hugo de Vries, Bateson) ne estrapolano una teoria complessiva che vede il materiale ereditario come un insieme di particelle discontinue ad azione additiva (quella che sarà chiamata la teoria quantica della ereditarietà da Erwin Schrödinger molti anni dopo).  Nella stessa pittura e musica la discontinuità, la scomposizione dell’armonia e del reale diventano elementi importanti.  Contemporaneamente in numerose discipline viene dato forte rilievo al ruolo del caso e si abbandona la visione determinista classica, della fine del secolo scorso.  Di nuovo in biologia, ad esempio, la necessità, implicita nel concetto darwiniano di selezione naturale viene contestata dalla Mutations Theorie di H. De Vries che vede l’evoluzione come il susseguirsi e l’affermarsi casuale di mutazioni anch’esse casuali e discontinue.  Negli anni ‘20-‘40 invece, sia in biologia che in fisica, si tenta la formulazione di teorie di compromesso in cui la continuità viene interpretata come somma o serie di discontinuità e il caso, grazie alla statistica, assume un aspetto deterministico.

 

Tuttora del resto i manuali di metodologia sperimentale e statistica si basano sull’artificio concettuale per cui le fluttuazioni intorno ad una media diventano di trascurabile importanza, una volta che se ne siano misurati i limiti, e due medie vengono considerate diverse quando la probabilità di sbagliare in questa affermazione è inferiore al 5%.  Non a caso infatti il termine usato per indicare la variazione intorno alla media è errore, a significare che il caso, attribuito essenzialmente alla nostra incapacità di individuarne le cause, maschera una verità (la media) che pure esiste ed è la sola degna di nota (significativa).  Altrettanto concomitante in discipline diverse è infine la crescente attenzione attribuita ai giorni nostri alla incertezza, alle fluttuazioni non prevedibili, ai fenomeni storici della natura.  Secondo questa visione il caso assume invece grande importanza e viene considerato non più come errore ma come parte integrante della realtà.  Mi riferisco qui a teorie fisiche che definiscono fenomeni complessi, dalla cromodinamica al caos ecc. e, in biologia, alla parziale ma importante sconfitta della visione meccanicistica (laplaciana) del vivente, secondo la quale le strutture quadri-dimensionali dei diversi livelli di organizzazione della vita sarebbero state univocamente determinate dalla serie lineare di informazioni costituita dal DNA.

 

Come si proponeva in tutti questi esempi (e la casistica si potrebbe ampliare), non si tratta in alcun modo della affermazione incontrastata di paradigmi complessivi nei diversi campi quanto piuttosto di attenzione particolarmente vivace ad aspetti della realtà da sempre presenti al pensiero umano, ma solo di volta in volta considerati di particolare importanza dall’osservatore.  In altre parole il dibattito, naturalmente solo al livello di questi concetti base, sembra vertere da sempre su alcune antinomie concettuali fondamentali (continuo-discontinuo, determinismo-indeterminazione, caso-necessità, additività-interazione) anche metodologiche (riduzionismo-olismo) con l’affermarsi di volta in volta di uno dei due termini senza peraltro che l’altro scompaia dal dibattito.  Non c’è dubbio tuttavia che il punto di osservazione, l’attenzione prevalente ad un lato del reale, ha una influenza determinante sul successo o l’insuccesso di teorie e paradigmi, quando non ne decreta vita e morte.  Si spiega cosi il fenomeno dei precursori o antesignani, studiosi che propongono con molto anticipo teorie che in seguito si affermeranno.  È tipico in questo senso il caso della biologia, nella cui storia vengono periodicamente riscoperte leggi e teorie enunciate da tempo e cadute per lunghi anni nell’oblio e nel disinteresse totale.

 

Per citare solo alcuni casi fra i più noti, le leggi di Mendel enunciate nel 1865 vennero riscoperte contemporaneamente da tre ricercatori (Hugo de Vries, Tschermak von Seissenegg, Correns) nel 1900; le teorie ed i dati sulla instabilità (flusso del materiale genetico, enunciate nel corso di un famoso congresso del 1951 da R. A. Goldschmidt e Barbara Mc Clintock) vennero riprese e fruttarono il premio Nobel alla seconda più di trenta anni dopo; la teoria neutralista dell’evoluzione di de Vries del 1902 è stata rienunciata nel 1961; il saltazionismo di Goldschmidt viene riesumato alla fine degli anni ’70 da Gould ed Eldredge; l’interpretazione olistica dello sviluppo e della evoluzione del primo Waddington, dello stesso Goldschmidt, di numerosi biologi sovietici rispunta ai nostri giorni ecc.  Riferendosi a questi fenomeni, molti storici della scienza si limitano a dire che i precursori hanno elaborato le loro teorie in tempi genericamente non maturi, quando non si dimenticano semplicemente di citarli favoriti in questo dalla naturale paranoia degli uomini e donne di scienza che non amano chi ha enunciato prima di loro teorie che reputano del tutto originali.  Non c’è dubbio che sia difficile interpretare questi processi solo con logiche interne alla scienza ed alla autonoma evoluzione delle comunità scientifiche, proprio per il loro carattere in qualche modo ciclico, mai definitivo e contemporaneo in campi anche molto diversi.

 

Sembra invece più facile interpretare la relativa parzialità di osservazione come derivante da una serie di impulsi di tipo psicologico, metodologico e fattuale che partono dall’esterno.  Per fare un paio di esempi, l’attenzione alla discontinuità può derivare (è senz’altro così per Mendel e Lebesgue) dalla scelta di risolvere processi complessi dividendoli in segmenti discreti facilmente analizzabili dai quali poi ricostruire il totale.  In un certo senso è la suddivisione stessa dell’oggetto di studio in parti discrete che porta a formulare teorie sulla discontinuità della natura, sulla additività delle parti ecc. In altre parole ancora, l’atteggiamento riduzionista caratteristico dell’impostazione moderna e positivista dell’inizio del secolo spinge, in coerenza con le necessità sociali di costruzione di una civiltà meccanica industriale, ad una scienza interessata ad ottenere leggi affidabili, con gli strumenti della matematica dell’epoca, deterministe, attraverso la riduzione non solo teorica ma metodologica del reale a somma di parti discrete.  Tutto ciò è particolarmente evidente dal punto di vista individuale nel caso di Mendel.  Lo scopritore delle leggi che regolano la trasmissione dei caratteri detti appunto mendeliani trae la sua impostazione elvetica innanzitutto dalla sua preparazione non biologica ma fisica (era allievo della scuola viennese di Unger e Doppler) ed in secondo luogo dall’ambiente molto particolare in cui viveva, la città di Brno, uno dei primi centri di sviluppo industriale a imprenditorialità diffusa.

 

La scelta di Mendel di analizzare il comportamento, in generazioni successive, di caratteri semplici, presenti in forme alternative i cui rapporti numerici sono facilmente calcolabili, è del tutto cosciente e si discosta volutamente dal metodo dei ricercatori precedenti e seguenti che invece cercavano di studiare il processo di trasmissione della forma-funzione totale (diremmo oggi del fenotipo) degli organismi.  Altrettanto cosciente è il tentativo, a cui questo metodo è funzionale, di ricavare leggi probabilistico-deterministiche dagli esperimenti programmati; tanto cosciente da far accusare Mendel da parte di statistici un po’ pignoli di aver volutamente modificato i dati per farli meglio tornare con un modello che aveva intuito.  Considerazioni analoghe di tipo parzialmente psicologico possono essere addotte per spiegare l’impostazione di R. A. Goldschmidt, ebreo tedesco di grande cultura umanistica e studioso non di caratteri singoli o di molecole ma di fenomeni complessivi di sviluppo e quindi indirizzato da formazione e oggetto di studio ad un angolo visuale di livello organizzativo superiore.

 

Naturalmente, quando i fenomeni di spostamento del punto di osservazione, da individuali diventano collettivi, l’interazione fra ambiente umano e comunità scientifiche avviene non solo con la mediazione dei modelli culturali ma anche attraverso l’indicazione indiretta (la moda) o diretta (i finanziamenti per ricerche specifiche) dell’oggetto dello studio, la strumentazione offerta fino a giungere alla imposizione ideologica dall’esterno.  Ad esempio, lo studio delle molecole e del loro ruolo nella vita ha senz’altro ricevuto un importante impulso dallo sviluppo dell’industria farmaceutica degli anni ’40 ed anche dall’interesse per alcune molecole tossiche manifestato dai militari.  Basti pensare all’utilità degli antibiotici e dei metodi di saggio del loro effetto per le ricerche di genetica e di biologia molecolare dei microorganismi o alla scoperta della azione mutagena delle sostanze chimiche effettuata da Charlotte Auerbach durante la seconda guerra mondiale nel corso di una ricerca per conto del Ministero della Difesa britannico sugli effetti della mostarda sulforata.  Lo studio delle molecole e l’attenzione conseguente alle loro proprietà e funzioni viene naturalmente insieme facilitato e stimolato dalla acquisizione di tecniche e strumenti sofisticati di analisi.

 

Bisogna dire tuttavia che l’influenza della tecnologia sulle linee di ricerca è meno determinante in biologia che in fisica, dove, in alcuni casi, sembra quasi che la ricerca venga programmata in funzione delle macchine, data anche l’importanza di queste in termini di status delle comunità scientifiche e delle nazioni.  Si può anzi affermare che, nonostante anche sulla fisica giochino gli effetti culturali generali, questi sono relativamente meno importanti proprio per il minore impatto di questa disciplina sull’immaginario collettivo e soprattutto sulla concezione che l’uomo ha di se stesso. Gioca un ruolo determinante invece l’immagine della fisica come disciplina di punta del progresso scientifico e tecnologico, simbolo della capacità complessiva dell’uomo di conoscere gli intimi segreti della natura e di inventare tecnologie per trasformarla.  Questo senza dubbio è un messaggio forte che viene dall’esterno ed è appoggiato da massicci finanziamenti e dalle macchine non solo sempre più sofisticate ma soprattutto sempre più potenti.  Il metodo scientifico moderno, riduzionista, dello studio della parte per risalire al tutto compare del resto molto più tardi in biologia che in fisica, sia per la complessità degli oggetti biologici che per il peso giocato fino ai primi del ‘900 (che dura in parte anche oggi) da tendenze spiritualiste e vitaliste che inducono al rifiuto, nel caso degli esseri viventi, della stessa impostazione metodologica galileiana.

 

Gli effetti delle tecniche quindi cominciano a farsi sentire molto più tardi e non sono mai del tutto determinanti. Determinante è invece se mai l’effetto indiretto del modello di scienza, positivista, progressista, che viene da una società sempre più intrisa di trasformazione progettata e di macchine sempre più potenti.  Nella seconda metà del nostro secolo questa pressione è spesso, in biologia, mediata direttamente dai fisici, con i quali i contatti si fanno sempre più numerosi e pregnanti sia perché elaborano le tecnologie della ricerca biologica sia in quanto interferiscono direttamente con la ricerca o per lo meno con le sue linee portanti.  È noto ad esempio il grande impatto che hanno avuto sulla biologia teorici come Erwin Schrödinger che, con una serie di lezioni pubblicate negli anni ‘40, con geniale preveggenza ha posto le basi della moderna teoria informazionale in biologia, o come Max Delbruck o M. Wilkins direttamente coinvolto nella ricerca.  In questo senso l’interazione fra discipline, molto più fino agli anni ‘40, diventa fattore primario di modificazione della impostazione metodologica della ricerca e, anche in conseguenza di questo, dei modelli che si elaborano e degli strumenti matematici che si approntano.  Non c’è da meravigliarsi che in questo quadro la fisica, già dotata da tempo di basi tecniche e metodologiche forti e coerenti con il modello di natura “progressivamente conoscibile” proposto, diventi disciplina trainante anche di altre più legate ancora a ideologie e concezioni anche esterne a quanto viene modernamente definito con il termine di scienza.

 

La interpretazione meccanica degli esseri viventi sulla base del comportamento delle molecole che li compongono diventa in questo quadro l’obiettivo finale di un tentativo di modellizzazione totale della natura coerente con l’utopia positivista della trasformazione completa, illimitata, prevedibile tipica delle rivoluzioni industriali e, in genere, dell’età moderna.  È anche per questo, e per gli ovvî riflessi sull’uomo, che il dibattito in biologia assume tinte più apertamente politiche, tanto da comportare per gli studiosi di questa disciplina della nostra epoca, rischi anche personali di entità non diversa da quelli corsi da fisici e filosofi in epoca premoderna.  Emblematico da questo punto di vista è il dibattito in URSS fra seguaci delle cosiddette teorie Lysenkoiste, studiosi pienamente inseriti nella corrente principale della moderna genetica e biologia occidentale, biologi che allora tentavano una interpretazione materialista non meccanica partendo da una impostazione marxiana, che trovava probabilmente importanti punti di riferimento nella stessa tradizione culturale russa.  Questo dibattito, poco scientifico ma molto ideologico, ha avuto in URSS l’effetto primario di distruggere, anche eliminando materialmente i ricercatori, la ricerca biologica in nome di una falsa teoria elaborata a tavolino sulla base del principio della completa modificabilità direzionale degli esseri viventi da parte dell’uomo, principio funzionale alla ideologia iperpositivista dei piani quinquennali.  

 

Insieme alla ricerca moderna in URSS, tuttavia, sono andati persi anche i germi, di grande importanza teorica, di una biologia non meccanica, eliminata nei paesi del socialismo reale dalla repressione diretta e repressa in occidente in via indiretta dall’attacco indiscriminato a qualsiasi idea di neolamarkismo.  Non è peregrino affermare che l’oblio in cui sono stati tenuti per lungo tempo i dati che rivelavano la grande capacità di cambiamento del materiale ereditario, la complessità dei processi storici della vita, l’effetto anche direzionale sul DNA dell’ambiente, deriva in parte dall’influenza negativa di un dibattito fra dogmi in cui, come non usava da tempo, la contesa fra teorie scientifiche diventava lotta per la vittoria di una o di un’altra ideologia.

 

Dalle comunità scientifiche alla società

Come ho cercato di documentare, il flusso di informazione che va dall’esterno all’interno della comunità scientifica è intenso e variegato e sembra influire soprattutto nel senso di mettere in evidenza aspetti di volta in volta diversi della realtà, spostando l’attenzione di chi fa ricerca su livelli specifici della organizzazione gerarchica della realtà, facendo assumere maggiore o minore importanza a categorie alternative ma sempre compresenti nella storia culturale umana.  Questo non significa in alcun modo che le comunità scientifiche siano recettori passivi di questo flusso.  Il messaggio esterno, diretto o indiretto che sia, viene rielaborato all’interno della comunità scientifica e si modifica mano a mano che strumenti e tecniche di conoscenza si affinano e viene confrontato con i dati sperimentali, che pure hanno un ruolo nella storia delle teorie scientifiche che non intendiamo in alcun modo disconoscere.  Il frutto di questa rielaborazione riemerge poi dalla comunità scientifica e diventa oggetto di ulteriore cambiamento da parte degli scienziati stessi nel momento in cui si rivolgono al pubblico, degli studiosi di scienza, storici e filosofi che lo riosservano e traducono in linguaggi diversi, dei divulgatori, mass-media, degli stessi politici.  La versione dei dati e concetti scientifici che così prende forma e corpo nelle applicazioni entra a far parte del più vasto dibattito presente nella società e contribuisce a costruire le cose reali di questo mondo su cui incide sempre di più la tecnologia.

 

Vi è quindi, in questo percorso di ritorno, un livello di rielaborazione primaria in cui il processo di falsificazione assume un ruolo tuttora importante anche se l’emergere della scienza “non normale” e la comparsa catastrofica di nuovi paradigmi sono fortemente influenzati dall’esterno.  Ne è prova il fatto che in alcuni casi strumenti di indagine approntati per ottenere dati di ampliamento ed estrapolazione della scienza normale sono stati alla base invece proprio della falsificazione dei dati che si pensava di confermare.  Così è avvenuto ad esempio quando le tecniche di biologia molecolare che sono state alla base della utopia meccanica in biologia negli anni ’70, applicate ad organismi complessi, nell’intento di decifrarne la natura con lo stesso procedimento riduzionista che era stato usato precedentemente sui microrganismi hanno invece, sorprendentemente, fatto emergere l’esistenza di legalità e forme-funzioni diverse nei diversi livelli gerarchici del vivente, hanno profondamente modificato le teorie evolutive, hanno posto l’accento su concetti come la variabilità, il flusso, i campi, i sistemi interattivi ecc. tutti o quasi tutti proposti, senza successo, in tempi non maturi.

 

Qualcosa di simile si può dire che sia successo anche in fisica mano a mano che gli strumenti di indagine si affinavano e si tentava di risalire di nuovo dal semplice al più complesso, dalle nozioni ricavate durante il periodo di massimo sviluppo riduzionista ai comportamenti di sistemi a più variabili interagenti.  È senz’altro troppo presto per capire quanto di questo processo, e della conseguente falsificazione della ipotesi di totale capacità euristica del solo metodo riduzionista, sia interno alla scienza, perché questo fenomeno apparve in partenza indotto da una forte domanda esterna motivata inizialmente dal desiderio di mettere definitivamente a frutto le conoscenze acquisite sui sistemi semplici giungendo al controllo definitivo di quelli complessi.  Non c’è dubbio tuttavia che lo scontro con la realtà sperimentale c’è stato e continua ad esserci realmente nei fatti e che proprio da questo scontro sono uscite realmente nuove idee o sono stati rafforzati concetti preesistenti ma “deboli”.  È evidente quindi, in questo caso, ma lo si può dimostrare anche in altri, che la comunità scientifica recepisce le influenze culturali esterne che ne condizionano ottica e metodologie, ma, nel confronto con la sperimentazione, anche se tende a rafforzare i concetti dominanti, comunque li modifica e contemporaneamente pone le basi per un loro futuro cambiamento.

 

In questo senso la scienza è insieme attiva e passiva.  Passiva in quanto è portata a trovare almeno in parte quello che è indotta a cercare.  Attiva perché il confronto con la realtà sperimentale e fra diverse discipline può accelerare, innescando un processo culturale “catastrofico”, sia il rafforzamento che la caduta dei paradigmi complessivi di natura più sociale che scientifica.  In realtà molto spesso è difficile o impossibile capire quale sia il “primum movens ”della “catastrofe”, sia perché, come si è visto, gli stessi dati scientifici risentono in partenza degli input sociali, sia perché,  come vedremo, la società seleziona i dati da utilizzare.  Si può forse dire che i sostenitori di paradigmi sociali contrapposti incamerano di volta in volta i dati della scienza che si adattano ai paradigmi.  La presenza di dati e la loro evoluzione in questo modo diventa fattore importante, anche se probabilmente mai completamente determinante nella dialettica dei paradigmi e quindi della prevalenza ora dell’uno, ora dell’altro.  Questo tipo di processo può essere esemplificato dal ruolo giocato dalla genetica classica e da non pochi genetisti in prima persona nello sviluppo delle teorie razziste in Paesi come l’Inghilterra e gli Stati Uniti, per non parlare della Germania nazista.  E questo grazie alla semplice estrapolazione dogmatica all’uomo del concetto, quasi universalmente accettato per lungo tempo, della determinazione rigida ed univoca dei caratteri sia fisici che comportamentali da parte dei componenti additivi (i geni) del patrimonio ereditario.

 

Il ragionamento, se basato solo su questo, non fa una grinza.  Se, infatti, come pareva ai post-mendeliani, i geni sono essenzialmente invarianti, agiscono additivamente, sono poco o nulla “disturbati” nella loro funzione dall’ambiente e si distribuiscono a caso di generazione in generazione, è evidente che un essere umano sarà alto o basso, biondo o bruno, buono o cattivo e magari anche ricco o povero a seconda dei genitori e dell’assortimento di geni che gli sono capitati.  Poco potrà fare sul suo destino la società ed anzi l’unico modo per migliorare la vita umana sarà o eliminare gli individui “inferiori” o comunque farli riprodurre di meno in modo da aumentare la frequenza di geni “buoni”.  Questi concetti non sono stati enunciati da qualche genetista seguace del terzo Reich ma da alcuni fra i fondatori della genetica classica come Sir Ronald A. Fisher, uno dei tre “padri” del neodarwinismo, la “sintesi moderna” dell’evoluzione, come l’ha chiamata, in un suo storico volume, Julian Huxley.  In questo senso, l’appoggio dato da un numero consistente di genetisti alla persecuzione di ebrei, zingari, handicappati o comunque diversi, non è concettualmente molto diverso dalle indicazioni che dava Galton nell’Inghilterra di fine ‘800 o dalla strenua lotta per la eugenetica condotta da Hermann Müller, uno scienziato che aveva preso dal marxismo, successivamente abbandonato, una fede incrollabile nella capacità illimitata dell’uomo, se ben diretto, di modificare la natura e se stesso.

 

Anche ai nostri giorni del resto, la propaganda che viene fatta da più parti per il miglioramento della qualità della vita umana attraverso l’uso delle tecniche di ingegneria genetica, si basa spesso su epigoni più o meno famosi della corrente meccanica in auge soprattutto negli anni ’70.  Come si è detto, sarebbe semplicistico ed errato attribuire alla comunità scientifica la colpa o anche la promozione delle tragedie della emarginazione e del razzismo o, per la fisica e la chimica, dei misfatti della civiltà industriale.  Per capire meglio la portata ed i limiti dell’input della scienza bisogna affrontare l’analisi delle modificazioni che subiscono, al di fuori della comunità, i dati provenienti dalla ricerca, dei tempi e dei modi con cui entrano nel flusso complessivo della evoluzione culturale e quindi influiscono sul modo stesso di operare degli esseri umani, sugli indirizzi che le società si danno nella trasformazione del mondo, sulle tecnologie derivate.  I dati e le teorie della scienza vengono infatti in parte modificati, in parte selezionati in tutto il percorso che va dalle comunità scientifiche alle altre comunità intellettuali, alla esposizione e divulgazione nella scuola, fino alla diffusione, ormai rapidissima e massiccia, attraverso i media ed alla traduzione, ove è possibile, in tecnologia.  Questo fa sì che la società recepisca solo in parte, spesso falsati e con molto ritardo, i cambiamenti paradigmatici che intervengono nelle comunità scientifiche.

 

Alcuni sviluppi della scienza, magari minoritari ma non per questo meno importanti, vengono addirittura ignorati e non entrano a far parte della cultura socializzata, quella che poi rimanda messaggi attraverso chi fa ricerca, alle comunità disciplinari, influendo, come si è detto, sugli indirizzi futuri.  Questo processo non colpisce solo i cosiddetti “precursori” ma intere correnti di pensiero spesso conosciute all’esterno con decenni di ritardo anche se presenti con un loro peso specifico in ambito scientifico.  Talvolta la modificazione consiste nel raccontare solo un pezzo di una teoria o dell’opera di uno studioso.  Un caso clamoroso di questo tipo di selezione dei concetti è la “de-lamarckizzazione” di Darwin, iniziata non si sa bene da chi, ma senz’altro accentuata nel corso della già citata polemica sul concetto di sub “neolamarkismo” di Lysenko in URSS.  Tutt’ora infatti si insegna il darwinismo come se Darwin avesse negato con chiarezza l’eredità dei caratteri acquisiti e trascurando del tutto il suo appoggio alla teoria dell’uso e del disuso, mentre il povero Jean Baptiste Lamarck viene ignominiosamente accomunato a Lysenko e conseguentemente additato al pubblico ludibrio.  In altre parole Darwin viene “ripulito”, anche in libri di testo universitari di buon livello, di tutto ciò che lo rende diverso dal neo-darwinismo,  insieme di teorie e sub-teorie maturato nella prima metà del ‘900, frutto del compromesso della teoria dell’evoluzione con il mendelismo, trincea su cui si arroccò il pensiero occidentale in polemica con le sub “teorie” di Lysenko.

 

Un esempio di azzeramento di una intera corrente di pensiero è invece l’oblio in cui sono caduti non solo gli esponenti sovietici delle teorie “oliste-dialettiche” come Smalgauzen, Dubinin, Zavadovsk, Vernadsk, ecc., ma anche i loro corrispondenti occidentali da Needham a Goldschmidt, agli stessi B. Mc Clintock e Waddington.  Questo processo “selettivo” sembra essersi fatto sempre più intenso con l’aumentare dell’enfasi data alla divulgazione dei “progressi” scientifici e tecnologici nel nostro tempo.  A chi segue con un po’ di attenzione le notizie date dalla stampa e presenti in giornali anche di buona o ottima divulgazione appare chiaro come ad alcune sia data molta più attenzione che alle altre, tanto da far sospettare l’esistenza di una vera battaglia ideologica, condotta a suon di dati scientifici, che rischia gravemente di irrigidire il dibattito impedendo una visione più eclettica, che ammetta la coesistenza di più angoli visuali e quindi di teorie e interpretazioni non contrapposte ma semmai complementari.  Si può tracciare ormai un percorso attraverso il quale avviene la selezione delle informazioni.  Questa spesso non consiste tanto nella eliminazione di dati, che pure talvolta si verifica, ma soprattutto nell’enfasi data alle diverse notizie. In questo processo gioca ormai un ruolo importante una sorta di rete pubblicitaria, particolarmente efficiente negli Stati Uniti, che parte dalle stesse organizzazioni di ricerca e da vere e proprie lobbies le quali hanno interesse a valorizzare questo o quel successo delle diverse istituzioni che operano nel campo scientifico.

 

Sempre più spesso le “scoperte”, o meglio alcune di esse, vengono comunicate al grosso pubblico attraverso conferenze stampa e veri e propri lanci pubblicitari ancora prima di passare al vaglio dei referees e, in genere, della comunità scientifica ed essere pubblicate su riviste specializzate.  Alcune di queste (soprattutto Nature e Science) annunciano prima della stampa articoli che vengono considerati particolarmente importanti e molte usano la copertina per mettere in particolare rilievo i contenuti di maggiore interesse.  Un altro canale di riflessione più capillare, soprattutto nel mondo scientifico e più documentato è costituito dai giornali di divulgazione di alto livello come il New Scientist e Scientific American e dai bollettini di branche disciplinari (e corporazioni) specifiche, in particolare quelle interessate alle applicazioni tecnologiche.  Veniamo così ogni tanto investiti da ondate di informazione che suscitano spesso accesi dibattiti fino a giungere alle prime pagine dei quotidiani.  Alcune di queste informazioni sono addirittura false o non sufficientemente provate (è il caso ad esempio della “fusione fredda”); quasi tutte tendono ad affermare un’immagine di scienza “progressiva”, capace cioè di risolvere i problemi e, nel caso della biologia,  a consolidare quella concezione meccanica del vivente che, come si è visto, nella comunità scientifica è in crisi come interpretazione globale.

 

Le notizie che fanno più clamore non sono quelle relative alla scoperta della complessità, delle interazioni, dell’importanza della variabilità ma i successi, veri o meno veri che siano, delle tecniche di manipolazione del materiale ereditario. delle nuove macchine inventate dall’uomo.  Questa selezione dei dati è particolarmente evidente sul mezzo principe della educazione scientifica,  i libri di testo delle scuole e, duole dirlo, anche universitari, che sono estremamente restii a inserire,  in tutte le materie, quei dati pur ormai accettati nelle comunità che pongono le premesse per il ricambio delle teorie scientifiche e sono, invece, spesso aggiornati, almeno in alcuni Paesi, per quanto riguarda una serie di scoperte “sensazionali” ed adeguati al paradigma sociale corrente.  Si ha quindi l’impressione che non la scienza normale ma piuttosto la società normale si avvalga con grande profitto della potente struttura di diffusione della informazione per il mantenimento ed il rafforzamento di se stessa.  Si viene così all’apparente paradosso che, mentre nelle comunità scientifiche si va affermando un criterio di complementarietà globale che vede linearità e complessità, determinazione e caso ecc. come aspetti non contraddittori ma appunto complementari della natura, all’esterno il dibattito tende a cristallizzarsi su due posizioni manichee proposte come inconciliabili.

 

In realtà ciò che è inconciliabile non sono i dati, che derivano appunto dalla scelta di livelli e modi di osservazione diversi degli stessi processi, ma le ragioni sociali e politiche che tendono a rendere universali paradigmi locali di per sé spesso perfettamente validi.  Sembrerebbe ripetersi quanto è già avvenuto, su scala più piccola al tempo della controversia sui ruoli relativi di interno ed esterno in biologia.  Dato che ora la scala dei processi è globale si corre il pericolo che venga bloccata l’uscita nel sociale di una serie di nuovi paradigmi locali e che il feedback sulla scienza sia tale da diminuirne irreparabilmente la portata anche nelle comunità scientifiche.  Tutto questo ovviamente non avviene solo sul piano delle idee ma anzi si ripercuote immediatamente sulla scelta applicativa di costruzione di tecnologie.  Anche queste, ovviamente calibrate sul modello di sviluppo della attuale società “civile”, tendono ad essere sviluppate sulla base di una selezione di dati, tecniche e principi teorici che vengono dalla ricerca.  Si tratta anche in questo caso, di equilibrio di rapporti di forza fra paradigmi sociali o meglio, per le tecnologie, di modelli di sviluppo.  La destinazione dei finanziamenti gioca in questo campo un ruolo veramente determinante anche se talvolta non ben decifrabile anche da parte degli operatori della ricerca.

 

Mentre per un lungo tempo infatti, le commesse che venivano soprattutto dal privato erano di tipo precompetitivo, ora le imprese chiedono sempre più ricerca “di base” riservando ai propri laboratori la traduzione in tecnologie operative.  Questo, mentre rende meno coatta la partecipazione della comunità scientifica, la allontana gradualmente dai meccanismi di controllo degli usi delle proprie scoperte. In questo senso, mentre in certi campi la scelta di obiezione di scienza si può basare su evidenti dati di fatto (ad esempio in gran parte della moderna ingegneria genetica), in altri, mancando la conoscenza della destinazione dei prodotti della ricerca, risulta molto più difficile e nebulosa.  Questo deriva anche dalla sempre più compiuta espropriazione delle comunità scientifiche propriamente dette di tutto quanto può portare a tecnologia da parte dell’impresa privata, parte integrante di un modello di sviluppo e certamente non portata, se non di fronte a potenti pressioni di mercato e politiche, ad auto-innovarsi.  Questo non per togliere “colpe” alla scienza né in alcun modo per rivendicare un ruolo di scelta ai “tecnici” che, come si è visto, non sono davvero arbitri imparziali, ma se mai per “smascherare” il ruolo della politica in senso lato, del dibattito filosofico-scientifico esterno-interno alla comunità, dei paradigmi sociali nel loro complesso, stranamente meno rinnovabili nelle categorie su cui si dibatte delle stesse teorie scientifiche.

 

Queste appaiono paradigmi locali e non globali da sempre condizionati, anche se autonomi in un flusso circolare di informazioni apparentemente poco mutato nella sua struttura anche se immensamente accelerato dal rapidissimo evolversi della civiltà postmoderna verso un nuovo equilibrio, sicuramente determinato dai paradigmi sociali che domineranno, ma basato sui mezzi e sui paradigmi locali forniti dalle comunità scientifiche, certo forse più lontane dal controllo, ma attrezzate con strumenti teorici e pratici di enorme potenza.  Sulle comunità stesse preme l’obbligo di differenziare per quanto possibile in modo corretto i dati avvertendo degli eventuali pericoli e significati delle scoperte della ricerca.  Perché questo avvenga tuttavia è necessaria una acquisizione di coscienza da parte degli scienziati della non invulnerabilità della loro cittadella e soprattutto del loro cervello, sottoposto come qualunque altro ad influenze esterne recepite anche quando non vengono avvertite.  Questa autocoscienza, poco diffusa al momento attuale, potrà forse evitare i danni derivati dall’arroccamento disciplinare, dalla autodifesa pervicace della scienza normale, dall’assunzione del ruolo di detentori della verità, di maghi onnipotenti, dalla incapacità di condurre una lotta efficiente per il pluralismo.

 

Perché questo processo sia possibile, è necessario che il dibattito interdisciplinare e fra le “due culture” si intensifichi e non sia più guardato con sospetto e fonte spesso di discriminazione sul piano del successo personale in ambedue le comunità.  E forse in questo modo sarà possibile una utilizzazione più ampia di tutti gli strumenti di conoscenza che possediamo in quanto esseri umani, modificando magari il concetto di scienza ora rinchiuso in una immagine che esclude quanto della conoscenza non è, al momento almeno, matematizzabile e non porta ad aumentare la nostra capacità di racchiudere il mondo in leggi universali ed immutabili, immagine questa costruita specularmente su una società che tende anch’essa ad essere sempre più monotonale, rigida, costretta da limitazioni di libertà.

 

 

Pubblicato originariamente su Naturalmente, 1993, 6 (1), 9-15.