Si fa presto a dirsi scienza

Un confronto tra i processi di legittimazione della ricerca medica e della ricerca pedagogico-didattica: limiti e differenze. Proposta operativa.

Premessa

È frequente assistere a dispute accese tra docenti e pedagogisti. Di norma i primi rivendicano la forza dell’esperienza e della pratica quotidiana in classe, di cui i secondi sono spesso privi; questi ultimi, a loro volta, richiamano insistentemente la presunta scientificità delle proprie tesi, arrivando talvolta ad accusare i docenti di “analfabetismo pedagogico” o persino di essere “terrapiattisti della didattica”.

In questo contesto si colloca il contributo che segue, volto a offrire alcuni elementi di riflessione e una proposta operativa.

Il saggio interroga il concetto di scientificità nelle scienze dell’educazione: che cosa è ragionevole definire “scientifico” in una scienza della formazione relativamente giovane, priva di una tradizione consolidata paragonabile a quella di discipline più strutturate? Un modo efficace per affrontare il problema è il confronto tra i processi di validazione della ricerca scientifica in generale e quelli propri dell’ambito pedagogico, assumendo come termine di paragone un’area non esatta ma fortemente regolata e istituzionalizzata come la medicina.

P.S. Le considerazioni del saggio non intendono riferirsi a singoli studiosi o istituzioni, ma a dinamiche strutturali del campo.

1. Introduzione

Il rapporto tra ricerca scientifica e prassi professionale attraversa numerosi ambiti disciplinari: biologia, psicologia, medicina, pedagogia, ingegneria sociale. In questo contributo si propone un confronto tra due ambiti scientifici non esatti che, pur differendo per oggetto, presentano rilevanti analogie strutturali:

  • l’universalità della popolazione cui si rivolge l’innovazione;
  • l’elevata esposizione sociale delle pratiche adottate;
  • l’alta responsabilità professionale;
  • una produzione scientifica quantitativamente imponente e in continua espansione, inserita in un contesto di crescente pressione sul publishing accademico.

Nel settore pedagogico-didattico, a fronte di una produzione incessante di pubblicazioni su “innovazioni” didattiche e di una loro rapida prescrizione nella pratica, i processi di validazione appaiono — come vedremo — molto meno formalizzati e meno presidiati da dispositivi terzi. Questa asimmetria non viene qui interpretata come mancanza di rigore individuale, ma come effetto strutturale di differenti modalità di legittimazione scientifica, che dovrebbero indurre a maggiore cautela nell’invocare la “scienza” come argomento conclusivo.

La questione risulta particolarmente rilevante alla luce delle criticità segnalate da molti docenti d’esperienza rispetto a varie innovazioni adottate: un segnale che merita attenzione epistemologica e rispetto professionale. E, forse, maggiore umiltà da parte di alcuni “iconoclasti della tradizione”.

2. Crescita della produzione e pressione sui criteri di qualità

Negli ultimi anni la produzione scientifica, sia in medicina sia in pedagogia, ha conosciuto un’espansione impressionante dei contributi indicizzati nei principali database internazionali. Tale crescita ha intensificato la pressione sui processi di peer review e sugli indicatori reputazionali utilizzati per valutare la qualità della singola ricerca, con differenze metodologiche assai rilevanti tra i due ambiti.

Nel campo educativo il fenomeno è particolarmente evidente: l’elevata densità di studi sulle innovazioni didattiche rende complessa la distinzione tra risultati empiricamente validati e proposte teoricamente fondate ma non ancora verificate sul piano applicativo. In questo contesto, la circolazione delle idee tende talvolta a precedere la loro effettiva validazione.

3. Metodologia del confronto

L’analisi adotta un approccio comparativo di tipo concettuale ed epistemologico. L’obiettivo non è confrontare risultati empirici specifici, ma ricostruire le catene di validazione che conducono una ricerca dall’elaborazione iniziale alla legittimazione scientifica e all’adozione di nuove prassi professionali.

Le dimensioni considerate includono:

  • il ruolo della terzietà;
  • il rigore procedurale;
  • la definizione delle variabili osservate;
  • la selezione dei campioni;
  • la replicabilità o trasferibilità;
  • il feedback applicativo sistematico dei professionisti.

4. Il processo di validazione nella ricerca medica

4.1 Rigore procedurale e terzietà

Un elemento strutturale della ricerca clinica orientata alla pratica è la presenza sistematica di soggetti terzi e di competenze specialistiche non cliniche nel processo di validazione. Progettazione, analisi e interpretazione coinvolgono stabilmente biostatistici, epidemiologi, matematici applicati e, in ambiti specifici, fisici e data scientist, con un ruolo distinto da quello dei ricercatori impegnati nella sperimentazione.

La validità di uno studio clinico dipende non solo dal disegno sperimentale, ma anche dalla modellizzazione statistica, dalla stima della potenza, dal controllo degli errori sistematici e casuali, dalla gestione dei dati mancanti e dalla valutazione della significatività clinica oltre che statistica. Tali funzioni sono affidate a unità indipendenti che operano secondo protocolli formalizzati e standard condivisi.

Ciascuno di questi snodi può, in qualunque momento, interrompere il processo di ratifica scientifica. Il rigore non risiede quindi nella sola buona fede, intuizione o capacità del ricercatore, ma in un’architettura istituzionale di terzietà che distribuisce la responsabilità su più livelli di controllo indipendente e convergente, al fine di ridurre il rischio di bias e di falsi positivi.

4.2 Standard di reporting e controllo degli esiti

La diffusione di standard di reporting ha introdotto soglie importanti di trasparenza metodologica, favorendo comparabilità e valutazione critica. Pur senza eliminare l’incertezza, tali standard rendono verificabili, in ogni momento, le scelte metodologiche adottate. Una teoria può essere molto citata, ma se non regge a trial, revisioni sistematiche e valutazioni della certezza (GRADE), difficilmente diventa una raccomandazione forte in linee guida, e ancor meno una base regolatoria (pur esistendo casi residuali di hype). La citazione è un segnale di attenzione, non una licenza operativa.

4.3 Adozione clinica e ruolo del feedback

In medicina, l’adozione nella pratica clinica dell’innovazione non rappresenta mai la conclusione dell’iter di validazione. Registri, audit e sistemi di monitoraggio diffuso trasformano l’esperienza applicativa in real-world data sugli esiti e consentono revisioni progressive delle pratiche, fino alla loro eventuale revoca.

Un elemento decisivo è il riconoscimento dello scarto tra evidenza sperimentale e pratica clinica cui la sperimentazione è rivolta. Linee guida e regolazioni dell’adozione precisano che non ogni risultato debba tradursi automaticamente in prassi e che la cautela sia parte integrante del rigore scientifico.

Il feedback dei medici operanti sul campo rappresenta, in tal senso, l’ultimo passaggio: può mettere in discussione una sperimentazione anche dopo il superamento delle fasi precedenti. Nessun accademico si azzarderebbe a definire “analfabeti clinici” i medici che, dopo aver sperimentato un nuovo protocollo, ne contestassero l’efficacia: il dissenso motivato è riconosciuto come componente essenziale del controllo di realtà e della fondatezza, oltre che come indicatore etico.

5. Il percorso di validazione nella ricerca pedagogico-didattica

5.1 Variabili complesse e polisemia concettuale

In medicina, pur nella complessità biologica, un assunto fondamentale e preliminare a ogni innovazione soggetta a validazione è che le variabili chiave (parametri fisiologici, categorie osservate, endpoint clinici, eventi avversi) siano definite in modo rigoroso e condiviso. Questa è una precondizione dell’osservabilità, della misurazione e della confrontabilità tra studi. Organismi indipendenti ne garantiscono, in ogni fase, la correttezza applicativa.

Nella ricerca pedagogico-didattica, invece, numerose variabili centrali — competenza, apprendimento significativo, inclusione, motivazione, engagement, successo formativo — presentano un elevato grado di polisemia teorica e una limitata standardizzazione operativa. Ne consegue che studi differenti, pur utilizzando la stessa etichetta concettuale, possono osservare e misurare oggetti non pienamente sovrapponibili, con ampi margini di ambiguità.

La maggiore eterogeneità metodologica favorisce dinamiche di legittimazione affidate più alla reputazione, alla circolazione citazionale, all’efficacia narrativa e alla visibilità editoriale che a verifiche indipendenti, falsificabili e replicabili.

Queste condizioni non sono “una colpa” della disciplina: riflettono la natura dell’oggetto e una tradizione relativamente giovane. Tuttavia hanno un effetto strutturale rilevante: rendendo meno frequenti catene di controllo presidiate da terzi e privilegiando disegni quasi-sperimentali, studi di caso, mixed methods e ricerca-azione, la disciplina fatica a soddisfare criteri forti di scientificità intesi in senso classico.

Va aggiunto che la ricerca medica, insieme all’intera catena di soggetti coinvolti nei processi di validazione, comporta costi elevatissimi, sostenuti anche da interessi industriali colossali (in primis le case farmaceutiche), che investono proprio per ottenere garanzie di affidabilità. La pedagogia, al contrario, è una disciplina strutturalmente povera: pur incidendo in modo decisivo sulla formazione di una nazione, non beneficia di sponsor altrettanto munifici e deve “fare le nozze con i fichi secchi”, con conseguenze prevedibili sulla robustezza dei processi di validazione e sull’affidabilità delle innovazioni proposte.

5.2 Il concetto di competenza come caso emblematico

Uno dei limiti più evidenti della ricerca pedagogica è l’ambiguità delle osservabili. Il concetto di competenza, ad esempio, è centrale e rappresenta un caso paradigmatico. Le definizioni correnti sono numerose (se ne contano almeno dodici; qualcuno sostiene tante quante gli autori) e combinano elementi cognitivi, operativi e disposizionali. Alcune includono autonomia e responsabilità, altre trasferibilità e riflessività, altre ancora consapevolezza o agency.

Molte definizioni incorporano costrutti ulteriori non direttamente osservabili, generando catene definitorie che rendono l’oggetto sempre meno delimitato e più dipendente dall’interpretazione teorica del ricercatore (che, comprensibilmente, può tendere verso letture confermative). La misurazione si fonda quindi su proxy — rubriche, giudizi esperti, autovalutazioni — che, pur legittimi sul piano educativo, limitano comparabilità e replicabilità. In queste condizioni, la scientificità, anche solo in senso lakatosiano, risulta difficile da sostenere.

5.3 Innovazione e applicazione in aula

Molte innovazioni pedagogico-didattiche incontrano difficoltà applicative o producono esiti deludenti nella pratica quotidiana. Tali criticità si traducono spesso in adattamenti locali o abbandoni silenziosi, senza però generare revisioni sistematiche della proposta.

Qui emerge una differenza cruciale: mentre in medicina il feedback sistematico e diffuso degli operatori contribuisce formalmente alla ratifica o alla revisione delle pratiche, in pedagogia chi segnala criticità viene spesso accusato di resistenza culturale o addirittura di incompetenza didattica. L’aula — come la corsia — dovrebbe costituire un banco di prova decisivo; talvolta, invece, viene svalutata o resa irrilevante (se non per campioni limitati di immancabili entusiasti).

6. Accreditamento dell’evidenza

6.1 Che cosa significa accreditare

Accreditare gli esiti di una ricerca significa trasformare risultati fallibili in evidenze utilizzabili per decisioni e metodi professionali. La questione non riguarda solo l’efficacia, ma anche l’incertezza, i destinatari, i contesti e i costi.

La medicina ha costruito un ecosistema che rende questo processo standardizzato, tracciabile e verificabile; in pedagogia i meccanismi risultano più deboli e meno vincolanti. Permangono confini labili, poco presidiati, tra ricerca scientifica e narrazione esperienziale.

6.2 Citazioni e viralità come surrogati

In medicina, citazione e attenzione scientifica non coincidono con autorizzazione operativa: la legittimazione di un risultato dipende da procedure istituzionalizzate e da verifiche esterne. In ambito pedagogico, invece, l’assenza di solidi gatekeeper comparabili a quelli medici induce spesso processi di auto-legittimazione fondati sulla circolazione citazionale. Tale dinamica è esposta al cosiddetto Matthew effect (Merton, 1968), per cui il prestigio iniziale di un autore genera vantaggi cumulativi indipendenti dalla robustezza empirica dei risultati. In questo contesto, citazione e viralità possono assumere il ruolo di surrogati di validazione: una proposta entra nei corsi di formazione, nei convegni e nelle pratiche scolastiche e tende a essere considerata “vera” perché adottata. Ne deriva che dinamiche cumulative e biografia scientifica — intesa come autorevolezza, capacità narrativa e posizionamento istituzionale — possono amplificare alcune voci a prescindere dalla loro effettiva solidità.

6.3 Perché l’asseverazione è più debole

Gli esiti educativi maturano spesso su tempi lunghi, dipendono da molti fattori al contorno e misurano trasformazioni cognitive ed emotive difficili da ridurre a singoli indicatori. Questo aumenta: (i) indirettezza (proxy imperfetti: test standardizzati vs competenze profonde); (ii) eterogeneità di trattamento; (iii) variabilità contestuale (effetti che non generalizzano).

In termini “GRADE”, se molte ricerche pedagogiche soffrono strutturalmente di indirettezza, inconsistenza e imprecisione, ciò non è per colpa degli autori, ma per la natura dell’oggetto. Esistono iniziative di regolazione apprezzabili, ma con scarso potere vincolante. Forse anche per questo il riconoscimento accademico tende, in alcuni casi, a dipendere più dalla reputazione e dalla comunicabilità (narrazione e slogan) della proposta che da processi strutturati di verifica indipendente.

6.4 Competenza statistica e terzietà

La medicina ha costruito parte della propria affidabilità grazie a infrastrutture di controllo e a competenze statistiche terze e indipendenti. In educazione tali presidi risultano meno istituzionalizzati, con ricadute dirette sulla solidità delle conclusioni.

7. Conclusioni

Le differenze nei processi di validazione non riflettono una diversa serietà degli attori, ma condizioni strutturali legate all’oggetto di studio e alle risorse disponibili. Quanto più le variabili sono definibili e osservabili, tanto più è possibile costruire dispositivi di controllo esterni. E i dispositivi di controllo terzi costano.

Nel lessico professionale, molte proposte si presentano come “innovazioni metodologiche”. Il rischio, in questo quadro, è che l’etichetta di innovazione funzioni da marcatore di valore prima di una verifica robusta degli effetti. Proprio per queste condizioni al contorno (ambiguità degli oggetti di studio, povertà di risorse per iter affidabili e terzi altamente qualificati), la voce della “corsia” dei docenti dovrebbe pesare di più, non di meno. E invece…

Proposta e principi guida

Alla luce di quanto esaminato, una proposta ragionevole per dare fondatezza alle innovazioni è rafforzare l’ultimo anello — mutuato dal protocollo medico — cioè il feedback diffuso e generalizzato (non campionario e non limitato ai soli più ferventi allineati).

È necessario istituzionalizzare, anche per le innovazioni pedagogiche, un feedback strutturato, trasparente e generalizzato da parte di tutti i docenti coinvolti. Dopo un periodo di sperimentazione, si dovrebbe raccogliere il loro giudizio professionale, sistematizzando le criticità e prevedendo, di fronte a dati negativi schiaccianti, la possibilità di ritirare misure inefficaci o dannose.

Con le piattaforme attuali, un sistema simile sarebbe tecnicamente semplice da implementare: ogni innovazione degli ultimi anni potrebbe essere sottoposta a una scheda individuale di valutazione e a un feedback motivato.

La questione centrale è di cultura della verifica, di prudenza come canone scientifico e di rispetto per i professionisti. Sono loro che, sul campo, testano l’innovazione e ne misurano gli esiti; il loro scetticismo — se non si traduce in entusiasmo — non può essere liquidato pregiudizialmente con epiteti quali “analfabeti pedagogici”, “nostalgici” o “terrapiattisti della didattica”.

L’aporia metodologica

Il contrasto che si pone all’attenzione è stridente: se persino la medicina, forte di protocolli rigorosi e di una reale garanzia di terzietà, è pronta a rimettere in discussione le proprie tesi davanti a riscontri negativi della pratica clinica, appare singolare che la ricerca pedagogica segua talvolta un percorso opposto.

Risulta discutibile che quest’ultima — pur vulnerata da protocolli più blandi, da ambiguità definitorie e da fragilità metodologiche — rifiuti il dissenso motivato che giunge, in modo convergente e da anni, dalla “trincea professionale”.

Si configura come una flagrante aporia metodologica il disconoscere, sulle innovazioni e ove emerga, la smentita ampiamente maggioritaria della prassi professionale, mentre si esibisce la patente di scientificità quale strumento (di fatto) di censura per delegittimare, con alterigia, il conseguente dissenso di una parte rilevante della categoria e l’evidente fallimento dei risultati.

La svalutazione professionale

Accoglierne le istanze più accorate rappresenterebbe un atto di reale riconoscimento verso un ruolo docente che, sebbene celebrato dalla retorica istituzionale come pilastro strategico del Paese, viene nei fatti declassato a esecutore passivo dei dettami di una élite accademica,trattato alla stregua di soggetto privo di autonomia intellettuale, perennemente immaturo e incapace di giudizio critico ed etico. E questo è l’elemento più critico di tutti.



2 Commenti

  1. Applausi… Dico una cattiveria, dovrebbe essere letto da tutti i pedagogisti ma penso che moltissimi non lo capirebbero proprio. Ho insegnato nei licei delle scienze umane e la grandissima maggioranza dei colleghi, di scienza e di epistemologia non sapeva e non capiva un cavolo.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *