Le leggi di potenza e le organizzazioni complesse

come superare il bias dimensionale nella valutazione della ricerca

Per secoli la scienza ha cercato di ricondurre tutti i fenomeni naturali alle stesse semplici regole della fisica classica attraverso il cosiddetto “modello riduzionista”, che spiega il comportamento di tutti i sistemi a partire dalle proprietà dei loro costituenti (atomi, molecole, etc.). Ma il mondo che ci circonda è tutt’altro che semplice! Le strutture biologiche, le conseguenze delle dinamiche del pianeta (come le eruzioni vulcaniche, i terremoti, i flussi delle maree, etc.), come pure gli eventi socio-economici e politici sono tutti fenomeni caratterizzati da una variabilità intrinseca che non può essere sempre descritta con le leggi fondamentali della fisica, ovvero con le equazioni newtoniane del moto. Per questo motivo, la “scienza della complessità” meglio si attaglia a rappresentare le proprietà di entità biologiche, sociali ed economiche altrimenti indescrivibili e impredicibili.

Sebbene non esista un’unica definizione di complessità, in letteratura i sistemi complessi sono sempre descritti mediante le medesime proprietà: sono composti da molte sotto-parti, tra cui dominano le interazioni non lineari in condizioni lontane dall’equilibrio e possono manifestarsi comportamenti apparentemente caotici che rompono la simmetria delle strutture esistenti. Esiste, poi, un punto critico nel quale alcune forme di auto-organizzazione di parti del sistema si manifestano, senza un evidente controllore centrale o, viceversa, il sistema evolve in maniera caotica. A queste situazioni di transizione tra ordine e disordine viene spesso dato il nome di “soglia del caos”. Eppure, come scriveva Mitchell Waldrop nel suo libro Complessità. Uomini e idee al confine tra ordine e caos « l’orlo del caos è dove la vita ha trovato abbastanza stabilità per sostenersi e abbastanza creatività per meritare il nome di vita». Anche Per Bak, il teorico della criticità auto-organizzata, osservava che il mondo reale si genera dall’instabilità, in una successione di piccoli e grandi eventi catastrofici. Nassim Nicholas Taleb sosteneva che solo un «esiguo numero di cigni neri spiega quasi tutto del nostro mondo: dal successo delle idee e delle religioni alle dinamiche degli eventi storici, compreso la nostra vita personale» (Il cigno nero, 2007).

Ma cos’è un cigno nero? E’ un evento raro, imprevedibile e con un impatto potenzialmente disastroso, tutte caratteristiche che hanno una comune rappresentazione statistica: una distribuzione a legge di potenza. La lunga coda di queste distribuzioni, infatti, è in grado di spiegare molte evidenze empiriche, dalla frequenza di terremoti di grande magnitudo alla periodicità del crollo dei mercati finanziari. Una funzione di potenza si manifesta ogni volta che in un fenomeno prevalgono le interazioni non lineari e le cause non sono proporzionali agli effetti. Viceversa, una rappresentazione statistica di tipo gaussiano è generata da eventi indipendenti tra loro, lineari e all’equilibrio. Detto questo, la descrizione di fenomeni “emergenti”, caotici o comunque irreversibili tramite leggi di potenza è stata comunque per molto tempo confinata all’ambito delle scienze fisico-chimiche e naturali. I sistemi sociali e quelli economici sono metaforicamente descrivibili perfettamente con i concetti della complessità, perché composti da molti agenti, le cui relazioni sono condizionate da emozioni, stati d’animo e attitudini in grado di generare effetti imprevedibili, in situazioni spesso metastabili e “al limite del caos”. Ma descrivere un fenomeno sociale in termini metaforici è ben diverso dal darne una rappresentazione matematicamente sostenibile. La sfida che ci siamo posti è stata proprio quella di provare a modellizzare uno o più aspetti della vita di un’organizzazione complessa in termini di una distribuzione a legge di potenza.

In questo tentativo, ci è venuto in aiuto, il cosiddetto modello di crescita delle organizzazioni, che sfrutta il fatto che le funzioni di potenza siano, per definizione, scalabili, ovvero auto-simili al variare della scala di osservazione. Negli anni ’90 diversi autori dimostrarono come la dimensione delle imprese non fosse rappresentabile tramite una distribuzione normale, come previsto dal modello di Gibrat fino ad allora largamente condiviso, bensì attraverso una distribuzione di Zipf, ovvero una funzione di potenza. Inoltre, la distribuzione del logaritmo del tasso di crescita annuale è una funzione esponenziale (a tenda), auto-simile al variare delle tre dimensioni iniziali considerate, con una corrispondente deviazione standard che scala come una legge di potenza (Figura 1a). Opportunamente scalate, le tre distribuzioni di probabilità collassano su una stessa curva (Figura 1b), a dimostrazione che la procedura fornisce un rilevante metodo di normalizzazione dei dati.

FIGURA 1: a) Densità di probabilità del tasso di crescita annuale delle imprese manifatturiere americane per tre diversi valori iniziali Le aziende sono aggregate per ammontare di vendite all’istante iniziale (S0). b) Densità di probabilità del tasso di crescita scalata grazie al valore di deviazione standard calcolato: tutti i dati collassano su una stessa curva (Stanley, 1996).

Sulla scia del metodo descritto, utilizzando in maniera innovativa la proprietà di invarianza di scala delle funzioni di potenza e il principio di normalizzazione che da essa deriva, proponiamo una soluzione all’annoso problema del bias dimensionale che spesso caratterizza gli esercizi di valutazione della produttività e della qualità della ricerca nelle università.

Nell’ambito degli esercizi di valutazione della conoscenza, infatti, la dimensione caratteristica delle unità in valutazione è spesso considerata un fattore critico. Ampia letteratura internazionale è dedicata al dibattito sulla relazione tra dimensione delle unità di ricerca e qualità della loro performance scientifica. Sebbene siano stati introdotti negli anni diversi criteri per la normalizzazione dei risultati scientifici di università di diversa dimensione, in molti hanno mosso critiche a questo o quel metodo, evidenziandone limiti e/o incongruenze.

Se si osservano, ad esempio, i dati dell’ultima valutazione della qualità della ricerca italiana (VQR) 2004-2010, salta agli occhi che, dato un qualsiasi indicatore di performance, le fluttuazioni rispetto alla media di tale indicatore sono minori per grandi università rispetto che per i piccoli atenei. Questo implica che le università di maggiore dimensione tendono ad avere un risultato di performance tipicamente più “nella media” rispetto a quelle di piccole dimensioni, che finiscono per avere i migliori risultati nelle classifiche di ranking.

FIGURA 2: Risultati ottenuti dalle 14 aree di ricerca delle università italiane secondo un determinate indicatore di performance (la dimensione delle aree è misurata dal numero di ricercatori in esse attivi)

Creando un generico indicatore di performance, abbiamo dimostrato che la distribuzione dei voti medi delle aree disciplinari nelle università italiane, suddivise per gruppi dimensionali, segue un andamento esponenziale. Poiché la larghezza di tali distribuzioni scala come una funzione di potenza, è possibile utilizzare questo risultato per normalizzare i dati di ranking così da renderli indipendenti dalla dimensione degli atenei.

FIGURA 3: a sinistra,la distribuzione condizionale di probabilità delle aree disciplinari grandi, medie e piccole: è evidente che la larghezza delle distribuzioni cresce al diminuire della dimensione delle aree come nel modello del tasso di crescita delle imprese. A destra le distribuzioni di probabilità scalate in virtù della deviazione standard calcolata. Le tre distribuzioni vengono normalizzate ad una medesima curva.

Il metodo risulta essere ancor più rilevante se si pensa alla crescente quota di finanziamento pubblico allocata sulla base degli esercizi periodici di valutazione effettuati dal Ministero della Ricerca e dell’Università.

I principali risultati ottenuti sono genericamente applicabili a qualsiasi esercizio di valutazione della produttività e qualità della ricerca, purché si possa identificare, nei dati di volta in volta considerati, un bias dimensionale cui applicare la metodologia di normalizzazione proposta. Proprio per la natura essenzialmente matematica del metodo, il risultato ottenuto sui dati della VQR italiana si presta ad essere applicato anche ad analoghi esercizi svolti in altri paesi, previa ovviamente una specifica analisi del contesto di riferimento e delle specificità di ogni caso.