Nexus è il terzo libro segnalato per la Biblioteca dei classici della complessità, al Complexity Literacy Web-Meeting dell’autunno 2020.
Possiamo capire dalla descrizione dei parametri strutturali di una rete se questa è adatta o meno a trasmettere contagi virali, a mettere in contatto nodi distanti o a resistere ad attacchi esterni mirati?
Le risposte le troviamo in questo libro di Mark Buchanan ormai classico: “Nexus” (sottotitolo: “Perché la natura, la società, l’economia, la comunicazione funzionano alla stesso modo”), pubblicato in Italia da Mondadori nel lontano 2003, in contemporanea con l’edizione originale in inglese.
Leggendo questo classico possiamo farci un’idea delle strutture e dei meccanismi che regolano il comportamento delle reti, e possiamo capire come e quanto tali strutture e meccanismi condizionino la solidità, la resilienza e l’efficienza di una rete, sia essa digitale o sociale, economica o biologica.
Le domande
Le domande che ci poniamo riguardo ai sistemi complessi organizzati in rete ruotano tutte intorno a un unico quesito chiave: esistono regole rappresentabili matematicamente che ci permettano di capire come si potrà comportare una rete (per sua natura complessa, imprevedibile, in continua evoluzione dinamica) andando a studiare e a categorizzare la sua struttura fisica, ovvero il modo in cui sono connessi i nodi, gli individui?
Dalla risposta a questa domanda derivano poi a cascata le domande relative alla definizione dei parametri misurabili che descrivono la rete e le proprietà che emergono in relazione alle diverse configurazioni del sistema reticolare, sia esso biologico, ecologico, sociale o digitale.
E derivano le domande “tecniche” relative alle possibili modalità di gestire i fenomeni complessi che nascono e si sviluppano nella rete stessa.
Le risposte
Le risposte che cerchiamo sono articolate in un sistema logico interessante e innovativo, che ha trovato la sua fioritura in un campo matematico nuovo, esterno alle categorie classiche della geometria e dell’aritmetica.
Lo studio delle reti infatti è basato su nuovi paradigmi cognitivi e scientifici complessi, gli stessi paradigmi che ci permettono di trattare i frattali, il caos deterministico e i sistemi complessi adattativi, ovvero, in pratica, molti dei problemi che riguardano gli andamenti finanziari, l’analisi dei big data, la gestione manageriale di organizzazioni complesse, i cambiamenti climatici, i motori di ricerca on line, i sistemi di intelligenza artificiale…
Le risposte, vogliamo sottolinearlo, sono recentissime. Allo studio delle reti, infatti, a parte qualche lontana incursione (come quella di Eulero nel Settecento), si sono cominciati a interessare in maniera scientifica e sistematica alcuni psicologi e sociologi (come Milgram e Granovetter) solo a partire dagli anni Sessanta del Novecento; la strutturazione della teoria delle reti si sviluppa addirittura solo vent’anni fa, a cavallo tra il ‘900 e il 2000, con i lavori di matematici e ricercatori come Barabási, Watts e Strogatz. Un motivo concreto c’è: è il fatto che non si possono studiare le reti senza strumenti di calcolo versatili e potenti come gli attuali computer.
Perché abbiamo scelto questo libro
Molti degli scienziati che hanno contribuito a formulare la teoria delle reti hanno anche scritto libri divulgativi di grande successo che sono stati tradotti in italiano. Uno per tutti: Barabási, “Link. La scienza delle reti”, pubblicato da Einaudi nel 2004 (l’edizione originale risale al 2002).
Nella stessa area di interesse sono arrivati in libreria molti altri volumi tra cui ricordiamo, per qualità e originalità, “Sincronia. I ritmi della natura, i nostri ritmi” di Strogatz, pubblicato da Rizzoli nel 2003, ma purtroppo fuori mercato da qualche anno; “Il cigno nero. Come l’improbabile governa la nostra vita”, di Taleb, pubblicato da Il Saggiatore nel 2009 (l’edizione originale è del 2007); e un secondo libro dello stesso Barabási, “Lampi. La trama nascosta che guida la nostra vita”, pubblicato da Einaudi nel 2011 (un anno dopo l’uscita in inglese dell’edizione originale).
Per dare uno sguardo panoramico sul mondo delle reti, abbiamo però preferito scegliere un libro che raccogliesse in maniera esaustiva e intrigante tutti gli studi dal punto di vista di un divulgatore scientifico a livello di Mark Buchanan, che è stato redattore a “Nature” e caporedattore di “New Scientist”, oltre ad essersi occupato dell’argomento tra i primi (nel 2000 aveva pubblicato un libro di grande successo sui sistemi complessi, tradotto in Italia da Mondadori nel 2001 con il titolo “Ubiquità” e il sottotitolo “Dai terremoti al crollo dei mercati, dai trend della moda alle crisi militari: la nuova legge universale del cambiamento”).
Il libro che abbiamo scelto per rispondere alle nostre domande è dunque il suo “Nexus”, di cui diamo qui di seguito il sommario e l’indice ragionato, seguiti da una serie di citazioni commentate.
Il sommario
Ecco come la casa editrice presenta il libro nella bandella di copertina: “Può la geometria salvare l’enigma del comportamento umano? È possibile che un modello matematico arrivi a spiegare il funzionamento della nostra società? Mark Buchanan illustra i principi fondamentali di un nuovo campo di studi: la teoria delle reti, la cui tesi fondamentale è che una stessa struttura nascosta è condivisa da tutti i network, e ne regola il comportamento e le interazioni. E questo significa che Internet, il cervello umano, il sistema aereoportuale, ma anche i rapporti di conoscenza e i legami di amicizia rispondono alle medesime leggi e si organizzano secondo “nexus”, il modello reticolare che tutte queste realtà hanno in comune.
L’autore
Mark Buchanan, dopo aver conseguito nel 1993 il dottorato di ricerca in fisica alla University of Virginia e avere studiato per diversi anni la dinamica non lineare e la teoria del caos, è stato redattore a Londra della rivista “Nature” e caporedattore dei servizi speciali a “New Scientist”. Da Mondadori, nel 2001, ha pubblicato “Ubiquità”. Aggiungiamo che nel novembre 2014 è uscito in Italia, per le edizioni Malcor D’, un suo libro dal titolo “Previsioni. Cosa possono insegnarci la fisica, la meteorologia e le scienze naturali sull’economia”, con la prefazione di Francesco Sylos Labini.
L’indice dei contenuti
La sequenza dei capitoli ci dà un’idea concreta di come l’autore abbia organizzato per noi lettori il suo approccio alla teoria delle reti. Vediamo i titoli dei capitoli più significativi, con l’aggiunta (fra parentesi) dei concetti chiave e degli studiosi citati in ciascun capitolo).
Il testo parte da una panoramica storica: Strane connessioni (l’esperimento delle lettere di Stanley Milgram negli anni Sessanta) – La forza dei legami deboli (la scoperta dei ponti sociali di Granovetter negli anni Settanta) – Piccoli mondi (il lavoro di Strogatz e Watts che negli anni Novanta unificano le teorie precedenti e avviano la rivoluzione scientifica interdisciplinare delle reti che presentano strutture analoghe a scale di grandezza diverse, le cosiddette scale free networks)”.
Nei due capitoli successivi l’autore applica i principi e le regole delle reti “mondo piccolo” (small world netwoks) a casi concreti come il cervello e Internet: Come funziona il cervello – La rete piccolo mondo.
E poi: Una scienza accidentale (emergenza dell’ordine dal caos, frattali, auto-somiglianza, reti fluviali) – I ricchi diventano sempre più ricchi (reti small world ‘democratiche’ vs. ‘aristocratiche’) – Costi e conseguenze (la particolare vulnerabilità delle reti organizzate secondo una “legge di potenza”, con pochi nodi potentissimi e miriadi di nodi poveri) – Una rete intricata (stabilità e complessità delle catene alimentari) – Punti critici (epidemie e teoria dei fenomeni critici, con un accenno alla memetica, la teoria che studia i comportamenti ‘virali’ della diffusione delle idee e dei comportamenti) – L’esplosione delle influenze nel mondo (applicazioni dei modelli reticolari alle pandemie) – Leggi della vita economica (la legge di Pareto e quella cosiddetta 80-20, che spiegano in termini di evoluzione delle reti la distribuzione ‘naturalmente ingiusta’ delle ricchezze).
Il percorso si conclude con il capitolo Oltre la coincidenza, in cui Buchanan applica le teorie della complessità e dell’analisi delle strutture di rete nelle organizzazioni, tirando le somme di quanto presentato nel volume.
Commenti e citazioni
Nascita e sviluppo delle teorie delle reti.
Lo studio delle reti fa parte della cosiddetta matematica discreta e si basa sulla teoria dei grafi, che viene fatta risalire alla soluzione proposta nel 1736 da Eulero al “problema dei ponti di Königsberg”. Già quel primissimo studio mise in evidenza il fatto che piccoli cambiamenti nella struttura della rete possono far emergere o inibire specifiche caratteristiche di percorribilità dei suoi rami.
Gli sviluppi attuali degli studi delle reti hanno avuto avvio alla fine degli anni Cinquanta del Novecento, quando i matematici Erdös e Rényi hanno descritto una rete topologicamente complessa con un grafo random; è seguita poi una fitta serie di nuove definizioni, approfondimenti e tassonomie delle reti, grazie agli studi negli anni Sessanta e Settanta dello psicologo Stanley Milgram (gradi di separazione) e del sociologo Mark Granovetter (legami forti, legami deboli e “ponti sociali” in una rete); e poi, negli anni Novanta, dei matematici Duncan Watts e Steve Strogatz (small world networks) e dei fisici Réka Albert e Albert-Lázló Barabási (reti scale free, o a invarianza di scala, descritte da una legge di potenza).
Mark Buchanan nel suo “Nexus” racconta come l’analisi di casi concreti sia stata alla base di tutte le teorie attuali.
Ecco un passaggio dedicato allo studio della rete sociale che comprende tutti gli esseri umani sulla Terra, un “cerchio di 6 miliardi di punti della popolazione mondiale, dove ciascun individuo è connesso con i 50 a lui più vicini. Nella rete ordinata, i gradi di separazione sono circa 60 milioni di passaggi per andare da una parte all’altra del cerchio. Se invece si introducono alcune connessioni casuali, il numero di passaggi diminuisce sensibilmente. Secondo i calcoli di Watts e Strogatz, se la percentuale di nuove connessioni casuali è anche solo di 2 su 10.000, i gradi di separazione scendono da 60 milioni a 8 (…) Nel contempo le connessioni casuali, essendo così poche, non hanno effetti rilevabili sul coefficiente di aggregazione locale, che rende le reti sociali quello che sono” (pag.59).
E un passaggio dedicato alla verifica nel concreto della proprietà di resilienza delle reti small world: “La trasmissione rapida ed efficace dei segnali è il beneficio più ovvio ed elementare della struttura di piccolo mondo (small world network, n.d.r.). Ma ce n’è anche un altro. Come ha osservato Mark Granovetter, i nuclei di relazioni che si creano in un gruppo di buoni amici consentono che, se anche alcuni elementi fossero rimossi dalla rete, gli altri resterebbero strettamente connessi. In altre parole, in una rete dotata di nuclei di relazioni locali la perdita di un elemento non induce la frammentazione in parti sconnesse” (pagg.72-73).
L’analisi della struttura delle reti
Gli indicatori ‘fondamentali’ che si possono utilizzare per valutare le caratteristiche strutturali di una rete sono due: la “lunghezza caratteristica”, che rappresenta la media dei percorsi minimi che servono per passare da un qualsiasi nodo della rete a qualsiasi altro (“gradi di separazione”); e il “coefficiente di aggregazione” o di clustering, che quantifica l’idea di “vicinato”, misurando in media quanti dei vicini di un nodo sono a loro volta vicini tra di loro.
Oltre a questi due principali, ci sono molti altri parametri e indicatori (tutti misurabili) che aiutano a evidenziare le proprietà delle reti che dipendono dalla loro strutturazione, con andamenti descritti quasi sempre da una ‘legge di potenza’ invece che dalle ‘gaussiane’ a cui ci ha abituato la statistica. Utilizzando questi strumenti, si sono costruiti modelli matematici sofisticati di reti a una o più dimensioni.
Buchanan a questo proposito riporta molti esempi di intuizioni nate dall’analisi della rete digitale: “I fratelli Faloutsos studiarono lo stato della rete nel 1998 (…) dalla curva risultava che tra nodi e connessioni vi era un rapporto molto semplice, ossia che la distribuzione seguiva quella che i matematici chiamano ‘legge di potenza’: ogniqualvolta il numero di connessioni raddoppiava, il numero di nodi con quel numero di connessioni diminuiva di cinque volte. Questa semplice relazione vale sia per i nodi con poche connessioni sia per quelli che ne hanno molte centinaia (…) la legge di potenza, nella sua semplicità, fa pensare che, per quanto casuale e accidentale sembri la mappa di Internet, vi sia in essa un ordine nascosto. E lo stesso tipo di ordine si rileva anche altrove…” (pag.95).
E più avanti scrive: “Internet e il World Wide Web (…) si qualificano come piccoli mondi (…) perché hanno alcuni elementi dotati di innumerevoli connessioni. (…) Per capire una rete non basta sapere se sia o no un piccolo mondo. Se il primo passo verso la decifrazione delle reti irregolari e complesse fu la scoperta compiuta da Watts e Strogatz, il secondo consiste nell’aver saputo capire quanto siano importanti gli hub (nodi che hanno quantità enormi di connessioni, n.d.r.) e quanto sia rilevante il fatto che la distribuzione delle connessioni segua la legge di potenza” (pag.99-100).
“Barabási e Albert simularono ripetutamente al computer il processo di crescita (di una rete, n.d.r.), generando innumerevoli reti (…) Per quanto variassero (i parametri, n.d.r.) constatarono che nessuna delle modifiche era rilevante a lungo termine. Le reti in espansione mostravano sempre la stessa struttura di base: erano tutte piccoli mondi con pochi gradi di separazione. Avevano anche un’elevata aggregazione, con gli hub propri delle reti reali. C’era anche la ciliegina sulla torta. Studiando la distribuzione degli elementi secondo il numero di connessioni, Barabási e Albert individuarono la consueta legge di potenza…” (pag.131).
Riepilogo dei concetti chiave ed esempi di applicazioni
La rete scale free (a invarianza di scala) è una struttura caratterizzata da pochi nodi con tantissimi legami (gli hub) e molti nodi con pochi legami. In queste reti, tipiche del mondo della biologia e della sociologia, e in particolare di Internet e del Web, il numero di legami di ciascun nodo è governato non dalla distribuzione gaussiana, caratterizzata da una media ben definibile, ma da una legge di potenza. Il meccanismo che le origina è semplice e si basa su due principi: “crescita” e “preferential attachment”.
Per esempio, nel caso del World Wide Web si può osservare che chi apre un nuovo sito (principio della crescita), per renderlo visibile lo connette con gli hub più popolari (principio del preferential attachment), come i social network o i motori di ricerca; in questo modo, senza che nessuno lo abbia imposto, il nuovo sito andrà ad aumentare il numero di link degli hub più ricchi.
In realtà però gli studiosi delle reti nei loro modelli tengono conto anche di molte altre variabili:
nel caso del Web, per esempio, vengono considerati fattori preferenziali o punitivi come l’età dei nodi preesistenti, la loro attrattività estetica e funzionale, gli eventuali limiti nel numero di link accettati dagli hub.
In questo modo si realizzano modelli matematici e si eseguono simulazioni che permettono di capire se una rete: a) favorisce la diffusione di segnali positivi (per es. notizie) o negativi (virus); b) gode di velocità buona, modesta o cattiva nel collegare punti distanti; c) è facilmente o difficilmente distrutta da attacchi casuali o da attacchi mirati; d) riesce a crescere adattandosi con pericolo lieve o elevato di collasso; e) ha capacità di resilienza, di auto-aggiustamento dopo un attacco esterno; f) ha capacità di creare velocemente o lentamente, con fluidità o rigidità, nuove tendenze, nuovi fenomeni o nuove configurazioni auto-organizzandosi dal basso, senza leader, nella logica bottom-up.
Mark Buchanan nel suo libro presenta molti esempi concreti di applicazione di questi princìpi a problemi reali. Uno per tutti: la scelta delle strategie anti-epidemie basate sull’analisi della struttura della rete sociale attraverso la quale si diffonde il contagio: per agire in una tipica rete scale free, si deve agire sui suoi hub in modo da far emergere una soglia critica sotto cui mantenere la malattia per non farla espandere in maniera esplosiva. Parlando dell’Aids e della sua rete di contagio, Buchanan scrive: “per combatterla efficacemente ci si dovrà concentrare sui connettori (…) Supponiamo che sia possibile per esempio identificare tutte le persone che negli ultimi due anni hanno avuto più di 25 partner sessuali: è una definizione plausibile dei connettori della rete di relazioni sessuali. Se si riuscisse a immunizzare questo numero limitato di individui con i farmaci o con l’educazione alla prevenzione, in pratica i connettori non farebbero più parte della rete, sicché questa smetterebbe di essere una ‘rete piccolo mondo aristocratica’ (con hub molto forti rispetto a tutti gli altri nodi, n.d.r.) e tornerebbe ad avare un punto critico (quello che abbiamo chiamato ‘soglia critica’ qui sopra, n.d.r). In teoria, si potrebbe bloccare in questo modo l’Aids…” (pag.220).
In conclusione
“Nell’ambito sociale, insomma, la rete piccolo mondo sembra un positivo miscuglio di aggregazione e di legami deboli. L’aggregazione favorisce un denso tessuto sociale e la formazione di capitale sociale, che a sua volta incoraggia l’efficacia del processo decisionale.
Nel contempo i legami deboli tengono tutti gli elementi della rete vicini, in senso sociale, al resto della comunità, anche quando questa è molto grande, il che permette al singolo di accedere ai vari beni e dati della vasta organizzazione in cui la comunità è inserita.
Forse bisognerebbe dare alle aziende e alle comunità la struttura organizzativa del piccolo mondo. In effetti, si ha sempre più la sensazione che il piccolo mondo stia tentando di dirci qualcosa di importante sul modo di vivere in un mondo complesso.
Al centro del concetto di piccolo mondo sta l’idea che il troppo ordinato e il troppo familiare siano altrettanto negativi del troppo disordinato e del troppo nuovo, e che vada trovato il sottile equilibrio tra i due estremi” (pag.254).