• Non ci sono risultati.

Emergente come predicato di processi

Per la seguente esposizione sul quadro generale dell’emergenza nello studio dei sistemi complessi, vale la pena sottolineare il testo di Philippe Hune- man, Emergence Made Ontological? Computational versus Combinatorial Approaches.131 Questo testo risulta particolarmente rilevante per l’argomentazione

complessiva di questa tesi, in quanto presenta dei requisiti di adeguatezza che il concetto di emergenza deve riuscire a rispettare, in modo da poter essere un concetto ben definito in filosofia della scienza. Da una parte abbiamo il req- uisito di adeguatezza scientifica, ovvero il nostro concetto di emergenza dovrà risultare coerente con la gran parte della pratica scientifica. Dall’altra, ab- biamo il requisito della non-banalità, questo risulta, almeno in parte, chiara- mente evidente in quanto, se emergente significa davvero qualcosa, lo farà in riferimento alla questione dell’innovazione e conseguentemente non potrà essere un predicato che viene istanziato banalmente.132

131[HH08].

Partendo da queste considerazioni fondamentali, Hunemann si spinge oltre e propone di considerare una distinzione che ritengo sia di importanza fondamentale nella presente argomentazione. Può essere sufficiente consider- are come la questione dell’emergenza è sempre stata affrontata, da un lato, in riferimento alle proprietà di sistemi, mentre dall’altro, il fulcro era più sulle relazioni tra il tutto e le parti. Questa visione che ha sicuramente pre- dominato nella letteratura accademica è quella che viene definita emergenza combinatoria. Essa tuttavia risulta ormai essere obsoleta e non più adeguata alla pratica della scienza moderna, in quello che segue andremo quindi a con- centrarci su una definizione più aggiornata di emergenza, che tenga conto degli sviluppi più recenti in informatica e teoria dei sistemi complessi.

Gran parte dei fenomeni che ci troviamo di fronte nella realtà, ingorghi di traffico, mode, temperature e cromosomi, esibiscono un comportamento che non è spiegabile tramite ulteriori considerazioni riguardanti il comporta- mento delle singole parti e sono perciò stati considerati come comportamenti emergenti; nei quali l’emergenza è considerata essere qualcosa di proprio del tutto ed irriducibile alle sue parti. Vediamo però come questo approccio non riesce a soddisfare il criterio di non-banalità, in quanto l’irriducibilità, costruita come irriducibilità delle proprietà del tutto alle proprietà delle parti verrebbe soddisfatta troppo spesso e risulterebbe troppo triviale per rappre- sentare fedelmente il fenomeno dell’emergenza. Ci basti pensare che un sec- ondo un approccio ingenuo, la caratteristica dell’emergenza si applicherebbe a qualsiasi proprietà al di fuori della massa, e questo non può rappresentare un criterio affidabile per identificare l’emergenza. Seguendo questa linea di ragionamento siamo quindi rimasti senza un criterio oggettivo per identifi-

care quella caratteristica propria dei sistemi complessi ma che non può essere trattata al livello di proprietà emergenti. Questo ci conduce ad una conclu- sione largamente condivisa, ovvero che se ‘emergenza’ significa qualcosa, deve essere in riferimento all’emergenza epistemologica.

Questo ci riporta alla definizione di emergenza debole coniato da Be- dau,133 secondo questa definizione lo stato di un processo computazionale è

debolmente emergente se e solo se non esiste nessuna scorciatoia per raggiun- gere quello stato altro che la simulazione dell’intero sistema. Ciò ha definito in certo senso le basi di un criterio di incomprimibilità dell’emergenza.134

Questo approccio evita quel problema sottolineato nel paragrafo precedente, in quanto va a riabilitare il concetto di emergenza, se non anche sul piano ontologico,135 portandolo almeno sullo stesso piano di oggettività delle verità

concettuali della matematica, indipendenti dalle nostre capacità cognitive o scelte epistemiche. Tuttavia si potrebbe obiettare che il nostro criterio di in- comprimibilità è soltanto provvisorio, dato che non possiamo essere certi che in un futuro prossimo, in cui le capacità computazionali sono notevolmente aumentate, non si riesca a trovare delle scorciatoie algoritmiche per arrivare allo stato finale di un sistema più velocemente che tramite la simulazione. Esistono però delle considerazioni le quali portano a pensare che una simile obiezione sia destinata a fallire.

L’argomento riportato di seguito è estratto dal lavoro di Buss, Papadim- itriou e Tsisiklis del 1992.136 L’idea che sta alla base è di costruire un insieme

133[Bed97]. 134[HH08].

135Vedremo successivamente come il concetto di processo tornerà in gioco con Sellars e

come esso risulti fondamentale anche sul piano ontologico.

di automata i cui valori cambiano secondo una regola globale R, la quale è dipendente dal valore di ogni automata (0,1) dell’insieme, al tempo t. La funzione che genera l’input per gli automata al tempo t + 1 è determinata dalla regola globale; ne risulta quindi un sistema completamente determin- istico. Senza perderci nei dettagli della scelta della regola globale, ciò che ci interessa di più è quello che viene dimostrato nell’articolo: il problema di predire lo stato di un sistema al tempo t è Pspace-completo.137 Questo im-

plica che siamo di fronte ad un problema che non può essere risolto in tempo polinomiale, dato che i problemi NP sono inclusi in Pspace, così che essere Pspace-completo implica che tutti i problemi NP possono essere ridotti ad esso e questo lo rende quantomeno più difficile di un NP-completo.

Questo risultato illustra perfettamente come alcuni sistemi computazion- ali siano oggettivamente incomprimibili; nelle parole dell’autore:

Se il problema della previsione è Pspace-completo, questo significa essenzial- mente che il sistema non è facilmente prevedibile, e che sembra non esserci una previsione migliore che della simulazione stessa.138

Ciò che deve fare riflettere è che non abbiamo un criterio che verrà influenzato dalle nostre possibilità o capacità, perché anche con illimitate capacità di cal- colo rimarrebbe comunque una differenza sostanziale tra i problemi Pspace- completi e gli altri, così da rendere oggettiva la definizione computazionale di emergenza o di emergenza debole.

Quello che abbiamo concluso, oltre ad aver dato basi più solide all’emergenza debole, è che il predicato di emergenza si applica a processi piuttosto che

137Vedi la sez. 5.1.

alle proprietà dei sistemi. Inoltre, la nozione di emergenza computazionale, racchiusa nel concetto di incomprimibilità, soddisfa entrambi i requisiti di non-banalità e di adeguatezza scientifica meglio dell’approccio combinatorio. Infine ritengo che questa visione dell’emergenza rispecchi anche le nostre in- clinazioni linguistiche rispetto all’uso che facciamo di emergenza dei processi. Nella prossima sezione vedremo come i vari concetti chiave presentati fino ad ora, emergenza, fisica e computazione, siano in realtà interconnessi. Utilizzeremo i CA e la teoria dei sistemi complessi come un fil rouge, per collegare concettualmente queste diverse aree di indagine e indagare sulle similarità strutturali e metodologiche. Infine ci ricongiungeremo con Sellars e andremo a vedere come, alla luce delle considerazioni proposte, questo au- tore ci possa suggerire una possibile alternativa per mantenere una coerenza ontologica ed epistemologica tra le varie aree di indagine scientifica.

6

Emergenza, fisica, computazione e informazione

Nel percorso seguito da questa tesi, abbiamo toccato almeno quattro materie fondamentali, le quali potrebbero apparire, a prima vista, come dei nuclei autonomi: emergenza, computazione, teoria dell’informazione e fisica. Ab- biamo visto però come ‘computazione’ è qualcosa che un computer fa, e che non è altro che un modo di chiamare quell’ambito più generale di manipo- lazione dell’informazione chiamato information processing. Inoltre, abbiamo sottolineato il fatto che sono sempre dei sistemi fisici a compiere questa com- putazione, ciò implica che si necessita di una conoscenza adeguata della fisica

per poter manipolare un computer. Questo fatto rende il connubio di fisica, con teoria dell’informazione e computazione, meno azzardato di quanto non possa inizialmente sembrare. Infine il fenomeno dell’emergenza, il quale ci porta a rafforzare l’idea che queste quattro diverse aree di indagine siano connesse in un modo fondamentale, per quanto ancora indefinito. Allo stesso modo in cui si stanno espandendo i limiti e i confini di quella che abbiamo chiamato la teoria dei sistemi complessi, le disparità tra queste quattro ma- terie apparentemente disconnesse si vanno sempre più sfumando. Quello che però ci deve colpire di più è che all’aumentare della nostra conoscenza nel campo della complessità, o meglio, più entriamo in sintonia con questa nuova visione del mondo, meno saranno affidabili le nostre vecchie definizioni dei concetti base su cui questa visione è costruita. Questo rimanda decisamente al processo di affinamento dell’immagine scientifica di cui ci parla Sellars,139

la quale un giorno dovrebbe essere in grado di emergere come l’unica e vera immagine del mondo.

Quello che vorrei risultasse chiaro da questa sezione è come gli studi che sono stati fatti negli ultimi trent’anni, ma specialmente quelli fatti negli ul- timi dieci anni, suggeriscono che il collegamento tra la fisica, l’informazione, la computazione e l’emergenza sia qualcosa di più di una moda passeggera, e rappresenti invece un punto chiave che racchiude degli indizi fondamen- tali di come funziona il nostro universo. In questa sezione vedremo quindi come i CA, o quantomeno i concetti che essi incarnano, possano formare un’architettura teorica solida per tentare di spiegare quale sia la vera strut- tura soggiacente alla realtà.

6.1

CA come emblema di un cambio di paradigma

Risulta effettivamente difficile scambiare i CA per altro, rispetto a ciò che essi sono: nel migliore dei casi, approssimazioni discrete dei processi sottostanti a sistemi continui, il cui studio può far luce sul comportamento di questi sistemi; nel peggiore, modelli puramente astratti, i quali, nonostante non simulino niente di reale, rimangono dei concetti fondamentali per compren- dere meglio fenomeni come quello dell’emergenza. Consideriamo però cosa i CA rappresentano in un senso ancora più generale, ovvero come approccio concettuale al creare modelli in generale. Tutti i CA posseggono e servono come prototipi concettuali per almeno tre dinamiche distinte o proprietà di sistemi:140

• l’informazione è localmente finita.

• l’informazione è processata e comunicata localmente.

• la manipolazione dell’informazione (che potrebbe essere localmente molto semplice) procede in modo parallelo, attraverso una grande rete di nodi interconnessi capaci di processare informazione.141

Ognuna di queste caratteristiche, se prese in considerazione all’interno di un contesto più ampio e reinterpretate come assiomi costitutivi di una teoria più fondamentale, hanno importanti conseguenze di ampia portata.142

140[Ila01], p. 606.

141Per la classe di CA che hanno regole reversibili, potremo aggiungere anche un ulteriore

dinamica: l’informazione viene conservata.

Thomas Kuhn, nel suo lavoro più influente in filosofia della scienza, The Structure of the Scientific Revolution,143 usò l’espressione ‘cambio di paradigma’ per descrivere ciò che accade quando si stabilisce che una nuova visione del mondo che sia destinata a rimmpiazzare quella vecchia. Ciò che risulta più interessante, a parte l’accuratezza storica dell’uso di tale espres- sione, è la scelta della parola paradigma, la cui origine greca aveva il signifi- cato di struttura, schema o pattern, in quanto essa rappresenta infatti quegli schemi di credenze che una società usa per organizzare sé stessa. Questo termine si adatta quindi particolarmente bene in quanto, da una parte sug- gerisce come i CA sono diventati il punto focale di un cambio di paradigma, e allo stesso tempo, ricordarci qual è l’essenza di questo cambio: l’emergenza di ordine, schemi o strutture, a partire da una apparente casualità soggia- cente. Risulta in effetti impossibile negare che i CA siano ormai al centro di due cambi di paradigma separati ma parimenti importanti.

Visione riduzionista del mondo =⇒ Visione olistica del mondo: un allontanamento dalla credenza, fin troppo a lungo mantenuta, che i sistemi complessi richiedono delle dinamiche sottostanti altrettanto complesse, verso la nuova nozione che la complessità in sé è un fenomeno emergente/olistico che spesso scaturisce dalle interazioni tra un insieme di parti semplici. In questo senso, non è più sempre possibile isolare le variabili che ci forniscano una scorciatoia per ottenere un determinato risultato, l’alternativa che ri- mane è cercare di fornire un quadro più generale in cui vanno tenute in considerazioni le dinamiche e i processi locali tra i vari componenti.

Fisica e informazione =⇒ Fisica dell’informazione: un presa di dis- tanza dalla convinzione, ormai antiquata, che la fisica e la computazione fossero connesse solo per quei casi in cui i computer venivano usati per ri- solvere alcuni problemi di fisica, verso la nuova concezione per cui fisica ed informatica sono intimamente e profondamente interconnesse.

Una prova del primo cambio di paradigma, e probabilmente la più convin- cente, viene dal nuovo campo di indagine della vita artificiale o Artificial Life,144 il quale concerne il principio fondamentale della vita stessa.145 La domanda principale a cui si cerca una risposta, è se la vita sia possibile solo nella sua, per ora unica forma conosciuta, ovvero, quella biologica.

Il secondo cambio di paradigma, che sarà al centro dell’analisi, riguarda entrambe le facce della relazione tra fisica e computazione. Tutto ciò segnala un momento, storico culturale, in cui i fisici hanno iniziato a riconoscere che, non solo la fisica ha molto da dire sull’informatica, aiutando a capire i limiti fondamentali della computazione, ma che, in special modo, anche la comunicazione e l’elaborazione dell’informazione possono chiarire aspetti fondamentali della fisica fondamentale. Questo secondo punto, sicuramente anche più provocatorio, aumenta la sua importanza quando la distinzione tra simulare le proprietà di un sistema e riprodurre il comportamento di esso, diventa sfumata. Vale la pena riportare un passaggio dello stesso Ilachinsky che risulta utile per chiarire meglio questi due aspetti fondamentali:

Come l’AL cerca di dare una risposta alla questione di se la vita è una

144Mi riferirò a questo campo di studi con l’acronimo AL. 145Vedi ad esempio il lavori di Langton, [Lan89].

proprietà emergente dell’organizzazione della materia e non una semplice in- carnazione della sua sostanza, allo stesso modo si potrebbe dire che lo scopo di una fisica finitaria è di capire se la fisica, o quello che chiamiamo ‘realtà, è fondamentalmente una proprietà dell’organizzazione dell’informazione pi- uttosto che una manifestazione delle interazioni tra materia e materia.146

Nella prossima sezione andremo ad affrontare delle considerazioni più par- ticolari per quanto riguarda l’ambito di fusione tra fisica ed informatica. In particolare, ci soffermeremo, prendendola come esempio, sulla teoria di Stonier del 1990, Information and the internal structure of the universe: an exploration into information physics.147