Senza categoria

COMUNICAZIONE, EMERGENZA, APERTURA LOGICA – PARTE II (Ignazio Licata 2007)

 

 

Enrico Mitrovich “23 aprile 1943”, olio su tela 120×80, 2008

4.

Apertura Logica, Emergenza e Computazione

 

L’emergenza, ossia la “produzione di novità” dalla trama di inter-relazioni tra le componenti di un sistema (particelle, moduli, agenti, gruppi) è una nozione peculiare dell’approccio sistemico-cibernetico e ne costituisce una delle ragioni più profonde. Se infatti ogni comportamento collettivo fosse ricavabile direttamente dall’analisi dei suoi elementi costituenti la nozione stessa di sistema perderebbe gran parte della sua efficacia. Abbiamo già visto come una “teoria del tutto”, basata sullo studio riduzionistico dei “mattoni del mondo”, risulterebbe assai poco significativa per l’analisi delle strutture che possono essere costruite con quei mattoni.

Per i nostri scopi può essere sufficiente qui richiamare che si danno due modalità essenziali di emergenza:

emergenza computazionale: si tratta di quei casi in cui lo studio di un sistema permette di elaborare un modello che contempla tutte le variabili di stato significative del sistema e delle sue relazioni con l’ambiente ed è possibile disporre di una descrizione dinamica di come variano queste variabili nello spazio e nel tempo. In questo caso, in linea di principio, il modello del sistema offre la possibilità di dedurne e predirne i comportamenti tramite un opportuno procedimento di calcolo;

– emergenza intrinseca: in questo caso la comparsa di nuovi comportamenti non soltanto non può essere prevista da un modello, ma richiede la formulazione di nuovi strumenti d’analisi. Questo può avvenire perché la “complessità” del sistema è tale da non poter identificare in modo univoco ed esplicito le variabili di stato e l’interazione con l’ambiente.

Quando i processi emergenti del sistema rientrano pienamente nella prima possibilità, parliamo di modello logicamente chiuso. Nei casi di emergenza intrinseca dobbiamo invece abbandonare l’idea che un singolo modello possa “catturare” tutti gli aspetti ed i livelli significativi del sistema, ed è necessario operare delle scelte modellistiche in funzione di quegli aspetti del sistema che si vogliono studiare. Notiamo che questo è il caso esemplare, tra l’altro molto comune nell’attività scientifica più di quanto la retorica diffusa non ammetta, in cui l’osservatore fa un uso dinamico di modelli diversi[1] ed ha dunque un ruolo attivo non soltanto nella descrizione del sistema ma nella sua stessa definizione, in pieno accordo con l’epistemologia costruttivista di Maturana, Varela e Bateson. È questo il caso delle gerarchie di modelli logicamente aperti.Non ci soffermeremo in questa sede sulle diverse definizioni matematiche proposte per individuare questa classe di modelli, e ci limiteremo a dire che l’apertura del modello è una misura della complessità del sistema. Intuitivamente infatti è possibile rendersi conto che più il sistema è complesso più alto sarà il suo “costo” in termini di materia-energia da un punto di vista fisico, e più articolata sarà la sua struttura dal punto di vista logico-informazionale; da un punto di vista descrittivo tutto ciò richiederà che il modello, per aspirare ad una maggiore efficacia, tenga conto di un alto numero di variabili e vincoli secondo relazioni complesse (ad es., un forte grado di non-linearità ed un elevato numero di meccanismo di retro-azione). Tutte queste peculiarità modellistiche possono servire ad enumerare una gerarchia di modelli disposti secondo una scala di complessità crescente e dunque di maggiore apertura logica. Nel seguito utilizzeremo la terminologia “sistema ad alta apertura logica” per intendere un sistema sufficientemente complesso da non poter essere descritto tramite un modello logicamente chiuso.

È importante sottolineare che di per sé un sistema non è né semplice né complesso, ma si tratta di una scelta descrittiva dell’osservatore.

Un caso esemplare è la storia dei modelli di intelligenza artificiale “forte” (Strong AI) e più in generale del programma cognitivista, il cui obiettivo era quello di descrivere l’attività mentale come un sistema simbolico- computazionale.[2] Questo tipo di modelli hanno avuto successo soltanto in ambiti particolari, i cosiddetti micromondi (il mondo dei blocchi di Winograd, Tonfoni )[3] caratterizzati da un dominio semantico ristretto, come gli scacchi ed in generale tutte quelle situazioni in cui il “significato” degli oggetti e delle loro relazioni può essere definito attraverso un’architettura in grado di gestire in modo univoco la relazione tra il dato sintattico e le sue interpretazioni (es. i frames di Marvin Minsky).[4] Consideriamo però il caso del linguaggio naturale, storicamente importante perché gran parte del programma originario dell’IA forte, negli anni della guerra fredda, era centrato sulla possibilità di costruire un traduttore automatico dal russo all’americano. Nella comunicazione linguistica i significati di un termine non sono enumerabili in modo definitivo, poiché si modificano continuamente sia per il singolo parlante sia per la comunità. Si tratta di un tipico sistema ad alta apertura logica, dove un singolo modello può mirare soltanto a descrivere alcuni aspetti del sistema.

Nell’approccio della DAI, Distribuited Artificial Intelligence, nella robotica evolutiva e nei modelli connessionistici basati sulle reti neurali,[5] si studia il comportamento di agenti cognitivi autonomi e popolazioni neuronali in cui l’interazione può condurre a comportamenti collettivi complessi non prevedibili in base al “programma” del singolo agente o alle caratteristiche del neurone formale. In questi casi abbiamo a che fare con sistemi ad alta apertura logica. È chiaro che “descrizione” del sistema non vuol dire necessariamente forte capacità predittiva; quello che è possibile fare in genere è l’identificazione e lo studio globale di classi di comportamento, ferma restando una forte impredicibilità dei fenomeni singoli.

Queste considerazioni sono sufficienti a motivare la scelta di definire l’emergenza intrinseca come una caratteristica dei sistemi con un’alta apertura logica. I livelli e meta-livelli studiati da Bateson diventano in questo caso classi di complessità con diversa apertura logica, e – nello spirito del costruttivismo – non sono “già date” come “tipi logici” ma sono piuttosto il risultato di un’operazione di “risoluzione modellistica” operata dall’ottica epistemica dell’osservatore. Questo ci riporta ad uno degli assunti principali dell’approccio epistemologico adottato, ossia la necessità di recuperare la “complessività” del bipolo fondamentale sistema-osservatore, e possiamo dunque definire la complessità “irriducibile” come una caratteristica dei sistemi ad alta apertura logica.

Un altro modo per vedere la questione riguarda i limiti computazionali per i sistemi ad apertura logica. Un sistema di questo tipo produce nuova informazione, impredicibile sulla base di un unico modello. Dal punto di vista della Turing-Computabilità l’informazione per essere processata dev’essere codificata, in modo che ad ogni elemento del modello possa corrispondere una precisa sequenza algoritmica. Ma la caratteristica dell’emergenza intrinseca è proprio quella della comparsa di nuovi domini semantici e dunque di nuovi codici. Questo fatto è centrale anche in alcune questioni di biologia teorica relativa ai meccanismi evolutivi.[6] Ne consegue che per essere processato secondo l’approccio classico alla computazione, quello che permette ai programmi dei nostri computer di “girare”, un modello dev’essere necessariamente chiuso, deve cioè riguardare una “sezione” del sistema già completamente analizzata e codificata. Possiamo dunque costruire un modello per un fenomeno di emergenza dopo che si è già verificato, ma non possiamo predirlo!

Un esempio elementare ma efficace consiste nel considerare che nessuno è in grado di prevedere cosa penserà in un futuro prossimo, ma a posteriori è sempre possibile costruire un modello della “catena” degli atti concettuali. In altre parole, la Turing -Computabilità è più adatta ad analizzare flussi informativi già codificati, mentre nei processi di emergenza intrinseca codici e domini semantici sono “immanenti” al sistema e ne rispecchiano ad ogni istante lo stato e la sua inter-relazione con l’ambiente. Questo limite dei modelli classici di computazione ha portato recentemente gli studiosi ad interessarsi della cosiddetta computazione naturale o bio-morfa, ispirata ai processi informazionali degli organismi viventi.[7] Si tratta di modelli che in alternativa alle modalità classiche della computazione digitale prendono in considerazione flussi informativi fatti di pattern continui, soggetti a rumore ed incertezza e di tipo adattativo, volti non alla “soluzione” di un problema ma ad ottimizzare continuamente certi parametri, secondo la logica dell’evoluzione naturale.[8]

5. Scenari della Comunicazione

 

Storicamente lo studio dei processi di comunicazione è stato centrato soprattutto sui problemi della natura e della struttura del linguaggio. È accaduto per la comunicazione un fenomeno culturale analogo a quello già analizzato nel caso dell’epistemologia, ci si è concentrati non sulle radici biologiche, ma su una delle sue emergenze culturalmente più evolute.

La teoria di Maturana, Varela e Bateson ha messo l’accento sull’importanza di indagare la comunicazione come strategia evolutiva che riguarda la coordinazione comportamentale di agenti cognitivi ed i fenomeni di emergenza cui dà luogo e che, grazie alla teoria dell’apertura logica, possono essere organizzati in una gerarchia di complessità che ci permette di passare rapidamente in rassegna gli scenari generali, i temi classici ed i problemi peculiari dello studio dei processi comunicativi.

Un modello logicamente chiuso è quello di trasmissione di informazione puramente sintattica, studiato da Shannon e Weaver. In questo caso un segnale viene scambiato tra un emittente ed un ricevente attraverso una linea di trasmissione. L’idea di codice condiviso è sottointesa ed è l’unico riferimento implicito alla distinzione significato/significante, che nel modello corrisponde alla differenza tra messaggio e segnale. L’origine del modello di Shannon e Weaver è evidentemente ingegneristica, ma ha avuto il vantaggio di porre le basi per ulteriori sviluppi. Ad un livello più elaborato si pongono infatti i modelli che considerano esplicitamente l’esistenza di un contesto comune a tutti gli agenti della comunicazione, dominio all’interno del quale la comunità fa riferimento per l’adozione di interpretazioni. In questa direzione vanno gli studi di Thomas A. Sebeok e di Roman Jakobson.

Quest’ultimo, riprendendo le idee di K. Bühler, osservò che ad ogni elemento della comunicazione può essere associato un meta-livello che riguarda le funzioni comunicative. Jakobson individua sei funzioni fondamentali degli elementi della comunicazione, referenziale (contesto), emotiva (l’emittente), conativa (destinatario), metalinguistica, (codice), fatica (contatto) e poetica (messaggio). Il vantaggio dello schema di Jakobson è quello di introdurre con le funzioni comunicative l’esistenza di un nuovo livello di comunicazione sulla comunicazione. Ogni funzione apre infatti agli agenti la possibilità di intervenire attivamente sui piani e gli elementi della trasmissione di informazioni.

Più complesso è il caso in cui ogni agente sviluppa un modello del proprio interlocutore e più in generale della comunità. In questo caso dobbiamo distinguere due domini semantici, un contesto condiviso ed un contesto “privato” che è il modello cognitivo di ogni agente. La comunicazione avviene allora attraverso uno scambio di messaggi che fanno riferimento ad una duplice accezione di “significato”, quello generale e condiviso, che deriva dal contesto comune e che definiremo qui “pubblico” e quello “privato”, il cui significato viene poi generato all’interno del modello individuale. Bisogna notare che significato pubblico ed individuale possono non coincidere e persino contraddirsi. In questa categoria rientrano due problemi molto studiati ed in qualche modo strettamente connessi, quello della modellizzazione dell’utente in informatica, in cui si studia il modo per rendere più “naturale” ed user friendly il rapporto tra utente e computer con la progettazione di opportune interfacce, e la comunicazione tra utenti attraverso queste interfacce (e-mail, chat, forum, blog).[9]

Un passo avanti nella scala di apertura logica è dato dal caso in cui ogni agente usa la comunicazione per operare una trasmissione del proprio modello ed indurre gli altri elementi della comunicazione a generare gli stessi significati del proprio dominio. È questo il caso dei processi di negoziato – militare, politico, amoroso, pubblicitario – e che è stato spesso formalizzato con gli strumenti della teoria dei giochi, scegliendo uno o più parametri come misura del “successo” di quel particolare gioco che è il “mettersi nella testa degli altri”. Ad esempio l’agente può decidere di usare i livelli precedenti con strategie miste e variabili, che vanno dalla completa condivisione al mimetismo, dalla chiusura al cambiamento arbitrario ed unilaterale delle regole. In questa complessa rete di livelli interconnessi, nella capacità di ogni agente di rappresentare se stesso mentre genera mondi, è nascosta una delle chiavi per porre correttamente il problema della coscienza.[10]

I diversi gradi di apertura e chiusura si manifestano assieme in ogni evento comunicativo, rendendo lo studio sperimentale di questi processi estremamente complesso. L’interesse dei ricercatori si è dunque centrato su due metodologie che permettono in qualche modo di controllare e gestire questa complessità; da una parte ci si è concentrati sullo studio della cosiddetta “intelligenza di sciame” (Swarm Intelligence) di stormi di uccelli, sciami di insetti e branchi di vari animali,[11] dall’altra si è utilizzata la simulazione[12] in ambienti artificiali per osservare in condizioni controllate i comportamenti di agenti comunicativi con strutture interne ed in ambienti progressivamente più complessi.

6.  Artificial Life: Comunicazione nella Biologia Sintetica

Una definizione generale della vita artificiale (Artificial Life, ALife) è quella di C. Langton: programmi che si evolvono autonomamente all’interno di un computer e che permettono di riprodurre alcune caratteristiche degli esseri viventi. Questa descrizione è abbastanza ampia da poter saltare in blocco alcune delle dispute che si sono “riprodotte” nel campo dell’ALife in modo analogo a quanto già accaduto per l’AI. C’è infatti una scuola di pensiero che sostiene l’indipendenza della “logica” della vita dal suo supporto materiale (Alife “forte”) ed una Alife “debole” che rimarca l’importanza della struttura materiale della vita, quella basata sul carbonio e sui processi dissipativi, e dunque si limita a sostenere che l’ambiente artificiale è soltanto un modo comodo per esplorare in condizioni controllate alcune caratteristiche della vita. Anche qui l’epistemologia costruttivista adottata ci permette di non vedere una contrapposizione tra i due approcci, ma piuttosto un’integrazione, proprio come avviene per i modelli cognitivo-simbolici e quelli connessionistici in AI. Infatti il problema è quello di poter “controllare” la complessità dei modelli di organismo e di popolazione, e non quello di stabilirne un’ontologia astratta (A. Korzbinski, La mappa non è il territorio, citato in Bateson).[13] Il problema consiste piuttosto nell’ottenere modelli con bassa apertura logica e dunque facilmente gestibili. Questo atteggiamento può ricordare l’approccio riduzionista, ma c’è una differenza essenziale. La ricerca di modelli a bassa apertura logica nello studio dei sistemi complessi è un passo necessario per elaborare una strategia in grado di affrontare livelli di complessità maggiori, e non è vista come una “risoluzione” definitiva del problema. Ad esempio non è basata sugli agenti, ma sui loro comportamenti collettivi, e non è interessata tanto alle risposte individuali quanto ai processi emergenti; in altre parole si considera che un sistema complesso non può essere “assemblato” e “disassemblato” se non perdendo informazioni preziose sulle sue proprietà globali. Si può dire che mentre il “vecchio” riduzionismo “guardava” verso il basso ed il livello dei componenti elementari, la ricerca sui modelli a bassa apertura logica “guarda” sin dall’inizio verso le alte complessità dei comportamenti globali tramite l’idea dell’uso integrato di modelli diversi.

Una simulazione ormai storica è quella effettuata da Werner e Dyer,[14] dove una popolazione di agenti “maschi” e “femmine”, i primi trattati essenzialmente come ricevitori ciechi di un segnale emesso dalle femmine, si coordinava per ottimizzare l’accoppiamento. A dispetto della sua semplicità essenziale questo modello è giustamente famoso per aver considerato nella sua forma biologica “primitiva” uno dei segnali più attivi ed efficaci nella comunicazione, quello sessuale legato alla differenza di genere. Un passo avanti in questa direzione fu quello di considerare che un qualunque atto comunicativo ha successo se: a) favorisce il sistema sorgente ed il suo gruppo di appartenenza. Nel caso del modello di Werner e Dyer si tratta dell’accoppiamento; e b) per ottenere questo successo è necessario che l’agente comunicativo trasmetta un’informazione relativa al suo stato interno ed in grado di modificare quello del ricevente; nel modello esaminato si tratta di una forma “elementare” di “desiderio”.

MacLennan e Burghardt,[15] e successivamente Noble e Cliff,[16] idearono una popolazione di agenti detti simorgs. Questa popolazione condivide un ambiente globale, dove si propagano i segnali (es. suoni di frequenze diverse), ed ambienti locali che contengono informazioni non necessariamente condivise con altri agenti spazialmente distanti (ad es. la disponibilità o il bisogno di cibo). Dai due ambienti dipende lo stato interno del simorg e la sua risposta. Questa risposta ha due esiti possibili, emettere un segnale nell’ambiente pubblico oppure eseguire un’azione conseguente alla valutazione dei segnali ricevuti. La possibilità decisionale tra due scelte implica una memoria ed un rudimentale meccanismo di apprendimento. Si è inoltre dotato il programma di un algoritmo genetico in grado di poter effettuare cicli di riproduzione a partire da due “genitori”. Infine si incrementa il punteggio di fitness di un simorg se la sua azione risponde a quella del messaggio dell’emettitore con un vantaggio per l’ambiente locale di quest’ultimo. Sin dalle prime simulazioni si è visto l’emergere di comportamenti cooperativi di “mutuo appoggio” come effetto della comunicazione. In seguito è stato introdotto del “rumore” nell’ambiente comune, ed il risultato è stato un drastico abbassamento della cooperazione e dei punteggi di fitness. Al fine di vedere la capacità della comunicazione di evolversi e strutturarsi, usando una matrice di denotazione che registrava il numero di eventi efficaci di cooperazione in tre scenari: a) comunicazione bloccata e apprendimento bloccato; in questo caso la fitness è molto bassa, appena superiore a quella casuale. Questo corrisponde ad una situazione in cui i simorgs non possono utilizzare la comunicazione per aiutarsi a vicenda; b) comunicazione permessa ed apprendimento bloccato; in questo secondo scenario ogni atto cooperativo è unico e non si conserva memoria della procedura; la fitness è molto più alta che nel primo caso; c) comunicazione ed apprendimento permessi; la fitness non soltanto risulta molto alta, ma la matrice di denotazione registra un uso “strutturato” dei simboli, una sorta di “esperienza” a rispondere praticamente senza ambiguità a situazioni molto diverse tra loro. Il fatto notevole da notare qui non è la natura “simpatica” e “disponibile” che i simorgs ereditano dal programma creato dai loro padri artificiali, ma piuttosto il fatto che  anche un sistema di comunicazione elementare, se porta un vantaggio evolutivo, tende ad evolversi ed acquistare una struttura sempre più raffinata. In effetti è possibile dimostrare che se anche le specifiche del “programma genetico” dei simorgs fossero diverse, ad esempio basate su modalità di competizione o aggressione, il risultato sull’importanza centrale della comunicazione come fattore cooperativo in grado di evolversi non cambierebbe.

Il lavoro di Batali e Oliphant[17] è ispirato al comportamento di mammiferi che reagiscono alla presenza di un predatore con opportuni segnali per indagare più in dettaglio le correlazioni tra apprendimento e comunicazione. La comunità modellata è composta da agenti che riconoscono situazioni (significati) e possono emettere un segnale opportuno connesso ad un’azione appropriata. Ogni agente non è “cosciente” del valore comunicativo dei propri atti, come del resto i simorgs. L’attitudine comportamentale dei membri della comunità è definita per mezzo di funzioni probabilistiche quali “invio” e “ricezione”; viene poi introdotta un’accuratezza comunicativa che misura il grado di accuratezza dei processi di invio-ricezione e la loro correlazione con la risposta. Queste grandezze sono definite sia per ogni atto comunicativo bidirezionale, riguardante cioè due agenti, sia in media, sull’intera popolazione. Il punto interessante ed innovativo consiste nell’introduzione di agenti nuovi che devono costruire le proprie funzioni di invio e ricezione “osservando” il comportamento degli altri ed imparando per mezzo di una procedura d’apprendimento. Per questo sono state usate due modalità fondamentali, la Imitate-choose, che utilizza per l’addestramento invio e ricezione “medi”, tarati su tutta la popolazione, e quella detta Obverter, nella quale si usa una correlazione molto stretta e praticamente univoca tra situazione e segnale. In altre parole la prima procedura è piuttosto approssimata, ed il nuovo arrivato ha meno occasioni di apprendere, nel secondo la minore incertezza tra segnale e situazione offre la possibilità di “imparare” più velocemente. Come è possibile aspettarsi a questo punto, con la modalità imitate-choose, se il sistema ha un andamento alto di coordinazione, l’introduzione del nuovo elemento, qualunque sia il suo grado di “integrazione”, non porterà grandi sconvolgimenti, mentre se il sistema è poco strutturato, l’apprendimento dei nuovi agenti risulterà poco efficace e l’accuratezza comunicativa globale si ridurrà. Con la più vincolante modalità Obverter, l’addestramento è più “sicuro” ed in generale le configurazioni collettive diventeranno sempre più efficaci e complesse. La lezione è chiara: una comunicazione molto accurata favorisce l’addestramento e l’adozione di comportamenti molto articolati anche da parte di un sistema cognitivo elementare.

Ezequiel A. Di Paolo,[18] partendo dalla teoria di Maturana e Varela, ha concentrato la sua attenzione sulla nozione di accoppiamento strutturale e sulla relazione con l’ambiente. In particolare l’ipotesi presa in considerazione è che la comunicazione, intesa come accoppiamento tra due sistemi cognitivi, è connessa alla creazione di un dominio consensuale, una sorta di “messa in comune” dei propri stati interni. Il formalismo utilizzato da Di Paolo è quello, molto raffinato, della teoria dinamica dei giochi. Viene calcolata per ogni agente la quantità di “energia” guadagnata eseguendo la sequenza di azioni corrette su vari tipi di “cibo” a disposizione nell’ambiente, ossia “nutrizione” e “manifestazione”, i segnali legati al successo di questa. Sotto un certo livello di energia l’agente scompare, altrimenti è in grado di riprodursi sessualmente. Il gioco si svolge facendo entrare in azione un primo agente (nutrizione e segnali), e misurando gli esiti del comportamento di un secondo agente che, avendo percepito i segnali del primo, replica l’azione. Se l’emulazione ha successo, l’energia totale viene divisa tra i due agenti, altrimenti solo il primo riceverà una piccola frazione dell’energia totale. Con un gran numero di questi eventi gli agenti “imparano” a trovare cibo sul territorio e condividerlo. L’analisi e la simulazione hanno mostrato che, in presenza di precisi vincoli spazio-temporali, possono emergere comportamenti collettivi che corrispondono alla costruzione di luoghi comuni di lavoro, con “centro” e “periferie” e relativi comportamenti comunicativi. È stato anche esplorato il vincolo di azioni coordinate in modo ricorsivo tra i due agenti, con segnali diversificati a seconda del tipo di cibo, ed anche qui si è assistito all’evoluzione di forme di comunicazione assai complesse rispetto alle possibilità cognitive del singolo individuo.

In un successivo modello Di Paolo[19] ha poi indagato la coordinazione tra “robot” in grado di comunicare tra loro attraverso sensori acustici e muoversi grazie a dispositivi di movimento con i quali sarebbe stato possibile ottimizzare ricezione ed emissione. Il risultato è stato sorprendente: si sono avuti fenomeni di sincronizzazione che possono ricordare le coordinazioni dei segnali luminosi delle lucciole o i duetti antifoni tipici di alcune specie di uccelli africani. La coordinazione è adattiva, funziona soltanto sulla base di una cooperazione “alla pari”, e non può avvenire se uno dei due agenti è “silenzioso” o se si perturba anche di poco la capacità di ascolto e di auto-ascolto. Questo è sicuramente il caso più evidente di come la comunicazione sia un’emergenza sistemica in cui non soltanto il tutto è superiore alla somma delle parti, ma la cooperazione tra le parti da vita a forme diverse.

Un’ultima serie di esperimenti che vogliamo qui ricordare è quella effettuata da Luc Steels,[20] che ha messo alla prova la capacità di un “linguaggio” di svilupparsi ed organizzarsi a partire da un insieme elementare di comunicazioni relative a compiti di categorizzazione. L’idea di Steels è che esista un’evoluzione linguistica i cui tempi e modalità sono simili a quelli dell’evoluzione biologica, ma non le corrispondono, poiché il perfezionamento linguistico è basato sul successo comunicativo e non su quello riproduttivo. In particolare le regole linguistiche non sono fissate da un qualche “programma”, ma si evolvono sotto la pressione ambientale e attraverso i “giochi linguistici” descritti da Wittgenstein.

I robot di Steels sono dotati di canali sensoriali con i quali esplorare oggetti disseminati sul territorio e possono costruire dei rilevatori di caratteristiche. In questo modo posso dar vita ad un insieme di significati ancorati percettivamente sotto l’azione di un gioco discriminatorio: se la categorizzazione ha successo l’agente viene premiato, altrimenti deve costruire nuovi rilevatori di caratteristiche. In altre parole, i “sensi” del robot sono il laboratorio della sua esplorazione del mondo e i segnali un’etichetta sulle caratteristiche distintive scoperte. Se i robot hanno la possibilità di scambiarsi messaggi il lavoro di categorizzazione procede molto più velocemente ed in modo più efficace. L’esplorazione può essere rivolta anche ad intrusi, o nuovi agenti, e le simulazioni hanno mostrato anche che i nuovi arrivati apprendono il sistema di comunicazione ed imparano ad usarlo per procedere ai compiti esplorativi. L’articolazione delle caratteristiche, negli oggetti dell’ambiente e tra gli agenti, porta la comunità a sviluppare segnali composti, un lessico elementare di parole e combinazioni di queste. Emerge in tal modo un proto-linguaggio che, seppur non elaborato sintatticamente, presenta alcune delle caratteristiche del linguaggio vero e proprio, i.e. la sinonimia, l’ambiguità, la ricorrenza di espressioni composte. Tutto ciò sembra testimoniare a favore dell’emergenza del linguaggio a partire da un livello sensoriale e comunicativo elementare attraverso meccanismi di formazione di livelli superiori sempre più articolati.

7. Conclusione. Il Flauto Magico

Esiste un evidente divario di complessità tra i problemi che ci poniamo ogni giorno sulla comunicazione inter-personale e sociale e quella studiata negli esperimenti di vita artificiale. Le forme di emergenza che abbiamo esaminato, pur manifestando aspetti sorprendenti, sono tutte computazionali e descrivibili con modelli a bassa apertura logica. Resta dunque ancora aperto e ricco di sorprese il compito di una scienza del futuro che si ponga come obiettivo la piena realizzazione di una nuova Physis in grado di comprendere mente e materia come elementi dinamici di un unico scenario.

Ci sembra però che il percorso fatto somiglia ad una delle catene circolari di Bateson e ci riporta all’intuizione fondamentale dell’epistemologia costruttivista e della teoria dell’autopoiesi, la profonda unità tra vita e cognizione. Per questo abbiamo dovuto mettere tra parentesi, come dice Maturana, l’idea dell’oggettività, di un mondo che è “lì” in forme date, ed adottare una prospettiva più difficile ed entusiasmante, dove l’assenza di un fondamento diventa la base per scoprire l’importanza della comunicazione e del linguaggio come possibilità di una ecologia delle menti. Dal nuovo punto di vista, superato lo sconvolgimento della perdita di certezze illusorie, vediamo che ogni atto autenticamente culturale ci riporta alle radici biologiche dell’albero della conoscenza.

Il contrappunto ideale al sublime duetto onomatopeico di Papageno e Papagena nello Zauberflote di Mozart è l’esempio del canto di certi pappagalli africani durante il periodo di formazione delle coppie. Questi uccelli vivono in foreste molto fitte e dunque in zone oscure, dove la possibilità di un contatto visivo è molto bassa. In questo ambiente gli uccelli coordinano un canto comune come rituale di coppia che resterà loro, e non sarà trasmesso alla prole. E la melodia particolare di ogni coppia di questa specie sarà unica perché unica è la storia di ogni accoppiamento.[21]


[1] Minati, G. – Brahms, S., The dynamic usage of models (DYSAM), in Emergence in Complex Cognitive, Social and Biological Systems, Kluwer, 2002.

[2] Newell, A., Unified Theories of Cognition, Harvard Univ. Press, Cambridge, MA, 1990; Licata, I., Mente & Computazione, cit..

[3] Winograd, T., Understanding Natural Language, Academic Press, 1972; Tonfoni, G., Sistemi Cognitivi Complessi, CUEN, Napoli, 2000.

[4] Minsky, M., La società della mente, Adelphi, Milano, 1989.

[5] Pessa, E. – Penna, M. P., Introduzione alla psicologia connessionistica, Di Renzo, Roma, 1993.

[6] Barbieri, M., La teoria semantica dell’evoluzione, Bollati Boringhieri, Torino, 1985; Gabora, L. M., Self-Other Organization: Why Early Life did not Evolve through Natural Selection, in Journal of Theoretical Biology, 241 (3), 2006.

[7] MacLennan, B., Field Computation in the Brain, Univ. of Tennessee, Knoxville, Dept of Computer Science, Tech.Rep. CS-92-174, 1992.

[8] Licata, I., Verso una teoria generale dei Sistemi Intelligenti, in Neuroscienze.net, Vol. 1, No. 1, 2004.

[9] Putti, S., La dimensione interpersonale on line in Giornale Storico di Psicologia Dinamica, 55, Di Renzo Editore, Roma, 2004.

[10] Edelman, G. M. – Tononi, G., Un universo di coscienza, Einaudi, Torino, 2000.

[11] Millonas, M. M., Swarm, Phase Transitions and Collective Intelligence, in Artificial Life III, C. Langton ed., Addison-Wesley, MA, 1994.

[12] Parisi, D., Mente. I nuovi modelli della vita artificiale, Il Mulino, Bologna, 1999; Parisi, D., Simulazioni, la Realtà rifatta nel computer, Il Mulino, Bologna, 2001.

[13] Bateson, G., Mente e natura, cit., p. 47.

[14] Werner, G. – Dyer, M., Evolution of Communication in Artificial Organisms, in Langton, C. – Taylor, C. – Farmer D. – Rasmussen, S., eds, Artificial Life II,  Addison-Wesley, 1992.

[15] MacLennan, B. – Burghardt, G. M., Synthetic Etology and the Evolution of Coordinated Communication, in Adapt.Behaviour, 2(2), 1994.

[16] Noble, J. – Cliff, D., On Simulating the Evolution of Communication, in Cognitive Science Research Papers 420, ISSN 1350-3162, Univ. of Sussex, 1996.

[17] Batali, J. – Oliphant, M., Learning and the Emergence of Coordinated Communication, in Center for Research on Language NewsLett.,11(1), 1997.

[18] Di Paolo, E., An Investigation into the Evolution of Communication ,in Adapt. Behaviour, 6(2), 1998.

[19] Di Paolo, E., Behavioural Coordination, Structural Congruence and Entrainment in a Simulation of Acoustically Coupled Agents, in Adapt. Behaviour, 8(1), 2000.

[20] Steels, L., Synthesising the Origins of Language and Meaning Using Co-Evolution, Self-Organization and Level Formation, in Hurford, J. – Knight, C. – Studdert-Kennedy, M. (eds.), Evolution of Human Language, Edinburgh Univ. Press, 1997; Steels, L. – Vogt, P., Grounding Adaptive Language Games in Robotic Agents. Physical implementation of language games and meaning creation, in ECAL 97, MIT Press, 1997.

[21] Maturana, H. – Varela,F., L’albero della conoscenza, cit., p. 162.

Pubblicità

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...