Senza categoria

Intelligenza artificiale e concetto di “mente”

«[…] Forse siamo sulla soglia del nostro prossimo passo nell’evoluzione. Sono stati creati dei sistemi artifciali complessi che potenzialmente sono in grado di diventare autocoscienti e posseggono alcune delle caratteristiche della mente. Ma i sistemi di intelligenza artificiale (AI) non hanno ancora mostrato di aver sviluppato caratteristiche proprie della mente. Usiamo la nostra conoscienza dei processi cognitivi per creare e manipolare intelligenze artificiali. Spingendo al limite le potenzialita’ odierne e deliando cosa le intelligenze artificiali possono e non posso realizzare, possiamo definire meglio cosa sta oltre questi sistemi creati artificialmente, oltre i limiti delle attuali capacita’ di mimare artificlamente le funzioni dei neuroni. Sono caratteristiche della mente non solo quelle che non possiamo spiegare scientificamente, ma anche quelle che non possiamo ricreare artifcialmente. Esplorare i limiti  dell’intelligenza artificiale e’ un altro modo per scoprire cosa si nasconde al di la’ di essa – ovvero cio’ che noi chiamiamo mente» J. F. Pagel, The Limits of Dream (2008).

Trovo molto suggestivo questo brano di Pagel, in particolare l’idea presentata alla fine: spingerci ai limiti dell’intelligenza artificiale per vedere quello che non riesce a fare, ottenendo per contrasto una definizione degli aspetti propri della mente, gli aspetti che non si riescono a replicare, e che quindi la rendono unica.

C’e’ un punto che mi pare impreciso: Pagel parla di creare intelligenze artificiali scimmiottando i veri neuroni (nella versione originale scrive proprio: parody neurons). Non credo che questo sia corretto.

Certo, se pensiamo alle reti neurali, che sono sistemi esplicitamente progettati ispirandosi alle reti neuronali biologiche (come il cervello), in tal caso allora si’, stiamo parodiando i neuroni.

Ma non esistono solo le reti neurali! Le tecniche per sviluppare intelligenze artificiali sono molteplici, e sono basate su concetti molto distanti fra loro (e qui sparo un po’ di nomi complessi e altisonanti solo per dare un’idea: Hidden Markov Models, Algoritmi Genetici, Support Vector Machines, Particle Swarms e molti altri). L’intelligenza artificiale che regola ad esempio l’autofocus di una macchina fotografica digitale, difficilmente sara’ una rete neurale: piu’ probabilmente sara’ un algoritmo basato sulla logica fuzzy. L’unica cosa che queste diverse tecniche hanno in comune, appunto, e’ quella di generare sistemi intelligenti. Dato un set di regole per apprendere e un problema da risolvere, trovano o approssimano una soluzione.

Inoltre, alcuni aspetti propri della mente sono gia’ stati ricreati, e forse questo Pagel lo ignora. Possiamo  ovviamente cavillare per ore e ore su quale siano le precise definizioni di mente, di aspetti della mente e di intelligenza, cosa che in questa sede mi guardo bene dal fare. Restiamo sul piano pratico e facciamo un esempio concreto: una caratteristica propriamente mentale che riusciamo ad ottenere dall’intelligenza artificiale e’ la categorizzazione organizzata autonomamente. Quella cosa tanto cara ad Aristotele e Kant. Le reti neurali SOM (Self Organizing Map) hanno dati risultati eccellenti in questo senso, specialmente nell’ambito della pattern recognition, cioe’ (ad esempio) il riconoscimento di volti, lettere, scrittura in generale. Certo, le SOM sono appunto reti neurali e dunque mimano in qualche modo i meccanismi dei neuroni veri, seppure formalmente i neuroni delle SOM sono solo nodi sommatori.

Ma anche altre tecniche di AI hanno dato risultati altrettanto buoni negli stessi campi, e i principi su cui si basa la loro abilita’ di fare inferenze e’ davvero distante dai principi di funzionamento dell’intelligenza biologica.

Dunque se vedremo emergere un’autocoscienza (o altre caretteristiche attribuite al concetto di mente) in un’intelligenza artificiale, non e’ assolutamente detto che cio’ debba per froza avvenire “parodiando” i neuroni. Chissa’ che tipi di personalita’ e ragionamenti potrebbero scaturire da AI costruite con l’Iper Euristica, con le Reti Bayesiane o con la Programmazione Genetica… o ancora (piu’ probabilmente) da una combinazione di divese teniche: qualcosa di realmente  distante dal cervello umano.

5 thoughts on “Intelligenza artificiale e concetto di “mente”

  1. Pingback: Intelligenza artificiale e concetto di "mente" | Cuore, cervello e altre frattaglie ~ Heart, brain and other giblets

  2. sono sulla stessa linea di pensiero. quando si approccia l’intelligenza sintetica è chiaro che la prima ispirazione è la biologia: innanzi tutto funzioniamo secondo quelle regole e poi, avendo a disposizione il wetware, che è così carino e funziona così bene, sarebbe stupido non usarlo.

    tuttavia limitarsi a simulare il biologico sarebbe limitativo: dato che vogliamo fare un sistema che sia in grado di evolversi e “scegliere da che parte andare”, lasciamolo libero di muoversi come meglio crede. da questo punto di vista si potrebbe partire come si fa spesso nei citati problemi di classificazione: il classificatore complesso si origina “seminando” n classificatori deboli. ve la immaginate la bellezza di una ia seminata con i meccanismi di decisione classici (neuroni, algoritmi genetici, statistiche bayesiane, ecc), ma che sia in grado di ibridarle e cambiarle in maniera autonoma?

  3. Addirittura c’e’ chi pensa (e non sono pochi) che l’intelligenza e l’autocoscienza siano una conseguenza “naturale” che emerge dalla creazione di sistemi sufficientemente complessi!

  4. Nell’addirittura c’è chi pensa… mi ci metto anch’io. E aggiungo ancora una cosa più “folle”. Che intelligenza e autocoscienza “esistono” e si formano non solo se i sistemi sono sufficentemente complessi (anche perchè bisognerebbe intendersi su cosa vuol dire “sufficientemente complessi”)ma soprattuto se in quei sistemi si sviluppa il “comando” di sopravvivenza, cioè “sopravvivi ad ogni costo”, che dovrebbe poi portare allo sviluppo di “sopravvivere a se stessi” e infine a “ricerca l’immortalità o l’eternità” (più o meno come nell’uomo.
    Secondo me quando si riuscirà ad infondere questo grado di “indipendenza dall’uomo” in un IA il 99% del lavoro di creazione di un’intelligenza artificiale sarà fatto e poi basterà aspettare…come abbiamo aspettato noi per evolverci.
    SE il “meccanismo” è riproducibile ciò che non è riproducibile e che non dovrebbe avere niente a che fare con noi è l’evoluzione di questa IA…altrimenti non sarà mai un’IA completa se dipenderà dall’intelligenza umana come guida…o no?
    E quindi, per esempio, esiste tra chi se ne occupa una domanda tipo: ma noi esseri umani quando dobbiamo fermarci nello sviluppo di un IA per consentirgli di diventare IA? E’ un aspetto su cui mi piacerebbe molto sentire delle opinioni e lo stato dell’arte in merito.

  5. Pingback: La teoria di Darwin prende a cazzotti persino le nanomacchine! (grazie a un manga) « Samgha

Lascia un commento