Bioinformatica ed Intelligenza Artificiale

5 luglio 2004
Ignazio Licata

In termini generali, l’intelligenza può essere definita come la capacità di connettere in un quadro concettuale unitario una serie di dati, in modo da formare un frame dove ogni elemento è legato ad un altro in una sequenza suscettibile di giustificazione razionale ed aderente a dati osservativi in modo inter-soggettivo. Utilizzando una definizione volutamente "ampia", è possibile trovare una nuova e più moderna accezione dell’IA, come la disciplina dei modelli formali di produzione della conoscenza.

Abbiamo più volte sottolineato come questa concezione dell’IA rappresenta il suo aspetto autenticamente innovativo rispetto alla vecchia idea di "macchina intelligente", in voga nel primo periodo "promozionale" dell’IA "forte". Anzi, la possibilità di considerare interazioni uomo-macchina sempre più flessibili ed efficienti dipende proprio dalla capacità degli scienziati cognitivi, di fornire buone teorie sul modo di procedere della mente umana.

Una disciplina che in questi ultimi anni chiama in causa l’IA nei suoi aspetti teorici ed applicativi è la biologia. Sotto il profilo teorico sono state proprio le difficoltà a far rientrare la biologia all’interno di un approccio riduzionistico, a guidare anche lo studio della mente verso la nozione di apertura logica, ossia l’insufficienza di poter comprendere le strutture viventi- e dunque anche i processi cognitivi- considerando soltanto l’apertura termodinamica; è necessario invece considerare i molti livelli di interazione sistema-ambiente ed il gioco di vincoli legati all’inter-relazione tra i due. I fenomeni genuinamente emergenti, non riconducibili ad una semplice "somma" lineare delle parti in gioco, hanno a che fare con un livello molto alto di apertura logica, in grado di considerare esplicitamente il gran numero di stimoli-risposte di un sistema biologico situato in un ambiente. Un esempio si trova nella robotica evolutiva, dove il "sistema cognitivo" del robot cresce in complessità man mano che l’interazione con il mondo diventa sempre più ampia, fino a produrre comportamenti impredicibili a partire dall’analisi dello stato iniziale robot + mondo.

Un tentativo teorico interessante di cogliere questi aspetti peculiari dei sistemi viventi è stato fatto da Maturana e Varela con la loro teoria dell’autopoiesi, centrata su due punti fondamentali:
1) il vivente è una forma di organizzazione caratterizzata da relazioni a più livelli tra gli elementi che costituiscono il sistema;
b) un sistema vivente ha un hardware in grado di sostenere tramite dissipazione ed accrescimento della struttura materiale i vari livelli di organizzazione.

E’ interessante notare la convergenza tra questa visione e la nozione di apertura logica, poiché è ben rimarcato che un processo vivente non è la sua struttura materiale, ma questa piuttosto è il "supporto" di una complessa rete di relazioni dinamiche.
Queste teoria oggi sono messe alla prova dal gran numero di dati sperimentali che costituisce il "cuore" della biologia moderna, e che è esemplificato dalle varie aree in rapida espansione, le cosiddette "omics": genomics, proteomics, metabolomics, e così via. In tutti questi casi si pone il problema di comprendere in che modo un sistema, ad esempio il DNA, è funzionalmente connesso ad altri sistemi, come la rete di interazioni proteiche, e questi ultimi, a loro volta, sono aspetti di reti ancora più complesse, come i processi metabolici.

Ogni modello matematico "chiuso", per quanto raffinato esso sia, che non tiene conto di questo "interfacciamento" tra sistemi diversi, è destinato a successi parziali che progressivamente possono trasformarsi facilmente in false piste. Come è stato notato da Leroy Hood e Hwa Lim, oggi la biologia sta passando da una fase di acquisizione di dati a quella dell’organizzazione degli stessi in contesti teorici coerenti; passo necessario anche dal punto di vista di applicativo, che richiede lo sviluppo di nuovi strumenti di lavoro teorici.

In questa attività l’informatica ed i modelli computazionali sono chiamati a più livelli, assieme ad un approccio sistemico-cibernetico più maturo. Si tratta essenzialmente di studiare dei flussi informativi distribuiti tra domini diversi e questo rende necessaria una mentalità inter-disciplinare assai raffinata. Si pone il problema delle banche dati, dei motori di ricerca e di linguaggi più "agili", in grado di selezionare velocemente il tipo di dati, in relazione non soltanto all’oggetto studiato, ma soprattutto al contesto in cui questo è significativo. Codesto problema è strettamente connesso con quello ben noto in informatica della "composizionalità", ossia la possibilità di definire la semantica di una proposizione "composta" in termini della semantica dei suoi elementi e così via in una catena top-down fino agli elementi atomici, senza ambiguità.

Abbiamo visto che le nozioni di apertura logica ed emergenza rende insoddisfacente questa definizione riduzionista di composizionalità, e questo ha stimolato nuovi indirizzi di ricerca nello sviluppo di linguaggi di programmazione, manipolazione e simulazione orientati agli oggetti. Ad esempio, la possibilità di definire nuovi "profili" in ULM (Unified Modeling Language), ha reso il linguaggio interessante nel modellare i processi biologici e ideale per supportare dei modelli matematici molto promettenti in questo tipo di studi, come le algebre di processo e le reti di Petri.

Altri aspetti interessanti riguardano lo studio del folding protein, le reti neurali e la statistica.
Com’è noto, per folding protein si intende quel complesso di trasformazioni strutturali spontanee che portano una macromolecola da una struttura disordinata a quella struttura tridimensionale in cui è in grado di svolgere le sue funzioni. E’ plausibile ritenere che queste imprevedibili configurazioni dipendano in modo complesso dall’ambiente in cui la proteina è immersa. Si tratta dunque di un classico problema di apertura logica. Non esistono a tutt’oggi teorie "fondamentali" in grado di fare predizioni efficaci su queste "aggrovigliate" trasformazioni, teorie basate, ad esempio, sulle caratteristiche "microscopiche" atomico-molecolari. Bisogna dunque ricorrere a strumenti "globali" di tipo mesoscopico, basati essenzialmente su tecniche statistiche in grado di offrire una buona corrispondenza tra topologie e tempi osservati e calcolo della loro probabilità di realizzarsi.

Si tratta dunque di stabilire correlazioni tra pattern e questo è il campo d’eccellenza delle reti neurali. Ricordiamo che le reti neurali sono strumenti ideali per trattare situazioni di emergenza, infatti le "deformazioni" dinamiche dipendono dal gioco di input-output legato ai parametri della rete ed agli stimoli in ingresso. L’attività teorica e di simulazione nel campo del folding protein e delle reti neurali è oggi uno dei punti più avanzati della ricerca in bioinformatica; oltre ad essere estremamente efficace nei risultati del genere "omics", favorisce anche lo sviluppo di nuovi modelli di reti neurali e soprattutto di nuove concezioni nell’usarle.

Da un punto di vista epistemologico, infatti, si è fatta spesso una distinzione troppo netta tra teorie "fondamentali" da una parte, in grado di offrire spiegazioni dettagliate in base ad una ben definita gerarchia di conoscenza acquisite sui vari livelli della fenomenologia in studio, e modelli "galleggianti" che fanno uso di strumenti statistici, i quali suggeriscono "correlazioni" e "vanno bene finché non si trova qualcosa di meglio".

In realtà,i fenomeni di emergenza intrinseca tipici dei sistemi viventi e dei processi cognitivi ci insegnano proprio che una "teoria definitiva", un singolo modello matematico valido per ogni range, può non esistere! Ed è dunque utile fare con le reti neurali quello che la nostra mente fa ogni volta che si trova davanti ad un insieme di dati, siano essi posizioni dei pezzi su una scacchiera, punti su un grafico o comportamenti di altri agenti intelligenti: cercare correlazioni non tanto astrattamente "vere", quanto utili e feconde per una previsione o una finalità specifica.

La sinergia tra biologia ed informatica sta rivelando dunque la necessità e l’utilità di un approccio inter-disciplinare, che ha ricadute enormi non soltanto sulle discipline "di partenza" (organizzazione dei campi "omics", sviluppo di nuovi linguaggi orientati agli oggetti ed ai processi), ma anche sull’intera teoria dei sistemi complessi, di cui l’intelligenza artificiale è oggi a buon diritto assieme preludio storico e punta avanzata. Il confronto con i sistemi logicamente aperti ci ricorda che l’intelligenza non può essere "catturata" da un’unica teoria, ma è piuttosto lo studio della pluralità delle strategie cognitive in relazione all’infinita sorgente di problemi posta dal mondo.

Ignazio Licata (licata AT programmazione DOT it)

Articoli correlati

PeaceLink C.P. 2009 - 74100 Taranto (Italy) - CCP 13403746 - Sito realizzato con PhPeace 2.7.21 - Informativa sulla Privacy - Informativa sui cookies - Diritto di replica - Posta elettronica certificata (PEC)