COMUNICARECOME

Portale di comunicazione

e d’informazione indipendente

postmaster@comunicarecome.it

Home  -  Presentazione  -  Panoramica di lettura  -  E-mail / Contatti  -  Links  -  Newsletter

Comunicazioni di massa  -  Comunicazione d’impresa & Cultura d'impresa  -  Mission e valori d’impresa

Salute / Divulgazione scientifica - Scienza e Scienze  -  Benessere naturale  -  A tutela della natura

Arte e Letteratura  -  Socie  -  Pianeta Informatica e Multimedialità  -  Viaggi e Turismo  -  Abitare l’Incanto

Campagne, Appelli, Petizioni  -  “Salto in lungo”: storie di donne e uomini del nostro tempo  -  Fari Universali

Vetrina Publishing  -  Vetrina Iniziative  -  Concorsi e Premi  -  Spazio Solidarietà

CATALOGO-Settori >>

> Promo Libri, DVD, CD - Cerca

 

Categ. correlate >> Divulgazione scientifica >> Informatica e Multimedialità

DALL’ARCHIVIO DI COMUNICARECOME

 

INTELLIGENZA ARTIFICIALE

 

Quali indicazioni dal confronto con l’intelligenza naturale.

La “Società della Mente” e la concezione integrata di Intelligenza Artificiale.

I «sistemi esperti» in ambito medico-diagnostico, le reti neurali, gli algoritmi genetici.

Verso nuovi modelli di “Post-human”?

- di Marina Palmieri -  Info Pubblicazioni, Acqua Potabile

 

■ “Artificiale” ma non troppo. L’intelligenza umana e i suoi confini sempre più sottili fra “naturale” e “innaturale”.

«I computer possono essere capaci di pensare alla stessa stregua degli umani?»: è questa la domanda fondamentale sulla quale s’impernia, in modo sempre più vivace, il dibattito contemporaneo sull’Intelligenza Artificiale. Un dibattito, questo, che già da decenni coinvolge sul piano di un serratissimo confronto il mondo della scienza e quello della filosofia, in cui nel frattempo è confluita attivamente la disciplina della bioetica e che, oggi più che mai, oggi che la vita anche quotidiana è intrecciata con l’utilizzo diffuso dei mezzi informatici, irrompe nell’esistenza di ciascuno di noi con indicazioni, scoperte e sviluppi di grande fascino e d’indubbio interesse.

Prima di delineare alcune di quelle indicazioni, sarà utile soffermarci sul significato stesso di «Intelligenza Artificiale», ovvero sui concetti e sulle principali coordinate della sua disciplina.

 

■ Intelligenza Artificiale (IA): concetti della disciplina.

L’«Intelligenza Artificiale» (che in letteratura viene indicata con l’acronimo “AI”, dall’inglese Artificial Intelligence) è in genere definita come l’insieme di studi e di tecniche che tendono alla realizzazione di macchine, e in particolare di calcolatori elettronici, capaci di risolvere problemi e di riprodurre attività proprie dell’intelligenza umana.

Concetti sottesi a tale comune definizione di «Intelligenza Artificiale» sono, dunque, quelli di «intelligenza umana» e di «calcolatori elettronici». Più precisamente implicato nella rappresentazione di «Intelligenza Artificiale» in campo informatico è quello di «elaboratore elettronico» ossia di «computer». Ripercorriamone brevemente i significati, ai fini di una migliore comprensione delle varie distinzioni via via operate sullo stesso concetto di «Intelligenza Artificiale».

-                  Intelligenza = Adattamento attivo dell’organismo all’ambiente fisico e sociale. Nel caso dell’essere umano, viene definito “intelligente” l’individuo in grado di risolvere problemi anche riguardanti situazioni lontane nel tempo e nello spazio, utilizzando «rappresentazioni» mentali o «segni» (matematici, logici e linguistici).

-                  Intelligenza Artificiale (IA) = «L’IA è una disciplina che studia i fondamenti teorici, le metodologie e le tecniche che permettono di concepire, progettare, realizzare, sperimentare ed utilizzare sistemi artificiali sia simulati via software che implementati in hardware con gli obiettivi di ottenere prestazioni ritenute caratteristiche dell’intelligenza e di fornire modelli computazionali di processi cognitivi.» (definizione dell’I.A. secondo l’Associazione Italiana per l’Intelligenza Artificiale) (1). E ancora: «Settore di ricerca che si propone di far fare alle macchine cose che secondo l'opinione corrente richiedono intelligenza. Non esistono confini netti fra la psicologia e l'Intelligenza Artificiale, perché anche il cervello è un tipo di macchina.» (Marvin Minsky, "padre" delle teorie sull’Intelligenza Artificiale – vd. avanti per approfondimenti).

-                  Calcolatori elettronici = Con quest’espressione generica si indicano sia i calcolatori elettronici numerici, più propriamente detti «elaboratori elettronici» (vd. punto seguente), sia i calcolatori elettronici analogici che non operano numericamente, ma i cui circuiti simulano specifici fenomeni fisici, tramite variazioni di grandezze elettriche.

-                  Elaboratori elettronici, o computers = Insieme di apparati meccanici (hardware) collegati tra loro, in grado di eseguire rapidamente complesse operazioni matematiche e logiche su una quantità anche molto elevata di dati. Un computer è costituito da speciali componenti elettronici, chiamati «circuiti integrati» incisi su silicio: questo tipo di semiconduttore comprende migliaia e migliaia di transistori che controllano gli impulsi elettrici aventi la funzione di “riferire” al computer stesso cosa fare e come farlo. Il “cervello” del computer (o“cuore” del computer, come spesso lo si definisce in gergo informatico) si chiama CPU, acronimo di Central Processing Unit, unità centrale di elaborazione. Il CPU si trova in comunicazione con i dispositivi periferici (monitor, stampanti e altre periferiche) e possiede la capacità di immagazzinare informazioni sulla sua memoria. Le informazioni vengono immagazzinate sotto forma di impulsi elettrici, che sono di due tipi: aperto o chiuso, e che corrispondono ad un codice binario 1 o 0; le diverse sequenze di questi impulsi - detti «bit» - vengono immagazzinate insieme in gruppi di otto a formare un byte.

→ Elementi fondamentali per il funzionamento di un computer: memoria, CPU, programma (o software).

Prototipo di tutti gli elaboratori elettronici (gli odierni e tutti quelli sviluppati a partire da circa la metà del secolo scorso) è la cd. «macchina di Turing», un modello ideale di elaboratore automatico “universale” messo a punto nel 1936 dallo studioso Alan Turing (1912-1954).

-                  Informatica = «.. l'informatica studia il comportamento generale delle interazioni, cioè come la società di parti riesca a fare ciò che quelle parti non sono in grado di fare separatamente. Benché partita dallo studio dei calcolatori seriali, cioè di macchine capaci di fare una sola cosa alla volta, l'informatica si è sviluppata al punto da poter studiare quelle reti interconnesse di processi che devono svolgersi all'interno della società della mente(Marvin Minsky, cit.)

 

■ Verso l’integrazione Intelligenza Artificiale-intelligenza naturale.

Al di là dei termini più o meno rigidi del confronto, come quelli che vedono in contrapposizione la scuola di pensiero dell’«Intelligenza Artificiale debole» e quella dell’«Intelligenza Artificiale forte» (la prima più scettica sulla possibilità di integrazione con l’intelligenza naturale dell’uomo; la seconda, invece, decisamente più aperta e fiduciosa in merito alla medesima possibilità), è innegabile il fatto che l’Intelligenza Artificiale, in moltissime delle sue applicazioni, coadiuvi ad altissimi livelli l’intelligenza umana, fornendo a questa straordinarie possibilità di ampliamento delle sue stesse potenzialità. Nata e creata dall’intelligenza umana naturale, l’Intelligenza Artificiale restituisce a quest’ultima il suo stesso “portato di eccellenza” e, in fondo, è una vera e propria estensione dell’intelligenza umana.

Interessante, a tale proposito, anche l’evoluzione del linguaggio informatico, che in non poche espressioni gergali sta a sottolineare la tendenza a un approccio più “umanizzato” verso i vari congegni elettronici che, possiamo dire, costituiscono il “corpo” tecnologico dell’Intelligenza Artificiale. Termini ormai d’uso comune sono per esempio quelli di “cuore” del computer e di “cervello del computer”, per designare parti di vitale importanza del pc quali, nella fattispecie, quella del CPU, ossia l’unità centrale di elaborazione del computer; altrettanto ricorrente, oggigiorno, è l’uso dell’espressione “partner tecnologico”, col che, ancora, si suggerisce la tendenza al superamento di una certa visione rigidamente dicotomica fra “naturale” e “innaturale”, ovvero tra l’uomo e il prodotto culturale di cui esso stesso è capace; senza dimenticare ovviamente tutti quei termini - quali per esempio “interfaccia”, “funzione”, “manina” (parola ma anche immagine che, com’è noto, ci permette di attivare un collegamento ipertestuale) e molti altri ancora, “virus” compreso ovviamente - con i quali i vari programmi informatici via via in commercio hanno efficacemente indotto o facilitato l’utente in una sorta di familiarizzazione nei confronti del prodotto o progetto informatico stesso (argomento, questo, che, in quel grande versante dell’Intelligenza Artificiale rappresentato dal web, rientra per vari aspetti nel nutrito dibattito su accessibilità e usabilità).

Ma c’è di più, molto di più anche sullo stesso piano dell’innovazione linguistica sulla Intelligenza Artificiale, fino per esempio a impiegare un termine tanto impegnativo come quello di “personalità” per indicare il modo col quale un certo programma informatico funziona: niente di più adatto per riferirsi a linguaggi di «programmazione logica», che, basati su una complessa serie di formule di logica, attivano processi interni di deduzione; o per riferirsi alle reti neurali o, ancora, ai moderni «algoritmi genetici», ossia programmi che si modificano automaticamente (“spontaneamente” al loro interno) e che sempre automaticamente perfezionano le loro funzioni. (vd. più avanti)

Negli ultimi anni, per di più, il complesso dibattito sull’interazione uomo-macchina si è andato arricchendo di tutta una serie di nuove espressioni che, anche nel campo della bioetica riferita alle nuove frontiere dell’Intelligenza Artificiale, ci ricordano come nuove specie di “ibridazione” (ibridazione uomo-tecnica) e nuovi modelli esistenziali di “Post-human” siano già scenari aperti e perfettamente integrati con la nostra condizione umana. Per chi volesse approfondire questi indirizzi di sviluppo della teoria dell’informazione, si rimanda alle opere di due illustri studiosi e scienziati del nostro Paese: quelle di Giuseppe O. Longo (ordinario di Teoria dell’Informazione all'Università di Trieste), del quale qui ricordiamo il celebreHomo technologicus”, e quelle di Roberto Marchesini (studioso di scienze biologiche e di epistemologia), autore fra l’altro della vasta opera “Post-human. Verso nuovi modelli di esistenza”.

                                                                                                                                                                                                                                                                                                                                                                                                                                                                                

■ Cenni storici sulle antiche “macchine intelligenti” e sulle prime macchine di calcolo. Dall’abaco all’avvento della “pascaline”.

Quella di delegare compiti complessi e faticosi alle macchine non è certo un’idea dei tempi moderni. La storia offre varie testimonianze di come l’uomo, sin dai tempi più antichi, si sia ingegnato a realizzare sistemi che potessero svolgere, al meglio dell’efficienza e dei criteri di economia del lavoro, le attività di cui fino a quel momento aveva dovuto occupargli egli stesso. Stante la scelta, adottata per il presente servizio, di affrontare più in particolare le applicazioni informatiche dell’Intelligenza Artificiale, sarà sufficiente ricordare, quale macchina intelligente ante-litteram, quello strumento anticamente utilizzato per l’esecuzione di calcoli elementari, simile al pallottoliere, noto col nome di “abaco”: a lungo ne fecero ampio ricorso gli antichi popoli mediterranei e orientali (alcuni autori riferiscono che probabilmente venne inventato attorno al 5000 A.C. dai Cinesi), finché, in Occidente, l’introduzione delle cifre arabe nei secoli XII-XIII ne decretò il decadimento. Ma sicuramente interessanti, sempre per ciò riguarda la storia più antica, sono anche i vari dispositivi di crittografia automatica utilizzati per cifrare e per decifrare messaggi segreti, soprattutto nel contesto di guerre e comunque di situazioni strategiche ad alto rischio di violazione della sicurezza delle informazioni. “Padri” degli odierni e ben più sofisticati sistemi di crittografia informatica, i primi dispositivi per la scrittura segreta “a chiave” di cui ci è giunta conoscenza risalirebbero al 2000 A.C.: sostanzialmente semplici nella loro forma esterna (in vari casi si trattava di pali di legno, rotoli di pergamene e simili, previamente e specificamente “trattati” o vergati con crittografia “letterale”, basata cioè sulla sostituzione e trasposizione di lettere), nel corso del tempo vennero perfezionati in dispositivi di tipo meccanico per l’impiego di sistemi crittografici “a repertorio” (codice, cifrario), ossia di sistemi che permettevano di cifrare e di decifrare le scritture segrete cambiando sillabe, parole e frasi con gruppi cifranti fissati dal repertorio.

Quanto alla creazione di vere e proprie macchine di calcolo, si dovrà attendere il 17° secolo e la realizzazione della macchina aritmetica “pascaline”, capace di eseguire dei complessi calcoli di addizione e di sottrazione, inventata da Blaise Pascal (1623-1662); scienziato operosissimo - si dedicò assiduamente anche al calcolo degli indivisibili, al calcolo delle probabilità, alle invenzioni del torchio idraulico, come pure alla teoria delle coniche già iniziata dal matematico Étienne Pascal (padre dello stesso Pascal, passato poi alla storia anche per i suoi celebri “Pensieri” scritti nel 1670) – la sua macchina “pascaline” verrà più tardi perfezionata dal tedesco G.W. Leibniz (1646-1716) che la ottimizzò anche per l’esecuzione di operazioni di moltiplicazione e di divisione.

 

■ La nascita della moderna Intelligenza Artificiale. Marvin Minsky e la teoria della “Società della mente”.

Nel 1956, in occasione di un importante seminario dedicato ai sistemi intelligenti tenuto nel New Hampshire (U.S.A.), il matematico John McCarthy propose l’espressione "Intelligenza Artificiale" (Artificial Intelligence): fu l’inizio di un’epoca. Già da anni alcuni pionieri dell’Intelligenza Artificiale stavano lavorando a progetti che poi, nella storia della stessa I.A., sarebbero divenuti lavori imprescindibili per la conoscenza di tale disciplina. Tra questi vi era Marvin Minsky (considerato tutt’oggi come il vero "padre " delle teorie sull’Intelligenza Artificiale) il quale sin dai primi anni ’50 stava lavorando a un progetto per far funzionare gli elaboratori come se questi disponessero di intelligenza e processi psicologici di tipo umano. Nel 1951 lo stesso Minsky aveva costruito lo SNARC (Stocastic Neural Analog Reinforcement Computer), il primo simulatore di reti neurali, basato su un processo di rinforzo dei coefficienti di trasmissione di sinapsi simulate. Nel 1959, quindi dopo due anni dallo storico seminario che ufficializzò la nascita della nuova disciplina, lo stesso Marvin Minsky e John McCarthy fondarono quello che più tardi diventerà il MIT Artificial Intelligence Laboratory (Laboratorio di Intelligenza Artificiale presso il MIT), punto di riferimento essenziale per tutti gli studiosi di I.A. e di sistemi intelligenti.

Ricordiamo che Marvin Minsky (nato a New York nel 1927, matematico ma anche fine studioso di linguistica, filosofia e altre discipline) è attualmente Toshiba Professor of Media Arts and Sciences e professore di ingegneria elettronica e informatica al MIT - Massachussets Institute of Technology - e che all’attivo ha anche vari progetti di ingegneria robotica. Membro dell’American Academy of Arts and Sciences, dell'Institute of Electrical and Electronic Engineers, della Harvard Society of Fellows e della League for Programming Freedom, Marvin Minsky ha ricevuto vari riconoscimenti di altissimo prestigio scientifico e accademico, tra i quali il Turing Award, il Killiam Award (MIT), il Japan Prize, lo IJCAI Research Excellence Award, il Benjamin Franklin Medal. (2)

Uno dei testi più importanti e originali di Marvin Minsky, nonché best-seller senza uguali nella letteratura mondiale sull’Intelligenza Artificiale, è “The Society of Mind” (“La società della mente”). Il contenuto di questo libro è frutto di un impegnativo lavoro che, sin dai primi anni ’70 e assieme a Seymour Papert (altro esperto di primo spicco nel settore), lo vide impegnato nella formulazione della teoria “The Society of Mind”. L’idea proposta in questa teoria era che l’intelligenza non fosse il processo di un singolo meccanismo, bensì il risultato di un’interazione combinata tra diverse varietà di agenti (mentali), altamente specializzati e ricchi di risorse. Minsky e Papert spiegavano, nella stessa teoria, che tale varietà fosse resa necessaria dal fatto che compiti differenti richiedono fondamentalmente meccanismi diversi. La teoria della “Società della mente” presentò subito implicazioni forti per gli studi sull’attività cognitiva; pubblicata già per estratti tra il 1970 e il 1980, la stessa teoria venne ulteriormente ampliata da Minsky negli anni successivi e, nel 1985, venne data definitivamente alle stampe (il libro “The Society of Mind”, va inoltre ricordato, è composto di 270 pagine ciascuna delle quali dedicata a un’idea interconnessa con altre: un tipo di struttura che ha voluto riflettere la struttura dell’intera teoria presentata).

Qui di seguito alcune delle idee-chiave della teoria di Marvin Minsky:

Il cervello funziona in base a un meccanismo di “decentramento". La mente, più in particolare, funziona in modo simile a una società di agenti altamente specializzati, ciascuno dei quali svolge uno specifico compito, senza impegnare la mente per intero. Un esempio fatto da Minsky per spiegare come collaborino tra loro le diverse unità mentali è riassunto nell’azione quotidiana del bere un caffè, giacché tale azione richiede l’intervento di vari agenti specializzati: - gli agenti specializzati nella presa (che permette di reggere la tazzina); gli agenti specializzati nell’equilibrio (che impediscono che il caffè venga versato); gli agenti specializzati nel gusto (che invogliano a bere il caffè); gli agenti specializzati nel movimento (che fanno sì che la tazzina venga portata alle labbra). Ebbene - spiega Minsky - quando un individuo compie più azioni nello stesso momento, tra gli agenti possono generarsi dei conflitti, con l’effetto che generalmente uno degli agenti prevale sugli altri, oppure che in presenza di tensioni eccessive si produce un blocco, una paralisi, dell’intero sistema. Il fatto che una persona possa compiere più azioni contemporaneamente – e, specularmente, che non riesca più a svolgerle in caso di tensioni eccessive tra i vari agenti – viene sostenuto da Minsky con la dimostrazione che la mente è una società di agenti, in stretta cooperazione tra loro (da qui, appunto, l’espressione di “Società della mente”). Le considerazioni qui ricordate, che nell’esempio del gesto quotidiano di bere un caffè chiamano in causa le varie componenti dell’attività cognitiva umana, riguardano direttamente anche i meccanismi dell’Intelligenza Artificiale, poiché anche nel caso delle macchine intelligenti si è in presenza di vari agenti e meccanismi specializzati, ciascuno dei quali deputato a un compito specifico e che tuttavia dev’essere svolto in stretta cooperazione con gli altri.

Ancora con riferimento alle macchine, Minsky fa notare come esse, pur precise e veloci in determinate operazioni, non siano in grado di svolgere compiti che invece un comune bambino di due-tre anni può portare avanti facilmente. Questo accade perché alla macchina manca generalmente la conoscenza del senso comune, quel senso che nell’esperienza umana viene elaborato continuamente, quotidianamente, ovvero quella «immensa società di idee pratiche acquisite faticosamente, di un'infinità di regole ed eccezioni, disposizioni e tendenze, equilibri e freni appresi nel corso della vita". Tuttavia - così ancora Minsky - riuscendo a dotare le macchine di un’appropriata architettura di conoscenze, quindi di un gran numero di informazioni che contengano anche quel senso comune, pure una macchina può “apprendere” e comportarsi in maniera intelligente.

Altro tema fondamentale del lavoro di Minsky è quello riguardante la memoria, e precisamente la teoria “delle linee k” e di un agente specializzato definito “linea di conoscenza”. Tale agente viene attivato dall’individuo allorché, per esempio, questo voglia memorizzare la risoluzione di un determinato problema. Una volta attivato, questo agente si “lega” agli agenti che si sono attivati in fase di risoluzione del problema, determinando così nella mente uno stato che è simile allo stato in cui precedentemente è stato risolto il problema. Un tema, anche questo delle linee di conoscenza della memoria, che com’è noto ha trovato una sua potente applicazione nel campo dell’Intelligenza Artificiale, segnatamente nel funzionamento delle memorie dei computer, un funzionamento sempre più raffinato e sempre più complesso (vd. avanti in particolare: reti neurali, specializzazione dei neuroni, algoritmi genetici).

 

■ Il modello delle reti neurali.

La ricerca sulle reti neurali rientra in quell’indirizzo di studi sull’Intelligenza Artificiale denominato “strutturale” o “connessionistico”. Sul piano informatico, alla base dei modelli sulle reti neurali vi è l’idea che sia possibile riprodurre l’apprendimento, simulando al computer la struttura neurale del cervello umano. L’idea di costruire dei sistemi di apprendimento basati su neuroni artificiali risale ai primi anni ’40 del secolo scorso (modello neurale di McCulloch e Pitts). Il primo simulatore di reti neurali, che come già ricordato venne costruito nel 1951 da Marvin Minsky (poi fondatore del MIT Artificial Intelligence Laboratory), funzionava in base a un meccanismo di rinforzo dei coefficienti di trasmissione di sinapsi simulate: si trattava dello SNARC, Stocastic Neural Analog Reinforcement Computer, una tappa fondamentale nel campo della ricerca sull’Intelligenza Artificiale. Nel giro di circa un decennio la ricerca sulle reti neurali informatiche diede nuovi e (per l’epoca) sorprendenti risultati, stavolta sul piano dell’apprendimento. Nel 1962, infatti, il ricercatore Rosenblatt mise a punto il “percettrone”, un modello di neurone in grado di apprendere tramite esempi. Ciò che qui ci interessa maggiormente ricordare è che il modello del percettrone descriveva il funzionamento di un neurone in base a una somma degli ingressi dei suoi valori, espressi in pesi (se la somma era superiore a un dato valore di soglia modificabile, il modello restituiva “1”; se invece la somma era inferiore a quel dato, il modello restituiva “0”). Tra il 1970 e il 1980 si sviluppa notevolmente il filone di ricerca sulle reti neurali, che tuttavia dovrà cimentarsi a lungo con le difficoltà della cd. esplosione combinatoria (aumento esponenziale dei tempi di calcolo, in relazione all’aumento della dimensione di un problema). Una svolta fondamentale nel campo della ricerca neurale si è avuta con l’avvento del modello “connessionista”, che consentirebbe di ottenere diverse modalità di apprendimento a seconda del tipo di apprendimento impartito alla rete neurale. Spiega sul punto l’esperto Paola Mello (3): «In particolare, i paradigmi di apprendimento possono essere suddivisi in tre classi fondamentali: a) apprendimento con supervisione mediante esempi (Supervised Learning): un insegnante fornisce alla rete le risposte desiderate che i neuroni dovrebbero produrre dopo la fase di addestramento; b) apprendimento senza supervisione (Unsupervised Learning): i neuroni si specializzano mediante una competizione interna al fine di discriminare gli stimoli presentati in ingresso; c) apprendimento mediante rinforzo (Reinforcement Learning): alla rete viene fornita solo una informazione qualitativa sulla bontà della sua risposta; un critico valuta la risposta della rete ed invia ai neuroni un segnale di rinforzo positivo se la valutazione è buona, negativo altrimenti.»

 

■ I linguaggi di programmazione logica e gli «algoritmi genetici».

Altra tappa fondamentale della ricerca sull’Intelligenza Artificiale fu lo sviluppo del linguaggio “Prolog” (PROgramming in LOGic), creato nel 1973 nell’ambito degli studi sulla programmazione logica. A differenza di linguaggi di programmazione che funzionano in base a un modello di tipo imperativo, ossia di linguaggi che (per esempio come il linguaggio “C”) vincolano l’elaboratore a una serie di comandi molto specifici sulle operazioni da eseguire per risolvere un determinato problema, i linguaggi di programmazione logica utilizzano un complesso di formule di logica e descrivono il problema, ma senza specificare le operazioni che dovranno essere effettuate per risolverlo. Logica e deduzione sono in sostanza i due processi cardine della programmazione logica introdotta nei primi anni ’70.

Allo stesso periodo risale la messa a punto dei primi «algoritmi genetici», cioè di programmi realizzati in modo che possano modificarsi in maniera automatica e quindi possano ottimizzare altrettanto automaticamente le proprie funzioni.

 

■ I «sistemi esperti» o «sistemi basati sulla conoscenza». L’applicazione in campo medico di “Mycin”, il primo e più noto «sistema esperto».

Tra il 1970 e il 1980, parallelamente ai fitti studi sui modelli neurali, la ricerca sull’Intelligenza Artificiale fornisce nuovi risultati anche su un altro e differente versante: nascono infatti i primi «sistemi esperti» o «sistemi basati sulla conoscenza», ossia quei sistemi che - per definizione - rispondono a regole che li rendono in grado di risolvere problemi in un “dominio” limitato, ma con prestazioni simili a quelle di un esperto umano del “dominio” medesimo. Il primo «sistema esperto», o «sistema basato sulla conoscenza», risale al 1972. Venne sviluppato da E.M. Shortleffe e applicato in campo medico con lo scopo di esercitare i medici nelle diagnosi. Utilizzare un «sistema esperto» per la diagnosi permette di riconoscere determinati sintomi e, proprio in base a tale riconoscimento, di individuare possibili cause di malfunzionamento e quindi di tracciare un percorso terapeutico. Oltre che per la diagnosi (che per l’appunto costituisce uno dei principali e più tradizionali campi di applicazione di tali sistemi, a partire dalle ricerche di Shortleffe), gli stessi «sistemi esperti» sono utilizzati anche per: - il monitoraggio (il sistema segue lo sviluppo di un processo, controlla l’elaborazione dei dati e fornisce informazioni e stime sull’evoluzione del processo stesso); - la pianificazione (ottimizzazione delle risorse in base a un determinato obbiettivo e lasso temporale); - interpretazione di informazioni e segnali (i dati “in ingresso” vengono sottoposti dal sistema a un’interpretazione complessiva, che consente di riconoscere la presenza di alcune situazioni predefinite).

Caratteristica paradigmatica di un «sistema esperto» è dunque proprio la previa definizione di un dominio (dominio = problema) limitato. Ed è proprio in virtù del fatto che un «sistema esperto» sia basato sulla conoscenza di determinati dati e informazioni che appartengono a quel dominio limitato («sistema basato sulla conoscenza» è l’altra definizione usata per «sistema esperto»), che lo stesso sistema può fornire di volta in volta prestazioni simili a quelle dell’operatore umano. Simili - proprio grazie alla “condivisione” di dati e informazioni di partenza, appartenenti a quel determinato dominio - ma non uguali: il compito eseguito da un «sistema esperto» è propriamente un compito ristretto, circoscritto alla conoscenza di un dominio limitato e prestabilito.

Gli esperti di Intelligenza Artificiale ritengono che l’epoca dei «sistemi esperti» propriamente detti, cioè considerati come programmi isolati, sia prossima alla fine, a vantaggio invece di una visione (e di una pratica) sempre più integrata di diversi programmi e sistemi di Intelligenza Artificiale.

 

Verso un modello integrato di sistemi di Intelligenza Artificiale.

Oggigiorno l’Intelligenza Artificiale investe campi di applicazione fino a pochi decenni fa impensabili, inclusi quelli finalizzati a riprodurre varie funzioni umane, e in ciò rappresenta anche un settore di ricerca sempre più apparentato con la ricerca medico-scientifica. Il perfezionamento, in particolare, della ricerca sulle reti neurali ha consentito di mettere a punto dei sistemi di Intelligenza Artificiale molto potenti, le cui applicazioni pratiche consentono per esempio anche il riconoscimento del parlato e delle forme.

Al di là dei diversi atteggiamenti e dei diversi approcci implicati nel dibattito sull’Intelligenza Artificiale (campo, questo, ormai ampiamente interdisciplinare e, come già ricordato in premessa, “di confine” tra la varie scienze e discipline del sapere), piace concludere, per ora, ricordando che la ricerca odierna in questo settore sta sempre più decisamente avanzando verso la messa a punto di sistemi intelligenti capaci contemporaneamente di ragionamento deduttivo e di ragionamento induttivo e, più in generale, verso lo sviluppo di un modello “integrato” di Intelligenza Artificiale. Non più, quindi, applicazioni di I.A. a sé stanti, ma combinazione, interconnessione e ottimizzazione di diversi programmi e sistemi di Intelligenza Artificiale. È lo sviluppo, anche nel campo dell’Intelligenza Artificiale, di quella «Società della Mente» tanto ben illustrata dal “padre” storico della stessa I.A. - Marvin Minsky - e nella quale a determinare l’intelligenza è l’interazione combinata tra diverse varietà di agenti, altamente specializzati e ricchi di risorse.

 

 

 

A Riva del Garda la 17ma Conferenza Europea sull’Intelligenza Artificiale (ECAI-06)

 

A Riva del Garda, dal 28 Agosto al 1° Settembre 2006, si terrà la 17ma edizione biennale della ECAI, European Conference on Artificial Intelligence – Conferenza Europea sull’Intelligenza Artificiale. Un evento di primaria importanza internazionale nel campo degli studi, delle ricerche e delle sperimentazioni in questo settore, che offrirà ai ricercatori di tutto il mondo la possibilità di individuare nuovi sviluppi e nuove frontiere in tutti i campi dell’Intelligenza Artificiale, e che rappresenterà un Forum di eccellenza per tutti i potenziali utilizzatori delle tecniche di Intelligenza Artificiale più innovative.

La 17ma Conferenza Europea sull’Intelligenza Artificiale (ECAI-06) è organizzata dalla European Coordinating Committee on Artificial Intelligence (Comitato di Coordinamento Europeo sull’Intelligenza Artificiale) e dall’Associazione Italiana per l'Intelligenza Artificiale.

 

 

 

 

Note e riferimenti bibliografici

 

(1)     Associazione Italiana per l’Intelligenza Artificiale, http://aixia.deis-ce.unibo.it:8080/aixia/aixia.jsp

(2)     Per gli studi e le opere di Marvin Minsky si segnala: http://web.media.mit.edu/~minsky/

(3)     Paola Mello - Cfr. “Intelligenza Artificiale” / Le reti neurali – http://www.disf.org/Voci/76.asp

 

·          Intelligenza Artificiale - Periodico trimestrale dell'Associazione Italiana per l'Intelligenza Artificiale

·          La società della mente, Marvin Minsky, Adelphi, Milano, 1989.

·          Homo technologicus, di Longo Giuseppe O., Editore Meltemi, Collana Mutazioni.

·          Roberto Marchesini, Post-human. Verso nuovi modelli di esistenza, Bollati Boringhieri-Torino, collana "Saggi scientifici".

·          Eddy Carli (a cura di), Cervelli che parlano. Il dibattito su mente, coscienza e Intelligenza Artificiale.
Bruno Mondadori, Milano.

·          L'Intelligenza in Rete nascosta nel DNA, Grazyna Fosar - Franz Bludorf, Macro Edizioni.

 

 

 

------------------------------------------------------

Info Pubblicazioni:

- Bollettino Cardiologico N. 142 - Giugno 2006

------------------------------------------------------

 

<  Back to Area Divulgazione Scientifica: Selezione e Indice (articoli, servizi, interviste)

<  Back to Area Informatica e Multimedialità

 

 

 

 

 

 

 

 

▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬

 

 

▀▄▀▄▀▄▀

 

Mappa CATALOGO - Libri, DVD, CD - CERCA per ARGOMENTO e per TEMI SPECIFICI  >>>

 

Promo

Libri, DVD, CD

In evidenza:

> Scienza

 

Nuove scienze

 

 

Alcuni Titoli

Scienza

 

1)       La Scienza Perduta della Preghiera
Gregg Braden

2)       Matrix Divina
Gregg Braden

3)       La Mente è Più Forte dei Geni - (Corso DVD di 4 ore)
Bruce H. Lipton

 

::

Promo

In evidenza: > Categoria UFO

 

·          Rivelazioni da altri mondi

·          Contatti con altre Dimensioni

 

 

▀▄▀▄▀▄▀

 

 

 

www.COMUNICARECOME.it

Resp.: Marina Palmieri

All rights reserved - Tutti i diritti riservati

 

Back to Home

 

Back to Inizio pagina corrente