Artificiali e Intelligenti

di Antonio Lieto

La stupidità generale delle super-intelligenze artificiali*

Nel corso degli ultimi anni si stanno moltiplicando i casi che fanno gridare allo scalpore circa i risultati ottenuti, in vari ambiti, da sistemi di Intelligenza Artificiale (IA). 

Basti pensare al successo ottenuto di recente da IBM Watson contro il campione in carica (umano) nel gioco a quiz Jeopardy! (un gioco molto popolare negli Stati Uniti) o a quello ottenuto qualche giorno fa dalla squadra di Google Deep Mind (e dal suo sistema AlphaGo) sul campione mondiale di Go (un gioco conosciuto da oltre 2500 anni e molto famoso in Oriente).  

Tali successi - a partire da quello pionieristico di Deep Blue sullo scacchista Garry Kasparov negli anni ’90 - hanno una base comune: l'utilizzo, in contesti relativamente ristretti (quello dei “giochi” appunto**), di strategie di “intelligenza” non umane (super-umane) che fanno leva su alcuni punti di forza dei sistemi artificiali (quali, ad esempio, elevata capacità di memoria e calcolo) che sono, al contrario, scarsamente utilizzabili, e ampiamente sotto-utilizzati, dall'intelligenza umana nello svolgere attività quotidiane. 

In altre parole: le strategie di intelligenza utilizzate da tali sistemi non rappresentano un modello simulativo (ed esplicativo) delle euristiche utilizzate dagli esseri umani per svolgere lo stesso tipo di compiti. 

Uno dei principali punti deboli legati all’utilizzo di tali strategie “locali” super-umane riguarda il fatto che - sebbene i sistemi che le utilizzano riescano a battere gli esseri umani in compiti/giochi dai contorni ben definiti e in cui, come detto, le capacità di “calcolo”, memoria, e predizione giocano un fattore preponderante - essi risultano attualmente ancora poco efficaci (e assolutamente non confrontabili con le “prestazioni” umane) nel risolvere i cosiddetti “problemi della vita reale” (real-life problems). 

Tali problemi presentano la singolare caratteristica di risultare estremamente semplici da risolvere per gli esseri umani ma molto complessi per le “macchine” (si pensi, ad esempio, al problema che riguarda l'utilizzo del cosiddetto “ragionamento di senso comune” in ambienti a informazione incerta e incompleta).

Tra le cause riguardanti i limiti attuali dei sistemi artificiali in scenari reali, un ruolo di primo piano viene giocato dalla “non generalità” degli approcci utilizzati.

L’attuale sviluppo di intelligenze artificiali locali basate su euristiche super-umane, infatti, se - da un lato - permette di generare dei micro-modelli iper-funzionanti in ambienti ristretti, di converso finisce per fornire una costellazione di micro-intelligenze artificiali difficilmente integrabili tra loro - anche per problemi di trattabilà computazionale - sotto il cappello unificante di una unica architettura intelligente “generale” (vale a dire indipendente dallo specifico dominio di applicazione e in grado di “cavarsela” nelle situazioni più svariate che l’ambiente circostante propone).

D’altro canto, proprio la caratteristica di possedere una “intelligenza generale” (in grado di integrare varie euristiche locali in modo “efficiente”, dati i limiti del nostro hardware biologico, ed efficace) rappresenta una delle peculiarità della cognizione umana: si pensi, infatti, alla scarsa considerazione che avremmo di una una persona eccellente nel gioco del Sudoku ma profondamente incapace in tutto il resto.

A tale proposito, quindi, ancora oggi, a distanza di 60 anni dal seminario di Dartmouth del 1956, appare sempre più necessario per l'Intelligenza Artificiale mantenere la sua anima “duplice”. 

Essere, cioè, tanto una disciplina puramente “ingegneristica”, finalizzata alla costruzione di macchine che permettano all’uomo di vivere una vita migliore e in grado di risolvere, secondo strategie “machine-oriented”, alcuni problemi difficili per gli esseri umani, quanto una disciplina “psicologica”: rivolta, cioè, alla costruzione di sistemi che riproducano, o che quantomeno tentino di riprodurre, alcune caratteristiche cognitive dell’intelligenza umana allo scopo di poterci rivelare qualcosa in più sui meccanismi di funzionamento della nostra mente.

Sarà, poi, proprio tale attività di “svelamento” dei meccanismi che governano la nostra architettura mentale ad essere funzionale allo sviluppo di sistemi artificiali in grado di implementare ed esibire meccanismi generali di intelligenza.

 

* Articolo inizialmente apparso sul blog del corso di Laurea di Filosofia dell'Università di Urbino su invito del Prof. Vincenzo Fano (http://filosofia.uniurb.it/blog/)

** Nota: L’utilizzo e il testing di sistemi di intelligenza artificiale nell’ambito dei “giochi” è una prassi molto diffusa e foriera di importanti elementi di progresso per l’IA (nel corso dell’ultima conferenza mondiale di Intelligenza Artificiale, IJCAI, tenutasi a Buenos Aires lo scorso luglio, c’era una intera sessione dedicata al tema “Artificial Intelligence and Poker”).

AntonioLietoNova

CyC Project

Si chiama CyC, ed è uno dei più noti progetti di ricerca nel campo dell'Intelligenza Artificiale. Iniziato nel 1984 da Doug Lenat, l'idea di fondo su cui poggia consiste nello sviluppo di una ontologia esaustiva del mondo (ossia una rappresentazione formale e machine understandable di tutti i domini conoscitivi dello scibile umano) che possa permettere, alle "macchine", di eseguire modalità di ragionamento automatico sui dati in essa rappresentati e immagazzinati.

Per avere un'idea dell'enorme estensione che dovrebbe avere tale base di conoscenza basti pensare che, una volta arrivati alla sua versione "definitiva", l'ontologia di CyC dovrebbe contenere (per ogni singolo dominio conoscitivo), una quantità e qualità tale di dati e informazioni sul mondo, da poter essere assimilabile, almeno alla lontana, alla sterminata mole di informazioni immagazzinate nella nostra mente ed utilizzate per formare la nostra stessa conoscenza.

Proprio la conoscenza, o meglio: il modo in cui essa viene rappresentata in ambienti artificiali (siano essi soft-bot o automi), è uno dei punti centrali di tutta la questione. Lo scopo ultimo di progetti come quello di CyC, infatti, consiste nel permettere, a "macchine" (o, in generale, a sistemi artificiali), di compiere ragionamenti automatici "intelligenti" in modo che siano in grado di rispondere, in maniera pertinente, a richieste fatte in input da un qualsiasi altro agente (umano o artificiale esso sia). Per riuscire a raggiungere tale obiettivo, però, è necessario rappresentare le informazioni "di scambio" tra gli altri agenti del processo di interazione, in un linguaggio comune, condiviso, riconosciuto e processabile.

Nello specifico: il mondo di CyC è fatto di concetti, mentre la "sua" conoscenza è descritta, invece, da proprietà, relazioni, asserzioni ed espressioni logiche che legano concetti ad altri concetti in una rete di senso estremamente complessa e potenzialmente senza fine (il tutto formalizzato in linguaggio CyCL: un mix tra il LISP e la logica dei predicati del primo ordine).
 
Un esempio, noto, di "pezzi di conoscenza" rappresentati in CYC è dato da asserserzioni del tipo: "Ogni albero è una pianta" e "Le piante muoiono con il passar del tempo". Ebbene: ragionando su tali asserzioni, grazie ad un proprio
motore inferenziale, CyC (questa la sua abilità), è in grado di rispondere correttamente ad una query in linguaggio naturale del tipo "Gli alberi muoiono?".

Facile, dunque, immaginare, in un'epoca in cui tanto si parla di intelligent search e retrieval semantico delle informazioni, l'enorme portata di sviluppo che può avere questo progetto. L'unico, non piccolo, problema è dato dai suoi tempi di realizzazione. Lo stesso Lenat, infatti, ha calcolato, per questo sforzo titanico di ricerca, una "durata lavori" di circa 350 anni-uomo!

Nel frattempo, sperando che Lenat, una volta tanto, abbia sbagliato a far di conto, è possibile comunque consultare una release navigabile di questa enorme base di conoscenza (dalle dimensioni minori rispetto a quella originale) che si chiama OpenCyC. Basta visitare il sito OpenCyc.org. Buon divertimento.

AntonioLietoNova

Dai calcolatori elettromeccanici ai computer quantistici

La nascita dei primi calcolatori risale ai primi anni ‘40 del secolo scorso. Era il 1941, infatti, quando Konrad Zuse inventò Z3, il primo calcolatore elettomeccanico digitale programmabile la cui memoria era composta da circa 2500 relè telefonici.

Sarebbero stati sviluppati, poi, in quegli stessi anni (1943-1951), altri calcolatori via via più potenti dal punto di vista della capacità di calcolo: dal Colossus (utilizzato per decriptare la macchina tedesca Enigma durante la Seconda Guerra Mondiale), al Mark I di H.Aiken, al mitico ENIAC (1946) progettato da J.P. Eckert e J.W. Maucly (primo calcolatore elettronico general purpose della storia, con memoria a valvole termoioniche), passando per l’EDSAC del 1949 (primo calcolatore general purpose costruito con programma memorizzato), fino ad arrivare al MADM, all’EDVAC del 1951 e a tanti altri ancora.

L’elettronica, dunque, in quegli anni, aveva pian piano iniziato a soppiantare (con il passaggio dai relè alle valvole termoioniche) la tecnologia elettromeccanica, garantendo, ai primi computer, una potenza di calcolo via via crescente. Preistoria dell'informatica dunque. Senza la quale, però, la società in cui viviamo sarebbe probabilmente stata molto diversa da come la conosciamo.

Oggi, una delle sfide principali in cui sono impegnati gli scienziati dei principali laboratori del globo, riguarda la realizzazione di computer in grado di operare secondo le leggi della fisica quantistica. Dei super-computer dunque. In grado di manipolare l’informazione (misurata in qubit e non più in bit) con un'efficienza tale da poter eseguire, in tempi brevi, calcoli o affrontare problemi che anche il piú potente dei computer classici non potrebbe, per sua natura, e per suoi limiti strutturali, affrontare.

Una bella sfida. Oggi reale. Fino a soli sessant’anni fa assolutamente inimmaginabile. Fantascienza diventata scienza. 

AntonioLietoNova

Idee Innovative

Che forma ha un'idea innovativa? Ha un odore, un colore, un sound, un ritmo
o un umore particolare? Veste casual? Ascolta rock? Tifa Bartali o Coppi? Legge Croce o Voltaire? Vota a destra o a sinistra? Beve whisky o mojito? E' divertente o superba? Guelfa o ghibellina? Elitaria o alla portata di tutti?

Come è che si riconosce? E si riesce a cogliere? Quale è, in altri termini, la sembianza riconoscibile dell'immaterialità creativa?
Non è mai semplice rispondere a quesiti di questo tipo. Un fatto però appare in tutta la sua evidenza: ipotizzare la presenza di una metodologia ("modello" direbbe forse il filosofo Jullien?) in grado di farci riconoscere, in modo sistematico, un'idea, un prodotto, un progetto come "innovativi", implica, alla radice, l'assunzione che la creatività, e quindi l'innovazione, siano il frutto di un qualche insieme di tratti più o meno regolari, riconoscibili, classificabili. Il che non è detto che non sia vero. Ma non è neanche detto che non sia falso.

La capacità di percepire e di cogliere il senso dell'innovazione è, infatti, legata spesso ad una sensibilità particolarissima, individuale (a suo modo innovativa) e che, per diverse ragioni, non è disponibile a tutti in egual misura (questo è il motivo per cui la maggior parte delle idee innovative vengono, dalla maggioranza delle persone, riconosciute come tali solo a posteriori).

Cercare di individuare, però, una metodologia che tenti di rendere un po' più trasparente la differenza tra ciò che è solo nuovo rispetto a ciò che invece è innovativo è, a sua volta, un qualcosa che assomiglia molto alla mia idea di "idea innovativa". Il che, come punto di partenza, non è affatto male.

Io ho già preparato un mio personalissimo piano per studiare a fondo l'universo ideale. Il mio biglietto per il platonico iperuranio è pronto. Lì avrò la possibilità di poter entrare a più stretto contatto con le idee (anche con quelle creative) e, quindi, di poterle conoscere (e ri-conoscere) meglio.

Nella speranza che, di tanto in tanto, abbia anche io la fortuna e la possibilità di  poter esclamare il mitico "eureka".

 

Risposta a Luca De Biase "Come riconoscere una idea innovativa ?"

AntonioLietoNova

Semantic SEO

Lo scenario delle tecnologie della rete è, da sempre, caratterizzato da grande dinamicità e innovazione. Nell'ambito della ricerca scientifica uno degli sviluppi, in divenire, più interessanti è rappresentato dalla introduzione della "semantica" nel mondo dei motori ricerca. Introduzione, questa, finalizzata al miglioramento delle performance di risposta alle query formulate dagli utenti.

La necessità di passare a sistemi di recupero informativo maggiormante performanti e, in un certo senso, "intelligenti" ha un suo perché storico: con il proliferare delle risorse presenti in rete si è andato via via delineando il bisogno di ricevere risposte sempre più pertinenti in modo da evitare il fenomeno del cognitive (e/o information) overload cui siamo soggetti.

Gli attuali motori di ricerca come Google o Bing hanno finora basato il proprio successo su algoritmi (ad es. il noto Page Rank) basati essenzialmente su un approccio sintattico al recupero delle informazioni. Tale approccio, però, focalizzato su due punti cardine quali: lo string matchig (tra query e risorse web) e le strutture basate sulle connessioni di link (in base al principio secondo cui le risorse web più linkate sono quelle maggiormente considerevoli di fiducia e, quindi, quelle da mostrare più in alto nei ranking di ricerca) sembra non essere più sufficiente.


La chiave, o almeno una delle chiavi più promettenti, per la realizzazione di un web in grado di un comportamento "intelligente" sembra dunque essere la  semantica. E il modus attraverso cui "dare senso" e organizzazione agli  sterminati terabyte di dati presenti sul web passa attraverso l'introduzione di linguaggi in grado di contenere informazioni di meta livello riguardanti il contenuto semantico delle risorse che codificano (ndr i cosiddetti metadati). In anni recenti uno dei più promettenti tentativi di introdurre la semantica nello scenario reale delle tecnologie dei motori di ricerca è stato rappresentato dall'annuncio (da parte di Google e Yahoo!) del supporto, a fini di indicizzazione, dei linguaggi di mark-up come: microformats, microdata e RDFa (quest'ultimo supportato anche da Facebook con il protocollo
Open Graph) .

A conferma dei benefici derivanti dall'uso di tali "linguaggi", uno studio condotto da Peter Mika (Yahoo Research Center) sulle pagine del sito BestBuy.com, ha dimostrato come l'utilizzo di mark-up semantici come gli RDFa migliori di circa il 30 % il ranking dei risultati delle pagine etichettate nelle liste di ricerca (SERP) e di circa il 15 % il click-through rate (il rapporto tra visualizzazione dei risultati e tassi di click).


Il futuro del SEO, dunque, inteso come attività attraverso cui ottimizzare i risultati dei motori di ricerca, sembra in un certo senso assicurato anche con l'avvento delle tecnologie semantiche. A patto, però, che venga fatto un salto di qualità anche nel mondo delle web company. L'introduzione della semantica in modo via via crescente richiederà, infatti, la capacità di fare SEO attraverso buone pratiche e tecniche lecite (chiamate white hat seo) basate sostanzialmente sulla conoscenza dei nuovi linguaggi semantici di mark-up. Ciò che andrà via via scomparendo, invece, sarà l'utilizzo forzato di tecniche di hacking illecite (denominate black hat seo) finalizzate alla manipolazione strumentale e organica dei risultati di ricerca.

Ciò che si profila all'orizzonte, dunque, è l'avvento di un Semantic SEO. Una evoluzione in chiave più trasparente dell'attività di ottimizzazione. Destinata, nei prossimi anni, a prendere il sopravvento man mano che, ai criteri più sintattico-quantitativi utilizzati attualmente dai motori di ricerca, andranno affiancandosene altri basati su parametri semantici.

AntonioLietoNova

SearchPoint: Multiranking Engine

SearchPoint è il risultato, parziale, di un progetto di ricerca ancora in itinere iniziato nel 2007 da parte di Bostjan Pajntar e Marko Grobelnik, due brillanti ricercatori dello Joseph Stefan Institute di Lubjana (Slovenia).

Di cosa si tratta? Di un nuovo tipo di motore di ricerca multiranking. In grado di fornire, in base ai diversi sensi cui può riferirisi una keyword (o una stringa di keywords) utilizzata come query, differenti liste di risultati. Ordinate (e ordinabili) per topic.

Un semplice esempio? Immaginate di chiedere a SearchPoint una serie di informazioni digitando, come query, una chiave di ricerca vaga e ambigua come "Jaguar". Ebbene il primo risultato che vi fornirà sarà una lista di risorse web ricavate semplicemente utilizzando il ranking di Google.

Nella parte destra dell'interfaccia, però, (questa la novità) vedrete comparire un puntino rosso inserito in una rete di topics collegati alla keywords utilizzata per la  query. Tali topics (ricavati con tecniche di keyword extraction) corrispondo ad un sottoinsieme (un subset) delle diverse accezioni di significato cui la parola "Jaguar" può, in contesti diversi, riferirsi (ad es. automobile, animale, ecc.). 

Tale sottoinsieme è navigabile. E' possibile, cioè, trascinare il puntino rosso sui vari topics della rete concettuale automaticamente generata. A seconda dell'accezione su cui ci si ferma,  il "trascinamento" comporta un cambiamento di ranking (e quindi di visualizzazione dei risultati ottenuti) di tipo topic based (basato cioè sulla presentazione dei risultati con più alta corrispondenza semantica rispetto al topic su cui si è deciso di posizionare il puntino).

Per dirla con gli autori "The closer the red point is to one of the topics, more results that talk about this topic are going be on the result list".

Insomma: SearchPoint, pur essendo ancora un tool in pieno divenire e da perfezionare sotto diversi aspetti, introduce degli elementi davvero innovativi. E rappresenta, di sicuro, uno dei progetti più promettenti e interessanti per l'evoluzione "semantica" (una "semantica" guidata in questo caso) dei motori di ricerca. 

AntonioLietoNova

Recommender Systems

Si chiamano Recommender System, e sono dei sistemi di supporto alle decisioni utilizzati (in misura sempre maggiore) dai moderni siti di e-commerce. Amazon, per fare un esempio noto, è un tipico caso di sito che utilizza delle “recommendations”, cioè dei suggerimenti, per guidare l’utente nel corso della sua attività di acquisto on line.

Un esempio molto semplice di raccomandazione on line, in grado di evidenziare la logica che è alla base dei recommender systems, è il seguente: consideriamo un utente che, nel corso della sua interazione con un sito di e-commerce, abbia espresso, in forma esplicita oppure implicita, preferenze per i libri di Dashiel Hammett. Dopo aver acquisito tali preferenze, il recommender system assegnerà quell’utente ad un cluster omogeneo di altri utenti che hanno espresso, per quegli stessi items (i libri del noto scrittore del genere giallo “hard boiled”), preferenze simili o del tutto identiche e, successivamente, suggerirà, allo stesso utente, di acquistare quei libri che, in media, gli utenti del cluster a cui è stato assegnato hanno poi effettivamente acquistato. In altri termini, dunque, è molto probabile che, all’utente che ha mostrato interesse per i libri di Hammett, saranno suggeriti, come acquisti potenzialmente interessanti (in base alle scelte di acquisto effettuate dagli altri utenti appartenenti al suo stesso cluster), i mitici romanzi di Raymond Chandler (celebre inventore del personaggio del detective Marlowe ed altro autore storico del genere hard boiled). 

Ma non sono solo i siti di e-commerce ad avvalersi di sistemi di raccomandazione. Movielens, ad esempio, sviluppato da un gruppo di ricercatori dell’Università del Minnesota, è un sito che offre in maniera davvero efficace (provare per credere) raccomandazioni riguardanti films da andare a vedere (il sistema richiede solo una fase iniziale di “training” in cui  l’utente deve indicare 15 films di suo gradimento).

In futuro, c’è da scommetterci, i siti web che offriranno servizi di questo tipo si moltiplicheranno sempre di più. Probabilmente nascerà un nuovo modello di business on line. Basato su uno dei più antichi ed ancestrali bisogni dell'uomo: ricevere risposte, consigli, suggerimenti. In qualsiasi ambito. E che siano effettivamente rispondenti alle esigenze e ai desiderata di ciascuno.

AntonioLietoNova

Twitter Hacking

E' stato violato l'account Twitter del neo Presidente eletto degli USA Barack Obama. La notizia, riportata anche da Repubblica.it, rappresenta solo l'ultimo caso di "violazione informatica" ai danni di personaggi in vista dell'estabilishment americano (a livello politico ne aveva fatto le spese, nella passata campagna elettorale, anche l'ex candidata alla vicepresedenza Sarah Palin, a cui era stato violato l' account personale di posta elettronica).

Twitter, strumento molto utilizzato da Obama nel corso della sua campagna elettorale, è un servizio di microblogging che permette algli utenti di "spedire" in rete messaggi dalla lunghezza massima di 140 caratteri. Insomma un sistema di comunicazione di tipo "speed" molto funzionale nell'ambito del web 2.0.  L'account twitter di Obama, una volta violato, ha iniziato a spedire (fino al momento del suo blocco) ai propri "followers" (coloro che si sono abbonati a ricevere le news di quell'account) "spam links" e false news (ad es. il lancio di un sondaggio per buoni benzina). Oltre all'account di Obama sono stati violati anche quelli della Fox News e quallo di Britney Spears. L'attacco, inoltre, ha riguardato anche gli account Facebook di circa 33 personaggi noti.

Il "come" sia stato possibile, agli hackers (o all'hacker), violare tali account (su twitter) è stato spiegato sul blog ufficiale della piattaforma di microblogging, che riporta:

"These accounts were compromised by an individual who hacked into some of the tools our support team uses to help people do things like edit the email address associated with their Twitter account when they can't remember or get stuck."

Insomma: l'attività di hacking sembra sia stata possibile grazie all'utilizzo degli strumenti di supporto che normalmente si utilizzano nei casi in cui, ad esempio, ci si dimentichi la password dell'account creato. A quanto pare, dunque, sembra sia bastato inviare, al team di supporto twitter, una mail spacciandosi per Barack Obama (o, cosa più probabile, per qualcuno del suo staff) e dire di aver perso la password dell'account per poter avere accesso ai dati del profilo twitter del Presidente.

Una falla davvero troppo grande per un servizio di questo genere. Falla resa possibile, molto probabilmente, dall'utilizzo di sistemi di supporto basati su procedure automatiche "ingenue" (che automaticamente, dunque, inviano, a chi ne fa richiesta, i dati di accesso ai vari profili senza considerare da chi è stata inoltrata la richiesta e per quale tipo di account). Incredibile. Ma vero.
AntonioLietoNova

Artificial Intelligence

Sono passati poco più di 50 anni dallo storico seminario di Darthmouth che nel 1956 sancì ufficialmente la nascita dell’Intelligenza Artificiale (IA). Ma quali erano le speranze e gli obiettivi dei pionieri del settore agli albori della disciplina? Che cosa è che avevano esattamente in mente questi signori quando parlavano di Intelligenza Artificiale? Una delle prime generiche definizioni di IA fu data da Marvin Minsky, Nathaniel Rochester, Claude Shannon e John Mc Carthy  (i quattro promotori del seminario di Dartmouth) in un documento antecedente alla data di quello storico incontro (il documento è datato 31 agosto 1955 ed è stato tradotto per la prima volta in italiano da Paronitti).

In tale documento veniva individuato, come obiettivo primo dell’IA, quello di “costruire una macchina che si comporti in modi che sarebbero considerati intelligenti se un essere umano si comportasse in quel modo”. Insomma i protagonisti della prima IA (detta anche IA classica) sognavano di costruire degli automi intelligenti le cui “capacità” ed attività  potessero essere del tutto equiparabili, e quindi “confondibili”, con quelle svolte da un essere umano in carne ed ossa dotato di intelligenza (andava in tale direzione anche il famoso test ideato da Alan Turing  qualche anno prima).

Artificiali e intelligenti dunque. Gia…”intelligenti”. Nel primo periodo di sviluppo dell’IA uno dei tratti essenziali dell’ ”intelligenza” era considerata la capacità di manipolare ed elaborare simboli (una definizione alquanto stringente). Poi, con il passare degli anni, e con il susseguirsi di nuovi approcci teorici e programmi di ricerca, sono state “tentate” altre strade e sono state date nuove definizioni di tale concetto (che rimane, tuttavia, ancora oggi avvolto da costellazioni di definizioni incomplete e non definitive).

Ad ogni modo da Dartmouth ad oggi di acqua ne è passata sotto i ponti. E di certo, nella storia dell’IA,  non sono mancati successi (pensiamo al clamore che fece la vittoria del calcolatore della IBM, Deep Blue, quando riuscì a battere il grande campione di scacchi Garry Kasparov) come pure momenti di difficoltà.

Restano ancora aperti, però, quesiti non rinviabili di natura epistemologica. Ad esempio: in che modo può essere inquadrata, oggi, tale disciplina? All’interno di quale frame (teorico e di senso) può essere inserita? Un fatto appare certo: l’IA, oggi più di ieri, ha la necessità di essere “duplice”. Di essere, cioè, come sostiene Roberto Cordeschi, tanto disciplina ingegneristica (finalizzata alla costruzione di macchine che permettano all’uomo di vivere una vita migliore), quanto disciplina psicologica (rivolta, cioè, alla costruzione di agenti che riproducano, o che quantomeno tentino di riprodurre, alcune caratteristiche cognitive umane allo scopo di poterci rivelare qualcosa in più sui misteri del funzionamento della nostra mente).

Il futuro di questo settore si gioca sulla capacità di bilanciare questi due aspetti. Ed è proprio in tale duplicità che risiedono le maggiori potenzialità di sviluppo per l’IA.

AntonioLietoNova

Wolfram Alpha

Tutti ne parlano da qualche mese ormai. E molti attendono con ansia di poterlo utilizzare. Stiamo parlando di Wolfram Alpha: il “motore computazionale della conoscenza” (Computational Knowledge Engine) che dovrebbe essere in grado di restituire, alle query fatte dagli utenti, direttamente delle risposte corrette (a differenza degli attuali motori di ricerca che restituiscono, invece, come output, una lista di risultati potenzialmente rilevanti riguardo il topic oggetto della query).

Una semi-rivoluzione dunque. O, come direbbe Marco Varone, la primavera dei sistemi di Question – Answer. L’elemento che maggiormente incuriosisce di questo tipo di progetto è  dato dalla logica che sta alla base della sua realizzazione: completamente diversa rispetto a quella che governa gli attuali sistemi di information retrieval utilizzati per fare ricerche sul web. Wolphram Alpha, infatti, si basa su un motore inferenziale realizzato su una mole enorme di basi di dati strutturati che, nel corso di questi ultimi anni, sono stati assemblati e puliti “manualmente” dai ricercatori del team del fisico inglese Stephen Wolfram.

Il sistema, a quanto sembra, sarà in grado anche di rispondere, in tempo reale, a domande specifiche (ad es. il valore corrente dello stock price o della temperatura di una particolare zona del globo) grazie alla sua interazione dinamica, via API, con terze parti.

Nonostante tali caratteristiche, però, Wolfram Alpha non è un sistema di intelligenza artificiale (né, stando alle parole del suo fondatore, aspira ad esserlo). Nel senso che non è in grado di “capire” gran parte delle domande che gli vengono poste e, di converso, gran parte delle risposte che fornisce. A mettere in luce alcune sue falle è stato Doug Lenat, studioso oramai leggendario del settore IA e Rappresentazione della Conoscenza (suggerisco come Guido Vetere, di leggere il suo articolo sull'argomento).

Uno dei “bugs” individuati da Lenat sta nella incapacità del sistema di “ragionare” a 2 variabili (è incapace cioè di rispondere ad una domanda del tipo: “How old was Obama when Mitterrand was elected president of France?” pur essendo in grado di rispondere, singolarmente, a domande riguardanti Obama e Mitterand). Tale incapacità è dovuta alla mancanza, nelle sue fondamenta, di un sistema strutturato di rappresentazione della conoscenza (ad es. un’ ontologia) attraverso cui sarebbe possibile rappresentare, e collegare, questi due “pezzi” singoli di informazione per tirarne fuori una terza in grado di aggiungere valore alla “conoscenza reale” inserita nel sistema stesso.

Insomma Wolfram Alpha, stando sempre alle parole di Lenat, sarebbe una via di mezzo tra Google e sistemi di intelligenza artificiale come, ad esempio, CyC. Un ibrido, dunque; che, però, potrebbe risultare molto utile per ricercare informazioni puntuali su domini specifici (ad es. sembra funzioni bene, data la base da cui è stato derivato, per rispondere ad informazioni basate su calcolo numerico). Non resta che provarlo (il lancio è previsto entro la fine del mese di maggio). Keep in touch.

AntonioLietoNova

Motori Semantici e Metadata per il Web del Futuro

Risale a qualche giorno fa la notizia del “lancio”, da parte di Microsoft, di Kumo, nuovo motore di ricerca “intelligente” (ancora in fase beta e il cui utilizzo è riservato, per il momento, solo ai dipendenti della casa di Redmond) che dovrebbe consentire, in futuro, agli utenti web, sia di effettuare ricerche in linguaggio naturale (digitando espressioni o frasi di senso compiuto in una o più lingue) che (qui la novità) di ricevere risposte informative altamente pertinenti sulla base delle richieste effettuate tramite query.

L’idea di riuscire a rendere più pertinenti, e quindi, in un certo senso, “intelligenti”, le riposte dei motori di ricerca a quelli che sono i reali desiderata informativi degli utenti del Web, è, sin dai suoi albori, tra gli obiettivi principali che si propone di realizzare il progetto del Semantic Web formulato da Sir Tim Berners Lee.

Per poter riuscire in quest’ impresa, incentrata sulla realizzazione di una infrastruttura di rete che permetta alle “macchine” (in questo caso i motori di ricerca) di “capire” e, quindi, per certi versi, di “interpretare” in modo automatico, il senso di una data risorsa web, si è reso necessario, in questi anni, un sostanziale ripensamento tanto dell’architettura infrastrutturale del Web stesso quanto delle modalità di recupero delle informazioni adottate dai motori di ricerca classici.

I nuovi motori, infatti, sono chiamati ad essere sempre più precisi e “semantici”. Per realizzare tale obiettivo, sono stati sviluppati, nel corso degli anni, nuovi linguaggi web, evoluzioni dell’HTML (che è sostanzialmente un linguaggio di formattazione grafica), che hanno permesso di definire una infrastruttura delle informazioni maggiormente machine understandable mediante l’utilizzo dei cosiddetti meta-data.

Linguaggi come XML, l’RDF o l’OWL, ad esempio, consentono, infatti, di definire, (e in un certo senso di “rappresentare”) al loro interno, un maggior numero di informazioni riguardanti le caratteristiche semantiche delle risorse web. Permettendo, in tal modo, ai motori di ricerca stessi, di avere a disposizione più informazioni da poter processare per decidere se una data risorsa X (ad es. una pagina web) sia o meno pertinente per una query di tipo Y formulata da un utente Z. Insomma: per la realizzazione di un "web intelligente" la strada da percorrere sembra tracciata: Semantics is the Future.   

AntonioLietoNova

Incipit


Questo spazio è dedicato al futuro. A idee, visioni, luoghi e dimensioni che appaiono lontani, ma che, forse, sono più vicini di quanto possa sembrare. 
 
Si parlerà di Intelligenza Artificiale (e dunque di innovazione). Delle ricerche più interessanti che si stanno portando avanti nei vari LAB del mondo. Delle loro reali implicazioni e prospettive. Dei risultati ottenuti e di quelli attesi.
 
Coinvolgendo, nel dibattito, matematici e filosofi, informatici e sociologi, ingegneri e psicologi. E cercando di tenere bene a mente il celebre quesito posto da Alan Turing nel saggio  "Computing Machinery and Intelligence" del 1950: can a machine think? Staremo a vedere. Intanto...Benvenuti.
AntonioLietoNova

Naturalmente macchine. E dunque sistemi. E quindi ricercatori, innovatori, visionari  che con le macchine e i sistemi interagiscono ogni giorno. Per esplorare non solo il mondo in cui viviamo. Ma anche ciò che siamo. Un laboratorio trasversale. Un passo oltre il confine. La fantascienza che si fa scienza. Benvenuti in Artificiali e Intelligenti (Lab de Il Sole 24 Ore) . 

 

Subscribe to Artificiali e Intelligenti: RSS Feed 

About the Author: Profile