Quanto non sappiamo delle Intelligenze Artificiali?

Potrebbe essere arrivato il momento di scoprirlo

Federico Gambato 23\03\2018

In Terminator, quando Skynet prende il controllo di ogni macchina presente sul pianeta e se ne serve per estendere il proprio dominio sull’umanità, si nascondequalcosa di ben più preoccupante dell’idea di un futuro apocalittico. Perché se il dominio delle macchine in un ipotetico futuro è pura fantascienza il fatto che una intelligenza artificiale riesca a stupire l’uomo -senza ucciderlo eh - è un fenomeno che è già accaduto realmente.

Di cos’è fatta una I.A.?

Generalizzando la definizione di macchina a una qualsiasi entità programmata dall’uomo, un’intelligenza artificiale è appunto una macchina finalizzata alla simulazione della capacità di ragionamento umano.

Per farla semplice, pensate ad un modello che riproduca l’organo che ci rende capaci di ragionare, il cervello, e quindi le sue componenti. Sarebbe utile qualche complessa nozione di anatomia e biologia adesso, ma concentrandoci sulla grandezza minima di questa struttura, il neurone, possiamo individuare lo spazio in cui un po’ di calcoli (che vi risparmierò) e gli input si incontrano. Per input potremo intendere qualsiasi tipo di dato assimilabile dall’esperienza: se la nostra entità fosse una IA per la guida autonoma, l’input potrebbe essere un segnale stradale, la linea che separa le carreggiate oppure, a più basso livello di astrazione, un pattern che identifica un incrocio.

Nelle IA, il compito del neurone è il medesimo del neurone presente nel nostro cervello: appartiene ad un certo livello e risponde ad input più o meno complessi. Al livello più alto ci sono neuroni che si occupano degli input più descrittivi, i più vicini alle percezioni umane. Ma è a metà strada tra questi e quelli più bassi, che le cose si fanno interessanti.

Gli input di livello più basso, elaborati tramite procedure programmate dai progettisti e attraverso neuroni del medesimo livello, hanno infatti il compito di essere trasferiti sotto forma di risultati parziali – o se preferisci, informazioni – ai livelli più alti. E così, a seconda della dimensione della rete neurale stessa, cresce sia la complessità del ragionamento che si simula, sia la quantità di dati e informazioni che stanno nel mezzo.

La cosa strana è che ad un certo punto, se la rete è relativamente ampia, nemmeno i progettisti stessi sono in grado di capire come i dati (input e output parziali) siano generati e modellati. Di conseguenza una serie di risultati positivi, ottenuti da un processo di questo tipo, non è né interamente spiegabile né del tutto prevedibile. Solitamente per istruire una IA le si dà in pasto una serie di dati appartenenti allo stesso dominio di interesse. Se la rete funziona bene, l’elaborazione porterà l’IA a capire le relazioni che legano i dati tra loro e a tal fine, prevederne i dati in uscita (output).Come ci si arrivi però è ciò che gli scienziati chiamano “black box” ovvero una scatola oscura.

Le problematiche che emergono da questa incapacità di seguire il processo hanno ripercussioni più evidenti se l’IA è applicata in ambiti che riguardano salute, società, economia. Dopotutto il fatto che non si sappia cosa accada nella “testa dell’AI” pone diversi dubbi sul grado di fiducia che l’umanità dovrebbe dare a queste tecnologie.

Il Deep Dream è un programma sviluppato da Google che si basa sul così detto apprendimento profondo, reso celebre dal processing di immagini che ha mostrato come gli algoritmi gestiscano in maniera apparentemente “ragionata” gli input. Il più famoso è il software di riconoscimento visivo, che classifica precisi pattern per catalogare oggetti all’interno di immagini.Eseguendo l’esperimento ripetutamente il risultato però è piuttosto psichedelico, come se la rete stessa avesse una visione distorta della realtà. Alcune immagini che rappresentano paesaggi distanti visti all’orizzonte vengono processate in modo da assumere forme simili a pagode e costruzioni orientali.

I ricercatori hanno dimostrato come dopo poche iterazioni di questo processo le immagini contenessero animali, spirali ed altre figure insolite incorporate nell’immagine originale.

Consideriamo anche questo recente studio apparso su Nature “Prediction of cardiovascular risk factors from retinalfundus photographs via deep learning” dove la tecnologia di riconoscimento visivo riesce ad evidenziare pattern particolari che identificano una certa categoria di soggetti a rischio malattie cardiovascolari.

Uno strumento incredibile, la cui efficacia è confermata dai dati e da un bassissimo margine di errore, che però lascia un grosso problema: il dottore dovrebbe infatti dire ad un paziente “Hey, hai una gravissima malattia cardiaca, ma non sono sicuro di come lo so”.
A quel punto sarebbe davvero così facile avere fiducia in quel risultato?

 

, Federico Gambato

Lascia un commento all'articolo