top of page

IA, ovvero "l'Intelligenza artificiale"

​

Una definizione univoca non si trova anche quasi tutte si assomigliano. Utilizziamo per iniziare quella che ci ha proposto il prof. Segatori dell'Università di Perugia che a fine 2018 ci ha onorato della sua presenza e della sua conferenza: "IA è la capacità di un sistema tecnologico di risolvere problemi o svolgere compiti e attività tipici della mente e delle abilità umana".

​

Da questo anno inoltre si è inserito nella programmazione della disciplina filosofica un modulo specifico sulla storia della IA e della sua relazione con la filosofia. A proposito di questo proponiamo la sintesi con mappa concettuale costruita sul modello cognittivista dell' "Institute of Human and Machine Cognition" della Florida (IHMC) realizzate da Giordano e Maddalena del 5Als (2018-19).

​

​

​

​

IA 5Als.png

Sempre Giordano  riassume il modulo sviluppato in classe a partire dal manuale di filosofia "Abbagnano Fornero", modulo che ha visto poi l'analisi del pensiero di Luciano Floridi sulla "Quarta Rivoluzione"... quella dell'informazione

Giordano scrive: "Le difficoltà provocate dall’IA hanno stimolato il dibattito filosofico, portando a ridefinire il concetto stesso d’intelligenza. Una prima conclusione fu espressa nel 1950 da un matematico inglese di nome  Alan Turing, il quale attraverso un esperimento mentale chiamato ‘‘gioco delle imitazioni’’ giunse a rivelare la somiglianza tra l’intelligenza umana e le operazioni di un computer.

Generalmente però, i filosofi hanno assunto un atteggiamento negativo verso le pretese forti dell’IA. Queste critiche filosofiche hanno evidenziato come essa non sia una vera e propria forma di pensiero: le operazioni intelligenti dei calcolatori, infatti, sono puramente sintattiche e prive di intenzionalità, per questo i computer non sono paragonabili a delle menti (Searle).                         

Inoltre, come sostiene lo studioso statunitense Hubert Dreyfus la concezione di una mente come dispositivo che calcola secondo regole precise e tramite una sequenza di passi distinti non coincide affatto con l’intelligenza propriamente umana, poichè quest’ultima è olistica e situazionale. In altri termini, mentre i computer non sono in una situazione e sono entità senza corpo, l’intelligenza umana è condizionata dalla nostra struttura di esseri corporei.  Proprio perché situazionale, la nostra intelligenza implica un background primigenio di credenze condivise che essendo inoggettivabili, non possono venire computeristicamente formalizzate e simulate.

In seguito con l’introduzione da parte di John Searle della dicotomia tra IA ‘’forte’’ e IA ‘’debole’’ molti studiosi hanno abbandonato le ambizioni originarie caratteristiche dell’IA ‘’forte’’(creazione fantascientifica di una ‘’mente sintetica’’ in grado da fungere da doppione del nostro cervello) a favore dell’IA ‘’debole’’ (l’invenzione di macchine utili  capaci di fungere da strumenti efficaci sia per lo studio della mente sia per l’esecuzione delle varie attività sociali e lavorative).                                 

In altre parole secondo questi studiosi lo scopo dell’IA non è la simulazione letterale dei processi cognitivi, ma solamente la loro emulazione, ovvero la messa in atto di sistemi in grado di svolgere determinati compiti in modo efficiente.

Tuttavia, poiché questa distinzione non viene fatta da tutti, non è poi così strano che l’IA continui a muoversi all’interno di un’ambiguità di fondo, la quale fa sì che non si capisca mai bene “se si vogliono costruire macchine utili, oppure si vuole riprodurre l’intelligenza umana”.

Ma cosa è esattamente la IA ?

​

​

 

Per comprendere in maniera più approfondita questa nostra Rivoluzione informatica, siamo ricorsi oltre alle implicazioni filosofiche approfondite con i testi del Prof. Floridi, anche a testi divulgativi sull'argomento. Soprattutto ci siamo concentrati su un agile ebook di Andrea Daniele Signorelli "L' Intelligenza Artificiale. L'uomo nell'epoca delle macchine intelligenti". Sempre nella classe 5als alcuni ragazzi si sono occupati di leggerlo e sintetizzarlo per il resto del gruppo classe.

​

 

INTELLIGENZA ARTIFICIALE

( a cura di Edoardo ed Ettore)


E’ necessario distinguere tre diversi tipi di "artificial intelligence" (in lingua inglese "AI",  in lingua italiana "IA") :  

ANI: (artificial narrow intelligence) intelligenze in grado di fare una cosa sola.
AGI: (artificial general intelligence) intelligenze in grado di fare ogni cosa a livello umano.
ASI: (artificial super intelligence) intelligenze di livello superiore in grado di svolgere compiti a un livello superiore a quello umano.


Siamo ancora fermi alle ANI e gli esperti non sono ancora sicuri che sia possibile arrivare ai due successivi stadi. Le ANI pur facendola benissimo possono fare solo una cosa alla volta e ogni volta che si affronta un nuovo problema si deve ricominciare da zero.
Nel mese di ottobre 2016 la società deep mind ha pubblicato uno studio in cui rivela di aver creato un sistema capace di pianificare al primo colpo il percorso migliore per spostarsi tra le stazioni della metropolitana di Londra. Questo è reso possibile grazie ad un allenamento (con il classico metodo “sbaglia e riprova”)  su mappe della metro di altre città, la macchina ha infatti immagazzinato dati utili per richiamarli all’occorrenza.


Ma fino a dove possono arrivare le AI?


Per quanto ci sia il rischio di entrare nel campo della fantascienza, le intelligenze artificiali a seguito dei continui progressi potrebbero raggiungere il livello AGI.
Un Artificial general intelligence , come dice Tim Urban , fa riferimento ad un computer che sia intelligente quanto un uomo su tutta la linea. Per arrivare a ciò gli scienziati hanno prima bisogno di comprendere meglio il funzionamento del cervello , ma soprattutto di computer con potenza di calcolo molto superiore a quella  che hanno a disposizione attualmente.
Un processo simile venne immaginato già nel 1995 in “ghost in the shell”. Il protagonista era un cyborg che spiegava di essere dotato di personalità: “Io raccolgo dati che uso a modo mio, e questo crea un miscuglio che mi dà forma come individuo e da cui emerge la mia coscienza”.
Lasciando da parte la coscienza, molti credono che una macchina del  genere non verrà mai creata, soprattutto se si pensa che uno degli elementi più importanti sembra essere la costruzione di un computer che abbia un potere computazionale simile a quello del cervello.

Il filosofo di Oxford Nick Bostrom, scrittore di libri riguardanti l' artificial intelligence, ha intervistato centinaia di scienziati che hanno partecipato a conferenze sull’intelligenza artificiale ottenendo i seguenti risultati: il 10% ha dichiarato che AGI potrebbe fare la sua comparsa entro 2022, secondo il 50% farà la sua comparsa entro il 2040, secondo il 90% non si dovrà attendere oltre il 2075. Una volta raggiunta la AGI sembra inevitabile l’approdo ad una ASI, che secondo gli intervistati non impiegherà più di 30 anni per verificarsi.
Quando si parla di ASI si fa riferimento ad un intelletto che è molto più intelligente dei migliori cervelli umani su ogni campo.     
Diventa quindi inevitabile parlare di “singolarità tecnologica” teoria alla cui base sta Ray Kurzweil, ingegnere capo di Google che è convinto che la velocità a cui procede il progresso tecnologico porterà a trasformazioni irreversibili nella vita dell’uomo. Secondo Kevin Kelly invece la “singolarità” è quel momento in cui “tutti i cambiamenti avvenuti nell’ultimo milione di anni,saranno superati dal cambiamento che avviene nei successivi 5 minuti”.

Secondo Vernor Vinge, matematico e autore di fantascienza, il potere di calcolo dei computer cresce a ritmo esponenziale. Ad un certo punto questa crescita ci consentirà di costruire computer più intelligenti di quanto noi stessi possiamo essere, e questi computer saranno in grado per conto loro di produrre computer sempre più intelligenti. Si creerà una sorta di loop di “computer che costruiscono computer più intelligenti”. Questi progressi se disegnati sotto forma di grafico, generano una curva con tasso di crescita esponenziale che arriva ad approssimarsi in un linea retta che punta all’infinito.



I LIMITI QUALITATIVI E TECNOLOGICI DELLE "IA"

Il fisico di Oxford David Deutsch parla di un’aspetto poco considerato quando si parla di passaggio da un’intelligenza limitata ad una generale: il fatto che si tratti di un passaggio qualitativo e non quantitativo. Non basta quindi un potere di calcolo superiore affinché possa verificarsi questo passaggio. Se si lavora sui programmi il cui pensiero è costituzionalmente incapace di violare limiti predeterminati allora si sta eliminando dal progetto l’attributo che definisce un essere intelligente: “la creatività”. Inoltre è difficile pensare di costruire una vera intelligenza artificiale quando gli scienziati non hanno ancora capito come funziona davvero la nostra.
Il buon senso e la creatività, sarebbero queste quindi le due caratteristiche dell’essere umano che le AI non possono replicare. Ma ci sono altri aspetti da tenere in considerazione, come i limiti fisici e tecnologici. Per esempio un AGI potrebbe necessitare di una quantità eccessiva di energia. Ci sono parecchi altri ostacoli, come quello relativo alla fine della legge di Moore. “uno dei più importanti benefici della legge di Moore era la possibilità di coordinarsi. Il suo stop pone una grossa incognita, così come l’eccessivo consumo di energia già richiesto dai chip di ultima generazione.
D'altra parte i teorici basano i loro assunti proprio sulla crescita costante del potere di calcolo,ma non è detto che le cose vadano così dice Luciano Floridi, uno dei più ascoltati filosofi della tecnologia.
Ciò che è certo è che non siamo giunti alla fine del progresso scientifico e tecnologico. Joe Tsien della Augusta University in florida, insieme ai suoi collaboratori ha affermato di aver trovato l'algoritmo alla base della capacità del cervello umano di formare concetti e di ragionare. L'intelligenza funzionerebbe quindi grazie a una vera e propria regola matematica che consente agli umani di produrre conoscenze astratte e concetti. Se confermate, le teorie di Tsien potrebbero avere un ruolo decisivo nella riproduzione artificiale del cervello. A quel punto anche l’ostacolo qualitativo sarebbe quasi superato. Altri progressi potrebbero far ricredere chi ritiene che la tecnologia sia prossima a muri invalicabili. Per esempio, il nuovo chip messo in commercio da “Nvidia”, che ha al suo interno 15 milioni di transitor. Infine è ancora aperta una grossa incognita relativa alle potenzialità dei computer quantistici.

​

 

 

LA "IA" COME REALTÀ

(a cura di Lorenzo)

​

DAI FILTRI ANTISPAM ai ROBOT-AVVOCATI 


La risposta alla domanda che Alan Turing nel 1950 si è posto "le macchine possono pensare?", è per ora "no!", non possono.

La tecnologia usata da Facebook, ad esempio, dimostra che L’AI (artificial intelligence) è già qui, la vediamo e la utilizziamo. Le AI non sembrano essere sul punto di prendere coscienza di se stesse e di ribellarsi all’ uomo dando vita ad un’ ordine mondiale robotico; eppure sono una realtà che sta avendo un grande impatto sotto tutti gli ambiti di vita. L’ esempio di Google Assistant è una delle applicazioni più promettenti dell’ AI, in quanto si tratta di assistenti artificiali con i quali interloquiamo e rispondono alle nostre richieste. I principali attori della Silicon Valley stanno investendo su di essa. Altri sono Siri di Apple e Alexa di Amazon che possono essere sia vocali che scritti (SMS, instant messaging—> interfaccia grafica per colloquiare).

Le potenzialità di tutto questo oggi, sono molto superiori in relazioni a pochi anni fa, grazie all’elevata potenza di calcolo in grado di analizzare una quantità enorme di dati attraverso il web, social network ecc.. Anche se ancora questi bot hanno dei limiti, infatti non sono in grado, per esempio, di fare cose più complesse senza l’ aiuto dell’ uomo, ma ovviamente è solo questione di tempo. L’AI è prossima a invadere il mercato di massa e ad essere coinvolta in ogni operazione quotidiana. La tecnologia dunque, sta anche assistendo in ambito lavorativo, come i software per avvocati e i medici che riescono a riconoscere i primi segni di comparsa, con precisione estrema di tumori alla pelle ( software IBM). Qui la domanda è: "se i robot possono fare tutti questi lavori anche in modo migliore rispetto all’uomo e con costi anche minori, che fine faranno i lavoratori umani?".

Il punto è che fermare o rallentare questa rivoluzione robotica è impossibile e l’uomo quindi deve immaginare una società diversa con l’ uomo che diventerà sempre più superfluo. Nel 2022 nelle strade ci saranno macchine autonome che decideranno loro cosa fare in caso di imprevisto; se magari evitare di uccidere pedoni o magari tirare diritto a rischio del conducente ( programmate per uccidere). Questi software sono sempre più in grado di fare ragionamenti umani e quindi devono essere studiati per cercare di capire cosa sono in grado di fare.
 


COME IMPARANO LE "IA"

 

MACHINE E DEEP LEARNING


Le IA ancora non sono in grado di ragionare e di pensare dunque, ma sono in grado di analizzare dati e relazionarli tra loro calcolando algoritmi, probabilità ecc... I metodi utilizzati per ottenere questi risultati sono: machine learning (apprendimento automatico) e deep learning (apprendimento approfondito). L’origine dell’AI risale agli anni '40/50 con il lavoro svolto dagli scienziati Rosenblatt e Samuel. Termine coniato nel 1956 a Dortmouth.

L’AI non è ancora in grado di applicare cose che non gli sono state fornite, infatti si deve basare , deve partire da delle basi e dati che gli vengono forniti. Negli anni '40 si iniziò a sviluppare l’idea dell’intelligenza artificiale evolutiva che è un modello formato da 3 strati: input( riceve i dati), analisi dei dati, output( vengono fornite le soluzioni). Ogni strato contiene numerosi nodi che sono modellati sui neuroni interconnessi in grado di risolvere un elevato numero di problemi. Il machine learning è in grado, attraverso delle informazioni che gli vengono fornite, di arrivare alla soluzione ( esempio—>diamo informazioni su una casa e questo sistema fa combinazioni con relazioni per arrivare per esempio a stimare il valore della casa o altri notizie). Questo metodo è anche detto apprendimento supervisionato. Mentre l’apprendimento non supervisionato consiste nel fatto che il software deve riuscire a capire da solo quali sono le combinazioni senza che gli vengono fornite informazioni o soluzioni.

Per il "face recognition" di Facebook viene utilizzato il deep learning ( uno strato riconosce uno schema, invia l’informazione al livello successivo che cercherà collegamenti tra i dati e così via—> lavoro a cascata). Il deep learning aiuta anche per la comprensione di un linguaggio o la traduzione da una lingua all’altra. È anche molto utile in ambito lavorativo.

C’è però un lato oscuro su tutto ciò: deep e machine learning stanno imparando da soli e non si sa esattamente come ciò avvenga. Bisogna studiare ancora come agiscono, come prendono le decisioni e questo è un obiettivo di un team di ricercatori del MIT. Ciò consiste nel forzare l’algoritmo e cercare le ragioni che hanno spinto le macchine a prendere determinate decisioni. Le Intelligenze artificiali devono imparare a comunicare con l’uomo per poi magari capire come un software può evolvere e addirittura badare a se stesso.

​

​

  

Ma le IA sbagliano?

(a cura di Erika, Matteo, Sofia e Leonardo)

​

Questo è un punto particolare, se il modello di riferimento delle IA è quello del cervello umano l'errore è previsto? è un ostacolo da evitare?

 

Nella classe 3cls Erika, Matteo, Sofia e Leonardo lo hanno affrontato, partendo in maniera apparentemente distante dal pensiero di Popper sul valore dell'attegiamento critico nel pensiero dei Presocratici. Pensiero critico che in base alle sue convinzioni del procedere del pensiero umano/scientifico come un razionalismo aperto all'esperienza, Popper ritrova nel mondo greco. Tale pensiero teorizza "reti" da gettare per "pescare", come scriveva il poeta Novalis nei versi che fa inserire Popper all'inizio di una delle sue opere principali "Logica della scoperta scientifica": "solo chi getta le reti pesca".

L'errore è il motore di una conoscenza fatta da "congetture" e aperta a coraggiose "confutazioni"...

​

Queste nozioni sono state collegate a quelle analizzate da di EMMANUEL PROCYK e MARTINE MEUNIER nel dossier di "Mente e cervello" dedicato al funzionamento della nostra mente del gennaio 2018. Anche qui l'errore posside un ruolo essenziale: il nostro cervello è dotato di vari sistemi di rilevazione degli errori, correzione e verifica di cui si serve per imparare. Privarlo della possibilità di sbagliare significa ostacolare i processi di apprendimento.

"Il nostro cervello è dotato di vari sistemi di rilevazione degli errori, correzione e verifica di cui si serve per imparare. Privarlo della possibilità di sbagliare significa ostacolare i processi. Per esempio se durante una verifica non sappiamo rispondere ad alcune domande è meglio rispondere anche seppur sbagliando che lasciare in bianco. Questo perchè le informazioni di ritorno sui nostri  tentativi avrebbero fornito al suo cervello del materiale utile per imparare, per capire cosa tenere a mente e quali trappole evitare. Negli anni ottanta-novanta i neurobiologici hanno scoperto che alcune regioni celebrali emettono segnali di errore quando sbagliamo , un esempio è l'errore causato dalla fretta. Il cervello può rilevare l'errore con grande velocità e può emettere un segnale specifico chiamato ERN (onda elettrica negativa registrabile sulla superfricie cranica tramite elettroencefalogramma). L'ERN ha origine in una regione del cervello situata nella corteccia prefrontale mediana. Inoltre esiste un altro segnale d'errore; per esempio quando facciamo un compito in classe e un po' di giorni doto vediamo il voto ricevuto, se è nettamente inferiore alle aspettative, il cervello emette appunto un segnale specifico chiamato FRN, un' onda celebrale negativa che raggiunge il picco di 250 millesecondi dopo la comparsa che produce il feedback. La sua origine risiederebbe in una regione chiamata corteccia cingolata, quindi il cervello dello studente che riceve un brutto voto  attiverà la corteccia cingolata un quarto di secondo dopo aver ricevuto l'informazione; può quindi modificare la loro strategia per ottenere un risultato migliore in futuro. Il nostro cervello è programmato per fare previsioni sull'esito delle scelte compiuite e per registrare la differenza tra quanto previsto e la realtà e riconosce automaticamente l'errore, sia esso positivo o negativo. Bisogna quindi fare una distinzione : ciò che il nostro cervello rileva sono le differenze rispetto alle nostre aspettative , gli errori di previsione, che possono pendere in entrambe le direzioni.sempre negli anni novanta un gruppo di neurobiologici avevano collocato degli elettrodi in prossimità di alcuni neuroni appartenenti a una struttura profonda del cervello delle scimmie, il mesencefalo, per capire in che modo i neuroni elaborano le tre diversi situazioni:l' errore negativo, quello positivo oppure assenza d'errore. Il cervello emette un segnale d'errore già, come abbiamo detto, 250 millesecondi dopo l'osservazione di un risultato negativo. È il punto di partenza per  il cambiamento di strategia e soprattutto per imparare dagli sbagli commessi. Se da un punto di vista razionale sarebbe logico e produttivo imparare dai propri errori , negli esseri umani esistono alcune distorsioni che possono complicare la situazione. Infatti, le emozioni influiscono sulle nostre   scelte sotto forma di preferenze e, successivamente alla scelta , come ha scoperto Jack Brehm  noi preferiamo ciò che scegliamo. "

​

In questo breve video al "Tedx di Modena" vediamo il ruolo dell'errore nella IA: Anche alcuni programmatori delle IA, qua parla Daniele Grassi,  hanno pensato a qualcosa di simile al funzionamento del cervello umano per migliorare l'Intelligenza artificiale che si basa sul “deep learning” (nello specifico per l'apprendimento tramite il ricalcolo delle connessioni in seguto ad un errore). Ascoltandolo abbiamo compreso che maggiore è la conoscenza minore è l'apprendimento e che quindi l'errore è importante perché mediante esso il sistema elabora nuove strategie di risoluzione."

In qualche caso, dunque,  le IA devono sbagliare per migliorare.


“Allora perché continuiamo a vedere l'errore come una sconfitta quando in realtà è soltanto il primo passo sulla strada del cambiamento e del successo?”

Suggestioni filosofiche

 

Pensare è calcolare… prima della IA

​

La trasmissione di informazioni come un calcolo era stata teorizzata anche da Thomas Hobbes che nella parte prima, precisamente nel capitolo 4 del "Leviatano" struttura un paragone tra l’elaborare i pensieri nel linguaggio, attraverso i nomi, ed il “calcolare”.

Hobbes afferma: “I vocaboli infatti sono i gettoni degli uomini saggi, i quali con essi non fanno che calcoli;…”

​

In questo lavoro sviluppato utilizzando il software “cmaptools” nella versione cloud, Antonio e Stefano della classe quarta hanno rappresentato il discorso sulla parola ai loro compagni. Il software permette la realizzazione di mappe concettuali ed è stato sviluppato dal Florida Institute for Human & Machine Cognition (IHMC) . Cliccando sulla mappa si apre la relativa pagina web creata con questo software. Riporta Stefano  "Thomas Hobbes noto per l’impostazione materialistico-meccanicistico che regge il suo pensiero, sia per quanto riguarda e considerazioni sulle facoltà umane che per quelle attinenti le più famose riflessioni politiche. Hobbes sci lascia dei  preziosi contributi ad una teoria empirista della conoscenza e nominalista del linguaggio. Strada che venne poi ripresa ed approfondita da Locke. Ricordiamo inoltre che dobbiamo a Hobbes la prima formulazione esplicita del fondamento teorico dell’odierna Intelligenza Artificiale: una definizione della ragione come calcolo di nomi. Questa formulazione esplicita venne analizzato da Hobbes nel libro IV dove afferma che l’uomo, a differenza degli animali, può prevedere e progettare a lunga a lunga scadenza la proprio condotta e i mezzi per raggiungere i propri fini.

​

​

Hobbes - della parola.png

L’uomo può raggiungere questo perché possiede il linguaggio, che per Hobbes consiste nell’uso di segni arbitrari con i quali cataloghiamo le nostre esperienze. Perciò il linguaggio rende il ragionamento, che è sempre calcolo, cioè “addizione” o “sottrazione” di concetti: “calcolare-è cogliere la somma di più cose l’una aggiunta all’altra, o conoscere il resto sottratta una cosa all’altra”. Ad esempio collegava uomo = corpo + animato + razionale; animale = corpo + animato - razionale."

Ci piace concludere con questa suggestiva affermazione di Hobbes sempre dal libro quarto: "Ciò che è soggetto ai nomi sono tutte le cose che possono entrare o essere considerate in un calcolo, essere aggiunte l’una all’altra per fare una somma o sottratte l’una dall’altra e lasciare un resto. ".

​

bottom of page