L'ECO tele7

Informarsi è un piacere!

Delphi…o Delfi?

Care lettrici e cari lettori,

Oggi l’intelligenza artificiale (IA) capisce i nostri comandi verbali, riconosce dei soggetti nelle immagini, guida veicoli ed è, ahinoi, migliore nei videogiochi.

Ma cosa ci aspetterà in futuro?

Il ricercatore Arend Hintze, assistente professore di biologia integrata, informatica e ingegneria all’Università del Michigan, classifica nel 2016 quattro tipi di intelligenza artificiale, sui quali non mi soffermo, descrivendo come potremo sviluppare sistemi di IA sempre migliori.

Secondo lui, dovremo innanzitutto fare molto di più che insegnare alle macchine ad apprendere da noi umani. Dovremo superare i confini che definiscono i tipi di intelligenza artificiale.

Iniziamo col dire che non è facile trovare una definizione semantica univoca per «intelligenza artificiale». Sappiamo pertanto che interessa vari campi, come l’informatica, la linguistica e la neurobiologia.

L’interesse verso il concetto di intelligenza artificiale nasce stranamente con la seconda guerra mondiale e la creazione di macchine per la decifrazione di codici segreti. Si sviluppa poi con forza insistente a partire dal 1943, quando i due ricercatori americani Warren McCulloch e Walter Pitts danno origine al primo neurone artificiale.

I primi studi in materia vennero fatti per cercare di comprendere al meglio come funzionasse il cervello biologico. Sempre nel 1943 questi due visionari, Warren McCullok & Walter Pitts, pubblicarono il primo articolo su una cellula nervosa semplificata.

L’idea del neurone artificiale venne successivamente ripresa da Frank Rosenblatt, il quale sviluppò una macchina elettromeccanica costituita da potenziometri, motori, e fotocellule che avrebbe avuto lo scopo di riconoscere semplici forme geometriche. Era nato «il percettrone». Un semplice classificatore lineare binario che era in grado di apprendere efficacemente la regola necessaria per riconoscere due classi di input diverse e linearmente separabili. Frank Rosenblatt, oltre ad averlo realizzato fisicamente, studiò anche un semplice algoritmo per l’uso.

Un altro anno fondamentale per l’intelligenza artificiale è il 1953. Esce, infatti, un articolo decisivo per l’argomento: «Computing machinery and intelligence» di Alan Turing, apparso sulla rivista Mind.

Nell’articolo Turing prende spunto da un gioco, chiamato “gioco dell’imitazione”, sottoposto a tre partecipanti: Bob, Alice, e una terza persona, Charlie, che è tenuta separata dagli altri due e può solo stabilire tramite una serie di domande qual è l’uomo e qual è la donna. Dal canto loro anche Bob e Alice hanno dei compiti: Bob dovrebbe ingannare Charlie e portarlo a fare un’identificazione errata, mentre Alice dovrebbe aiutarlo a mantenere un’ identificazione corretta. Poiché bisogna privare Charlie di indizi per “indovinare”, come l’analisi della grafia o della voce, le risposte alle domande di Charlie devono essere dattiloscritte o trasmesse comunque in modo impersonale o anonimo.

Il padre dell’informatica propone quello che diventerà famoso come “test di Turing“. Lo scopo? Determinare se una macchina può pensare come un essere umano. Come? Con una semplice prova di imitazione conversazionale, come nel gioco descritto.

Il 09 giugno 2014, a 60 anni dal suicidio di Alan Turing, del matematico perseguitato per la sua omosessualità, un computer è riuscito per la prima volta a superare il test da lui ideato. Il “test di Turing”, volto appunto a stabilire se una macchina sia in grado di «pensare» come un essere umano.

I progressi nel settore dell’intelligenza artificiale, in special modo quelli intervenuti negli ultimi 20 anni, portano alcuni a dubitare e a chiedersi, se il test di Turing costituisca ancora un elemento così importante per le aspettative del settore. Ad esempio Rohit Prasad, capo del gruppo di sviluppo dell’assistente vocale di Amazon, Alexa, si è posto questa domanda.

Ed ecco che gli sviluppi nel campo dell’intelligenza artificiale fanno sì che il test di Turing stia quietamente scomparendo dalla lista degli obiettivi di chi lavora nel settore. Questo, pare, per due motivi apparentemente antitetici: da una parte perché le nostre aspettative si vanno orientando verso una presenza dell’IA nelle nostre vite. Ad esempio, quando chiediamo a Siri, Alexa o Google di fare qualcosa per noi, ci aspettiamo da una parte che la faccia e poi ci risponda con una semplice conferma e non che intavoli una conversazione con noi. Dall’altra, anche quando interagiamo più estensivamente con questi assistenti, ad esempio quando chiediamo di leggere una storia o dialoghiamo con un call center, digitando un serie di numeri richiesti, vogliamo sapere se chi parla è un umano o una macchina che ci illude.

Ma la domanda fondamentale mi sembra questa: cosa ne sarà della nostra libertà mentale, se arriveremo a chiedere a una macchina cosa è giusto e sbagliato, dei consigli, delle terapie e quant’altro?

L’etica in materia di intelligenza artificiale è un tema caldo e destinato ad approfondimenti sempre più rilevanti anche per la nostra quotidianità.

All’intelligenza artificiale vengono affidati compiti crescenti: dalla valutazione dei curricula umani, all’ autorizzazione di prestiti.

Si moltiplicano i robot che assistono gli anziani. Nascono chat che «conversano» con le persone.

Occuparsi di etica delle macchine è diventata un’esigenza impellente non più rinviabile, soprattutto per assicurare una più sicura interazione tra sistemi artificiali intelligenti ed esseri umani.

Un tentativo di sondare le potenzialità di questo sentiero di sviluppo è Ask Delphi, cioè «Chiedilo a Delphi», un prototipo disponibile dallo scorso 14 ottobre che ha l’ambizioso scopo di offrire risposte morali alle domande poste dal pubblico.

In pratica, andando sul sito www.askdelphi.com , è possibile porre a Delphi domande inerenti comportamenti giusti o sbagliati e riceverne una risposta cliccando il tasto rifletti. Google cerca, Delphi riflette. Il tipo di risposta è molto basica: è ok, è sbagliato, non è normale, è giusto.

E’ curioso quanto il progresso assomigli tanto a un clamoroso balzo all’indietro: davvero vogliamo tornare dall’oracolo di Delfi?

Cosa c’è di morale in una risposta che mi viene offerta da qualcosa che è assolutamente indifferente al mio destino?

Questo mi pare un tema molto etico: in un mondo in cui la tecnologia ci affianca in modo sempre più prepotente, come si protegge la libertà dell’individuo dall’invasione di sistemi che sembrano atrofizzarla con una gentilezza sintetica umanizzata da un software?

Non credo ci sappia rispondere Delphi… ma forse neanche l’Oracolo di Delfi…

Gabriella Putrino

Social Media Auto Publish Powered By : XYZScripts.com