image_pdfVersione PDFimage_printStampa

Il 2017 è un anno significativo, forse storico, per chi guarda allo sviluppo tecnologico con occhi da “futurologo”, se dobbiamo dar credito a quanto riportato – invero in ritardo – dalle principali agenzie stampa internazionali, in occasione della ripubblicazione dell’articolo di un team di ricercatori di Google Brain, settore di ricerca sulle neuroscienze applicate all’intelligenza artificiale del gigante di Mountain View.
Quest’anno, infatti, una rete neurale “madre”, denominata “AutoML – Automatic Machine Learning”, ha generato la prima rete neurale “figlia”, denominata “NASNet” senza necessità di alcun intervento umano. Si tratta del primo “parto digitale” autonomo al mondo.
NASNet è quindi il primo “bimbo” nato da un AI: un figlio istruito – sempre dal genitore digitale, e non dall’Uomo – a riconoscere in modo straordinariamente efficace gli oggetti che compaiono all’interno di un video, compito che svolge eccellentemente fin da “piccolo”, in quanto i test eseguiti con due dei maggiori set d’immagini al mondo – ImageNet e Coco – hanno raggiunto in termini di prestazioni l’82,7% di precisione nel riconoscimento degli oggetti, l’1,2% superiore alle prestazioni dei migliori sistemi loro precedenti.
Generò già un forte interesse nella comunità scientifica, e non solo, la notizia di un precedente esperimento del team di ricerca di Google, che dimostrò come alcune potenti reti avevano imparato – durante le proprie interazioni comportamentali – a proteggere i propri messaggi da occhi indiscreti, compresi quelli degli esperti umani che li istruivano, e – ancor prima – i risultati conseguiti da Annabell, acronimo di Artificial Neural Network with Adaptive Behavior Exploited for Language Learning, un modello di cervello simulato al computer costituito da due milioni di neuroni artificiali collegati da 33 miliardi di sinapsi virtuali, e utilizzato da ricercatori italiani per tentare di replicare strutture e processi che avvengono ogni momento nella nostra mente, rete che non usò regole precodificate per elaborare le informazioni, imparando a rispondere a 1.500 frasi di input attraverso gli stessi meccanismi che sono alla base dell’apprendimento nel cervello umano, e soprattutto senza alcuna conoscenza linguistica precodificata dall’uomo.
Tuttavia, questo ulteriore e recente “traguardo” raggiunto dall’AI progettata da Google, ovvero la creazione di un “figlio” senza necessità di assistenza umana, riporta di attualità il dibattito a suo tempo generato dalle affermazioni di uno dei più noti scienziati viventi, Stephen Hawking, che – come riportavo nel mio libro “Il sex appeal dei Corpi Digitali” disse: “Lo sviluppo pieno dell’intelligenza artificiale potrebbe significare la fine della razza umana. Gli esseri umani sono limitati dalla lenta evoluzione biologica, e non potranno competere – e saranno superati – dal mondo del digitale, che potrebbe evolvere rapidamente e detronizzare gli esseri umani come gli abitanti più intelligenti della Terra. E se computer auto-programmanti mandassero comandi ostili agli oggetti di uso quotidiano che noi stessi abbiamo posto sotto la loro responsabilità?”.
Ci consola sapere che NASNet è stata creata in modalità open-source, ovvero basata su un software il cui codice è accessibile, migliorabile e di libero utilizzo. L’appello dei ricercatori è “di costruire nuovi schemi basati su questi modelli, per affrontare una moltitudine di problematiche che finora non abbiamo neanche immaginato”: in qualche modo, il processo dovrebbe quindi essere trasparente e sotto controllo della comunità scientifica, fermo restando che – invece – ciò che sta accadendo in questo stesso momento in ambito militare resta un segreto e quindi un mistero.
I campi di applicazione per questo nuovo “giocattolo digitale” paiono comunque pressoché infiniti: dalla guida autonoma delle vetture, alla produzione industriale di precisione, alle soluzioni di alta tecnologia per la salute a favore dei portatori di handicap. Ma insieme all’entusiasmo monta la preoccupazione: teoricamente e potenzialmente, siamo appunto innanzi a una macchina in grado di prendere decisioni in assenza dell’intervento umano.
In un recente articolo del settimanale britannico “New Scientist”, il giornalista Michael Brooks ha intervistato esperti delle università di Cambridge e Bristol, che hanno denunciato come la tendenza ad antropomorfizzare le AI – immaginandole ad esempio come “robot ostili” – ci impedisca di renderci conto che le applicazioni di intelligenza artificiale sono invece già tutto intorno a noi: decidono il nostro premio delle assicurazioni, mixando in brevissimo tempo un’incredibile quantità di dati che ci riguardano estrapolati dalle tracce che lasciamo quotidianamente online, scoprono le truffe sul web esaminando tutte le transazioni sospette e le denunciano ai servizi di sicurezza dei gestori delle carte di credito, si occupano di dare le prime risposte agli utenti nei call-center più evoluti, e sono coinvolte nel calcolo del possibile grado di recidività dei criminali, supportando i giudici della definizione della pena da comminare, in alcuni tribunali sperimentali in USA.
Il problema in ogni caso pare essere – più che lo scenario da futuro distopico, con le macchine che prendono il potere sull’uomo – l’assenza di norme certe, in grado di stabilire confini e corretti pesi ponderali uomo/macchina: fino a non più di una quindicina di anni fa, ragionamenti come questi avrebbero fatto parte del dominio della fantascienza, oggi invece chiamano in causa discipline non solo come il neuromarketing, ma anche le scienze sociali la giurisprudenza. Esistono documenti di indirizzo, come la carta della Robo-Etica scritta dal British Standard Institute, o il documento dell’UE che sollecita la creazione di un vero e proprio Ente preposto al controllo su questi delicati scenari. Il tema vero quindi è capire quando questi complessi algoritmi sono utilizzati per prendere decisioni, in quale modo lo fanno, con quale influenza sulla nostra vita di tutti i giorni, e con quale grado di trasparenza. Attualmente, nessuna delle blande azioni di advocacy promosse da ONG e gruppi di pressione ha smosso di un millimetro i colossi del web e del mondo digitale, che questi algoritmi li controllano e che non hanno alcuna intenzione di condividere pubblicamente i criteri alla base del loro funzionamento.
Certamente, un limite evidente le AI ce l’hanno: possono anche loro imparare dall’esperienza, ma non sono dotate di “intelligenza emotiva”, non sanno stringere relazioni, e non ne percepirebbero neppure l’utilità. Soprattutto, ha dichiarato Neil Lawrence, ricercatore dell’Università Britannica di Sheffield, non sono in grado di emulare la capacità dell’Uomo di immaginare e costruire scenari futuri, e – a differenza degli esseri umani – sono prive della più importante delle caratteristiche motivazionali di lungo periodo: non hanno “uno scopo nella vita”. Per ora, perlomeno.

image_pdfVersione PDFimage_printStampa