L’Intelligenza Artificiale e le tre leggi della robotica

pellerin intelligenza artificiale

di Ivanoe Pellerin

Cari amici vicini e lontani, da sempre gli uomini hanno paura di ciò che non conoscono o di ciò che per suggestione o per cattiva interpretazione viene percepito come lontano e oscuro. È di questi giorni la notizia che Elon Musk, quello della Tesla, dei viaggi intorno al pianeta, quello che ha investito miliardi di dollari sull’OpenAI (impresa per lo sviluppo dell’Intelligenza Artificiale) ha firmato una lettera, insieme ad un migliaio di altri esperti fra i quali il co-fondatore di Apple Steve Wozniak, che chiede a tutti i laboratori di intelligenza artificiale di fermarsi a riflettere sul futuro per almeno sei mesi. La lettera è stata pubblicata dal Financial Times dopo che la OpenAI di San Francisco ha annunciato l’avvio del GPT-4, una macchina enormemente potente nel campo delle ricerche intorno appunto alle intelligenze artificiali. “Questi sistemi di AI possono comportare gravi rischi per la società e l’umanità” afferma drammaticamente la lettera aperta intitolata “Paura Giant AI Experiments”.

Al contrario dell’Europa, negli Stati Uniti il dibattito sulle AI è molto aperto e compare da tempo e in larga misura sulle principali testate dei media. Il confronto si sviluppa sul come, sul quando e in quale misura i sistemi di AI saranno in grado di sostituirsi agli esseri umani non solo nelle attività lavorative ma anche nella vita di tutti i giorni. È vero che dalla rivoluzione dell’intelligenza artificiale trarremo enormi benefici ma all’orizzonte compaiono rischi e ombre. Lo stesso Sam Altman, il padre di Chat GPT, vede qualche rischio persino intorno alla destabilizzazione della società, così come la interpretiamo. Sappiamo bene che la potenza di internet affrontata senza regole e precauzioni, la disinformazione voluta o provocata da un uso distorto delle informazioni, la tecnologia dissennata senza etica e senza risorse morali possono provocare danni incalcolabili non solo alla società civile ma persino alle strutture di governo e alla democrazia, così come noi le conosciamo.

pellerin intelligenza artificiale
Ivanoe Pellerin

Anche Bill Gates, pur convinto che l’AI possa migliorare numerose aree dell’attività umana, teme l’abuso che un utilizzo scorretto di una “super intelligenza” possa esercitare o addirittura di una “super intelligenza” autonoma che possa svolgere e perseguire programmi o attività in modo indipendente dall’uomo che al contrario dovrebbe controllarla. In fondo forse è la grande paura che abbiamo tutti. Persino Sam Altman afferma che “bisogna sforzarsi di minimizzare i rischi dando alla gente il tempo di abituarsi gradualmente all’uso di queste tecnologie.”

Cari amici vicini e lontani, facciamo un passo indietro. “Io, robot” è una raccolta di Isaac Asimov, del 1950. Contiene 9 storie scritte fra il 1940 e il 1950, che hanno per protagonisti i robot “positronici”. A tutt’oggi Asimov è considerato uno dei più importanti scrittori di fantascienza. La fantascienza, secondo la definizione che ne danno i dizionari è “una letteratura di idee, che tende a interpretare con inquietanti, paradossali estrapolazioni la realtà contemporanea o che diviene critica, spesso angosciata, nei confronti dei limiti della ricerca scientifica più avanzata, premonitrice di catastrofi cosmiche o ecologiche. La narrativa diviene pretesto per allegorie para filosofiche e metafore politico-sociali” (Voce fantascienza, Enciclopedia Treccani, 2018).

Una macchina per quanto sofisticata e intelligente possa essere, resta comunque uno strumento creato dall’uomo per servire l’uomo. Da persona razionale qual era, Asimov riteneva che sarebbe bastato far soggiacere le macchine a regole precise e tassative per tenere gli uomini al riparo da qualsiasi rischio. Da qui le tre leggi della robotica. Legge numero uno: un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. Legge numero due: un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge. Legge numero tre: un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.

Curioso e singolare osservare come nel 1983 Isaac Asimov ragionasse sul funzionamento del mondo nel 2019 anno in cui, secondo lo scrittore, l’informatizzazione avrebbe dominato la vita degli uomini e sarebbe diventata ancora più essenziale per ciascuno, nella propria quotidianità professionale e domestica.

È interessante leggere sul New York Times dell’8 marzo scorso un serrato dibattito fra il filosofo e scienziato cognitivista Noam Chomsky proprio con la Chat GPT. Il nostro stimolava la macchina ad un inquieto confronto su temi filosofici ed essa rispondeva con un’onestà molto “umana” che non era in grado poiché non possedeva coscienza o auto coscienza e non era capace di prospettive personali. Chomsky insisteva a chiedere se fosse morale per un essere umano chiedere assistenza a un’intelligenza artificiale, per definizione amorale, intorno a decisioni morali. E la Chat GPT rispondeva decisamente che la decisione ultima spetta all’uomo.

Evocando le leggi della robotica di Asimov, la macchina voleva probabilmente dire: “Caro mio, io sono una macchina, certo molto potente, che ti propone varie soluzioni ma, alla fine, la responsabilità ultima della scelta spetta a te”. Cari amici vicini e lontani, spero davvero che queste faccende appartengano sempre a questa prospettiva.

pellerin intelligenza artificiale – MALPENSA24