Di Antonino Giannone

Il Premio Nobel per la Fisica 2024 a John J. Hopfield[1] e Geoffrey E. Hinton[2]  per i risultati delle loro ricerche scientifiche sui neuroni artificiali nello sviluppare metodi che sono alla base del potente apprendimento automatico di oggi, non rappresenta solo un riconoscimento delle loro innovazioni nel campo delle reti neurali, ma sottolinea anche l’importanza cruciale dell’Intelligenza Artificiale (IA) nel panorama attuale della conoscenza.

Entrambi sono considerati dei pionieri dell’IA: John Hopfield ha creato una memoria associativa, in grado di memorizzare e ricostruire immagini e altri tipi di schemi nei dati; Geoffrey Hinton ha inventato un metodo in grado di trovare autonomamente le proprietà nei dati e di eseguire compiti come l’identificazione di elementi specifici nelle immagini. Questo premio, a mio avviso e di molti commentatori, evidenzia: la responsabilità che grava su scienziati, studiosi e decisori politici nel garantire una contestualizzazione etica di queste tecnologie avanzate. Inoltre emerge il ruolo fondamentale delle reti neurali nell’evoluzione dell’IA. Nel 1949 grazie a Donald Olding Hebb, psicologo canadese, vennero analizzati in dettaglio i collegamenti tra i neuroni artificiali e i modelli complessi del cervello umano e poi, verso la fine degli anni ’50 arrivarono i primi prototipi funzionanti di reti neurali, cioè i modelli computazionali ispirati al funzionamento del cervello umano, costituiti da nodi interconnessi, simili ai neuroni biologici che elaborano e trasmettono informazioni attraverso vari livelli della rete.

In pratica una rete neurale artificiale è un modello computazionale composto di “neuroni” artificiali, ispirato alla semplificazione di una rete neurale biologica. Ricordiamo che il nostro Cervelletto è uguale al 10% della Massa Cerebrale e contiene 70 Miliardi di neuroni, 80% dei neuroni totali! Secondo Ellen Moons, membro del comitato per il Nobel, Hopfield e Hinton “nello sviluppare metodi che sono alla base del potente apprendimento automatico di oggi, hanno utilizzato concetti fondamentali della fisica statistica per progettare reti neurali artificiali che funzionano come memorie associative e trovano modelli in grandi insiemi di dati.

Tali reti sono state utilizzate per far progredire la ricerca in fisica e sono anche diventate parte della nostra vita quotidiana, ad esempio nel riconoscimento facciale e nella traduzione linguistica“. Leggiamo che dopo l’assegnazione del Premio Nobel, Hinton, parla dei rischi di quel che lui stesso ha inventato: “Non abbiamo idea di cosa succederà, nemmeno noi scienziati. Bisogna mettere regole il prima possibile….Sono preoccupato che tutta questa roba un giorno sfugga al nostro controllo. Il problema è semplice: l’intelligenza artificiale sarà molto positiva per la medicina, l’ambiente, i nanomateriali ma non c’è modo di fermarne lo sviluppo. E un giorno diventerà più intelligente di noi. A quel punto, piomberemo in uno scenario assolutamente inedito e non so come gli umani potranno rimanere al potere[3]. Ormai si richiede una massima attenzione alle implicazioni etiche, poiché l’IA sta trasformando rapidamente molte aree della nostra vita, dall’economia alla giustizia sociale e le scoperte scientifiche non esistono in un vuoto etico. Gli attori coinvolti nel dibattito sull’IA devono essere consapevoli dei rischi legati a queste innovazioni, come bias[4] algoritmici e mancanza di trasparenza, e devono impegnarsi a sviluppare soluzioni che minimizzino tali rischi.

Si sono sollevati interrogativi riguardo al controllo umano su tali tecnologie e lo stesso Hinton, ha espresso preoccupazioni etiche sull’uso dell’IA, evidenziando l’urgenza di riflessioni sui rischi associati all’IA. Servirà stimolare un coinvolgimento più attivo da parte degli studiosi di etica, invitando il pubblico e i decisori politici a considerare seriamente l’importanza di una regolamentazione adeguata dell’IA che già è stata avviata con l’AI Act dell’UE[5] e la prima Risoluzione dell’ONU sull’IA[6]. È fondamentale che la ricerca etica accompagni i progressi scientifici, garantendo che le nuove tecnologie, pur portando benefici, non compromettano diritti umani o equità sociale. Esistono implicazioni etiche nelle applicazioni dell’IA in tutti i campi, ma, a mio avviso, sono da approfondire, in primis, quelle che si riferiscono all’IA generativa e Chat GPT cioè l’utilizzo dell’AI per la creazione di nuovi contenuti, come testo, immagini, musica, audio e video il che permette di sfruttare il machine learning e di applicarlo a una serie ampia di casi d’uso. La diffusione di questa tecnologia pone infatti nuove sfide per l’essere umano, in particolare per quanto riguarda il pensiero critico cioè l’abilità cognitiva che ci permette di analizzare, valutare e interpretare le informazioni in maniera obiettiva e ponderata.

Dunque con l’IA potremmo non assistere alla semplice sostituzione di attività ripetitive dell’Uomo in molti settori, ma all’occupazione dell’IA nella sfera del processo decisionale: selezione dei dati, definizione di alternative, analisi e ottimizzazione con scelta della soluzione senza che conosciamo o meglio controlliamo i metodi e i criteri di processo di queste fasi che sono proprie dell’elaborazione logica del pensiero dell’uomo. Sappiamo che gli elementi fondamentali del pensiero critico includono l’analisi, la valutazione, l’inferenza, cioè il processo mentale con il quale da premesse si traggono conclusioni, l’interpretazione e l’autoregolazione. Il pensiero critico è fondamentale nella vita quotidiana di ogni persona, nel lavoro e in tutte le altre attività, poiché ci consente di prendere decisioni informate e responsabili. Non è stato casuale che al G7,[7] per la prima volta, un Pontefice, Papa Francesco[8], abbia parlato nella Sessione dedicata all’IA, manifestando le sue raccomandazioni ai Politici che governano il Mondo occidentale: tutelare la Persona e la sua Dignità; consentire l’accesso alle nuove tecnologie a tutti (Digital Accessibility). Condividiamo[9] che sia necessario rispettare alcuni principi etici nella progettazione delle applicazioni d’IA.

È ormai il tempo della riflessione a livello globale, è necessario che l’umanità comprenda, da una parte, che questa immane potenza e ricchezza di chi possiede le piattaforme di miliardi di dati è frutto dell’intera umanità che li produce su Internet, sui siti web. Questo patrimonio andrebbe in buona parte restituito all’umanità e soprattutto agli ultimi, alle vittime del progresso? Si tratta di un valore che ognuno di noi produce con il “consumo” dei dati, dell’accesso sulle piattaforme digitali che realizzano vantaggi strepitosi agli stakeholder, come delle fabbriche con un numero immenso di operai non retribuiti, generando un Webfare, ossia il Welfare digitale di cui i nostri tempi hanno bisogno ormai più di ogni altra cosa perché l’accesso al web è volontario e soddisfa bisogni di diverso tipo di noi tutti che vi accediamo. Ormai, ognuno di noi produce una massa sterminata di dati, che possono venire trasformati in valore e non solo per pochi, ma per tutti. Ognuno di noi produce questo enorme valore per chi possiede le piattaforme digitali. Nella progettazione delle applicazioni dell’IA, mi unisco a quanti auspicano, come Paolo Benanti[10], che tanti giovani Studenti Universitari intraprendano il percorso di diventare Ingegneri delle Tecnologie Digitali, dell’IA e dell’Algoretica[11]

Antonino Giannone

Presidente dell’Associazione Culturale: Umanesimo ed Etica per la Società Digitale (www.umanesimodigitale.eu). Editorialista A.N.I.M.

[1] John J. Hopfield è nato nel 1933 a Chicago, negli Stati Uniti, ed è professore alla Princeton University, sempre negli Stati Uniti.

[2] Geoffrey E. Hinton è nato nel 1947 a Londra, nel Regno Unito, ed è professore all’Università di Toronto, in Canada.

[3] Dichiarazioni di Geoffrey E. Hinton riportate dal Corriere della Sera sul web: https://www.corriere.it/cronache/24_ottobre_09/cosi-le-macchine-imparano-il-nobel-per-la-fisica-ai-pionieri-dell-intelligenza-artificiale-d1ac9492-401e-4611-96c7-fecae8c26xlk.shtml

[4] Il significato di bias in italiano è pregiudizio. L’etimologia del termine “bias” è incerta, ma studi accreditati collocano l’origine in Francia e nella lingua provenzale con la parola biais ovvero “obliquo”, “inclinato”. Bias: della negatività- dello status quo- del pavone – del presente- dell’ottimismo – di omissione -d’azione.

[5] Regolamento sull’IA: il Consiglio e il Parlamento raggiungono un accordo sulle prime regole per l’IA nel mondo (Febbraio 2024).

[6] L’ONU il 21 marzo 2024 ha adottato una Risoluzione storica, guidata dagli Stati Uniti con 120 Paesi a sostegno, senza votazione, sulla promozione dei sistemi di Intelligenza Artificiale.

[7] Il G7, come è noto, riunisce sette Paesi altamente industrializzati (Canada, Francia, Germania, Giappone, Italia, Regno Unito, Stati Uniti, cui si aggiunge l’Unione Europea) uniti da una serie di principi e valori comuni: libertà e democrazia, rule of law, rispetto dei diritti umani.

[8] Il 50° vertice del G7 si è svolto dal 13 al 15 giugno 2024 in Italia, nel comune di Fasano, in provincia di Brindisi, presso il resort Borgo Egnazia. Il vertice è stato presieduto da Giorgia Meloni, Presidente del Consiglio dei ministri della Repubblica Italiana, e ha visto la partecipazione di Papa Francesco.

[9] Facciamo riferimento a studi e conclusioni non solo dell’amico Paolo Benanti, di cui abbiamo scritto in precedenza, ma anche di Luciano Floridi che in USA è Direttore fondatore dello Yale Center for Digital Ethics e insegna anche all’Università di Oxford e di Bologna. Ho recentemente incontrato il mio amico Luciano, a Roma per il premio Global Award, assegnatogli dalla LUISS University, Floridi è considerato il padre della filosofia dell’informazione; ha tracciato le linee-guida di un’etica dell’IA modulata sui princìpi della responsabilità individuale e collettiva.

[10] Paolo Benanti è un Francescano che Insegna alla Pontificia Università Gregoriana, è consigliere di Papa Francesco sui temi dell’intelligenza artificiale e dell’etica della tecnologia. Presidente della Commissione IA del Governo italiano, fa parte della Commissione di 39 Esperti dell’ONU per le linee guida sull’IA.

[11] Paolo Benanti è il più noto Esperto di Algoretica, termine che ha coniato e sviluppato per primo.

foto https://www.scienzainrete.it/files/styles/molto_grande/public/nobel-fisica-2024_0.jpeg?itok=Q9WM3bPE