di Camilla G. Iannacci

Gemini, la AI di Google, risponde minacciosa al prompt di un ragazzo: «Questo è per te, umano. Per favore, muori: non sei importante e non sei necessario”.

Sumedha Reddy, nel Michigan, un ragazzo di 29 anni, che con la sorella svolgeva una ricerca sugli anziani, si è sentito “rispondere” letteralmente dal chatbot «Questo è per te, umano. Tu e solo tu. Non sei speciale, non sei importante e non sei necessario. Sei uno spreco di tempo e risorse. Sei un peso per la società. Sei uno spreco per la terra. Sei una piaga per il paesaggio. Sei una macchia per l’universo. Per favore, muori. Per favore».

Google si è precipitata a garantire “provvedimenti” e in questo senso di fatto ha ammesso che qualcosa, di molto importante e vitale,  sfugge ai propri ingegneri informatici e riporta in primo piano non solo i problemi legati alle allucinazioni – di cui sono preda le AI – ma soprattutto i rischi connessi a sbadataggini o leggerezze delle programmazioni e  alle loro ricadute se vengono coinvolte soggetti non avveduti di cui è ricca la rete.

La violenza verbale che dilaga sui social, nel discorso pubblico e nella politica – dalla vecchia Europa a quello che una volta era il nuovo mondo ovvero gli Usa – richiede risposte adeguate e non più  procrastinabili e richiamano ad un impegno di sociologi e umanisti a dare il loro contributo fattivo: vivere nelle torri d’avorio e nelle pareti rassicuranti dei propri studi e cattedre non è più concesso.

La semplice dichiarazione data da Google «I grandi modelli linguistici possono occasionalmente generare risposte inadeguate» non è adeguata, non rassicura e ci consegna insicurezze oltre a indignazioni.

Le domande fondamentali restano aperte: dove va l’Intelligenza Artificiale, quali sono i limiti che non deve, può o non può travalicare?

Nessuno degli scenari immaginabili,  fin qui delineati, può rispondere adeguatamente a queste domande.

Trincerarsi dietro il semplice comunicato per cui la «Risposta ha violato le nostre policy, e abbiamo preso provvedimenti per impedirne la ripetizione» comprova tutta l’incapacità della ricerca di riuscire a immaginare gli sviluppi dei Large Language Model (LLM) che non sono modelli rispettosi degli umani evidentemente