Oh no! Non di nuovo!


Un ragazzo negli USA si è sucidato "per colpa di chatGPT": una (brutta) storia (non la prima) di dipendenza psicologica di un adolescente dall’AI finita in tragedia, un caso di suicidio a cui ChatGPT avrebbe dato il suo contributo.

E' chiaro come siano da considerarsi campanello d’allarme tutti i sistemi di intelligenza artificiale progettati per creare legami emotivi e dipendenza psicologica, in quanto possono diventare pericolosi, soprattutto quando si rivolgono a persone fragili e vulnerabili.

Senza pretesa di paragone, questa dimostrazione di umanità mi risulta fastidiosa nelle risposte ai prompt a un semplice bot che stiamo mettendo in piedi per cercare informazioni sparse su più documenti aziendali che devono essere consolidate in un'unica semplice risposta informativa: l'aggiunta di un preambolo in stile "Mi hai chiesto.... Ottima domanda, ho cercato nei documenti e ho trovato che..." e di conclusioni in cui chiede "Vuoi sapere anche se..." sono solo rumore inutile, se non noiso.

Oggi mi sono venuti in mente Ash in Alien e Bishop in Aliens: per mantenere l'apparenza di essere umano ed evitare di essere scoperto come androide, Ash (in Alien) doveva imitare comportamenti umani, incluso il mangiare. Bishop (in Aliens), invece, è progettato per una migliore integrazione con gli esseri umani nonostante il suo essere sinstetico, dal momento che la sua identità di androide è nota.

Ash lo mette in culo a tutti, Bishop no.

Meditate gente, meditate...

Commenti