Competenza Artificiale


L'intelligenza artificiale sembra essere ancora segretamente legata all'ormai superato test di Turing, il quale fu reo di aver diffuso un'impressione sbagliata di quali fossero le corrette aspirazioni.

Diffidate da chiunque oggi citi il test in qualunque discorso sulla IA: fu un esperimento mal impostato (troppo dipendente dalla soggettività del giudice), con un scopo tecnologico discutibile (non vi era penuria di intelligenza umana quindi perché cercarla nelle macchine?) e vincolato al contesto culturale (i parametri di giudizio di due giudici di nazionalità e/o cultura diversa potrebbe variare di molto).

Inoltre, il difetto principale del test fu di essere centrato sulla specie umana, il cui pensiero venne assunto come il picco elevato del pensare. Non erano ammesse forme di intelligenza diverse, più deboli o superiori.

Lo scopo della ricerca sull’IA dovrebbe oggi focalizzarsi su due scopi:
  • scientifico: arrivare a comprendere l’intelligenza come processo algoritmico;
  • realizzativo: costruire macchine che "estendano" (e non sostituiscano o imitino) le capacità mentali degli esseri umani.
Il tentativo di imitare una conversazione tra esseri umani non contribuisce affatto al conseguimento di entrambi gli scopi. Il test di Turing va relegato alla storia, come già successo all'idea di imitare gli uccelli per costruire macchine volanti. Dopotutto lo stesso Turing sottolineava che il suo test non andava inteso come una definizione dell'intelligenza.

La IA deve essere semplicemente la scienza della costruzione di manufatti cognitivi, fondata sulla teorizzazione algoritmica che permea e indirizza la scienza cognitiva moderna (cit. Kenneth M. Ford e Patrick J. Hayes).

Eppure i computer svolgono compiti "intelligenti" da anni e l'IA era già tutta intorno a noi, ma l'hype è nato solo ultimamente grazie a chatGPT, DALL-E & co. che sfruttano sistemi con prestazioni di calcolo un tempo non disponibili.

La scelta di chiamare "intelligenti" questi comportamenti (principalmente probabilistici, quindi ben lontani dall'essere coscienti) è determinata più da atteggiamenti sociali che da fattori oggettivi.

Secondo il teorema della "scimmia instancabile", una scimmia che prema casualmente i tasti di una tastiera per un tempo infinito quasi certamente arriverà a comporre la Divina Commedia, eppure voi questa scimmia la definireste "intelligente" e "consapevole"?

Il principio alla base di GPT-n non è poi così diverso, semplicemente (grazie alla potenza di calcolo) ottimizza i tempi risparmiandosi tentativi infiniti: i dati di pre-addestramento sono utilizzati per rintracciare le dipendenze statistiche tra le parole, codificate nei parametri della rete neurale, generando un testo "semplicemente" prevedendo le parole di volta in volta successive sulla base di queste correlazioni. E sottolineo "semplicemente " perché se questa è definibile come "intelligenza" allora è mera intelligenza sintattica, non certo semantica.

Per quanto riguarda invece l'intelligenza naturale, l'ipotesi che sia una complessa forma di processo algoritmico non è affatto dimostrata, dopotutto la concezione algoritmica non può spiegare il fenomeno della coscienza. Il fatto che nessuna teoria sulla coscienza potrà mai spiegare come un'entità fisica (qual è un cervello posto in un corpo) possa arrivare a essere consapevole del mondo e di se stessa, avvalora la tesi.

Eppure c'è chi vuole farci credere che i simboli interni del processo algoritmico di una IA possano davvero essere dotati di significato per la macchina, e che questo significato possa sia influenzare che essere influenzato dalle relazioni causali tra la macchina stessa e il mondo circostante. Certamente lo si può simulare, ma simulazione e consapevolezza non stanno bene nella stessa frase.

Probabilmente l'obiettivo più profondo di Turing non era quello di evidenziare la differenza tra esseri pensanti e macchine non pensanti, bensì di eliminarla, senza necessariamente disprezzare o ridimensionare l'umanità, figuriamoci minacciarla. Io però propendo più per la visione che si ha nell'episodio 20 della prima stagione di Start Strek (Corte Marziale, anno 1966), in cui McCoy nel difendere Kirk afferma:

"...Il testimone più importante contro il mio cliente non è un essere umano. È una macchina, un sistema informatico... Parlo di diritti. Una macchina non ne ha. Un uomo deve averne. Il mio cliente ha il diritto di affrontare il suo accusatore, e se non gli si concede questo diritto, signor Giudice, lei sta abbassando l’uomo al livello della macchina. Peggio ancora, sta elevando la macchina al di sopra dell’uomo."

Purtroppo il linguaggio metaforico con cui oggi si descrivono le Intelligenze Artificiali usa un vocabolario antropomorfico che vuole rendere indistinguibile l’umano dall’artificiale, attribuendo alle macchine qualità di cui sono prive. Il sogno di copiare il funzionamento del cervello umano attraverso l’IA (ignorando l’ambiente in cui l’uomo è immerso) ha condotto a semplificazioni e a errori di valutazione fuorvianti.

Urge quindi riconoscere i limiti di certe metafore linguistiche quando si applicano a entità artificiali per evitare ingannevoli analogie con le capacità umane, evitando di attribuire alle macchine le capacità proprie di soggetti in grado di assumere decisioni in modo consapevole. D’altronde "come ha luogo il processo decisionale quando qualcuno ha già deciso per noi è un tema politico... ma cosa accade quando qualcosa sta per decidere per noi è un problema filosofico, soprattutto nel momento in cui quel qualcosa sta diventando qualcuno" (M. Chiaritti, "Incoscienza Artificiale").

A voler perpetrare l’errore dell’antropomorfizzazione, si potrebbe pensare che la comprensione artificiale va oltre la mera elaborazione di dati e che la macchina comprende veramente, dimenticando che la sua sofisticata simulazione è basata su algoritmi e modelli di apprendimento automatico che, grazie alla odierna disponibilità di potenza di calcolo, supera le capacità umane.

Per capire quindi come l’IA possa non sostituire l’uomo bensì risultargli utile per superare i suoi limiti fisici e cognitivi, esternalizzando funzioni proprie del cervello umano, è d’obbligo ricercare, antropologicamente, una mancanza umana che la stessa IA si propone di colmare.

Questo gap possiamo trovarlo nella capacità della IA di analizzare tempestivamente quantità inumane di dati e di tradurli non in decisioni ma in informazioni utili a prendere decisioni. Un "ma" figlio della distinzione tra una comprensione intesa come intreccio tra libero arbitrio e coscienza, e una frutto della inconscia correlazione algoritmica tra input e output. Diciamolo: oltre a mancare di consapevolezza, una macchina pecca anche di non-intenzionalità.

Comprensione e apprendimento vanno a braccetto, e poiché le macchine apprendono ottimizzando parametri e adattandosi ai dati forniti (mancando quindi dell’esperienza personale data da emozioni, consapevolezza e contesti sociali), nell’apprendimento artificiale non si rileva la dimensione della soggettività umana che attribuisce sempre un significato morale a ogni concetto. Un comportamento, questo, frutto della ponderazione consapevole delle circostanze e della capacità di discernere gli effetti delle nostre decisioni.

Abbiamo quindi di fronte un uomo dotato di consapevolezza/coscienza e una macchina cui manca una spiegazione di senso che non si limiti alla mera vicinanza probabilistica. Insomma, una IA non saprebbe in alcun modo spiegare perché agisce, e il fatto che potrebbe simularlo molto bene non darebbe comunque valenza alla (mia) neo-locuzione latina "cogito simulandi ergo sum", ecco perché ritengo sia più opportuno declassare la figura metaforica della “Intelligenza Artificiale” a (una pur dignitosa) "Competenza Artificiale"

Commenti