ChatGPT, la massima espressione dell’Intelligenza Artificiale, sembra la nuova versione del Sacro Graal. Ma è davvero cosi?
Ci hanno cresciuti facendoci pensare che le intelligenze artificiali e i robot avrebbero un giorno conquistato il mondo. Film, libri, serie tv, propendevano tutti per quella soluzione. Le macchine un giorno si sarebbero emancipate dal loro creatore, dal loro genitore umano. Una volta “volate via dal nido” poi, avrebbero seguito il percorso più umano possibile, ovvero quello bellico. Un’amara lotta alla supremazia sul nostro amato pianeta terra, i sarebbe combattuta per decenni tra l’essere umano, genitore e l’Intelligenza artificiale figlia
. È logico quindi che, con tutta questa campagna mediatica andata avanti per decenni, tanto per aggiungere un po’ di pepe alla faccenda, qualche remora nei confronti delle AI (dall’inglese Artificial Intelligence) è più che lecita. C’è chi temendo l’insegnamento della fantascienza si stia tenendo a debita distanza. Chi invece, affamato di progresso, tenti ogni giorno di avvicinarsi sempre di più al futuro che ci attende.
ChatGPT, limiti e opportunità
Un nuovo dettaglio però è recentemente spuntato sul campo delle intelligenze artificiali. Come l’uomo, infatti, anche loro sembrerebbero capaci di avere delle allucinazioni. Chiariamo che nel caso dell’essere umano, le allucinazioni sono esperienze sensoriali senza effettivo riscontro sul piano del reale.
Dovute a diverse condizioni mediche possono essere sintomo di patologie varie come conseguenze dell’assunzione di sostanze stupefacenti. In poche parole, però, a prescindere della loro origine, queste nascono, crescono e muoiono, nel cervello umano. Come possono quindi le AI, sperimentare la stessa esperienza sensoriale, se non hanno a loro disposizione un cervello biologico? Ebbene le soluzioni dei ricercatori sono state diverse, ma una delle più chiare rientra in un rumore del codice e nella fase di apprendimento. Essenzialmente un errore che non consente il completamento dell’esperienza della struttura.
Questa però nel caso ad esempio di una chatbot, è obbligata a fornire sempre una risposta e nel caso in cui questa non sia contemplabile, in alcuni casi sono stati registrati dei momenti di iper-fantasia, dove l’AI ha semplicemente inventato una risposta, creando dentro di sé un esempio del reale diverso da ciò che le è stato insegnato. Crea un modo allucinato e diverso per poter creare una risposta. Viene da sé la paura che, se questa tendesse ad avere queste problematiche anche nelle AI che ad esempio gestiscono le guide automatiche dei veicoli, la loro sicurezza potrebbe essere messa fortemente in dubbio.