Lo sblocco all’uso di ChatGPT in Italia ha squarciato il velo su una frontiera inesplorata delle truffe online. Ecco come funzionano
Dopo il blocco dovuto all’intervento del Garante per la Protezione dei Dati e della Privacy ChatGPT è stata reintrodotta nell’uso comune nel nostro Paese. Ma miete già le prime vittime. O così vorrebbero far credere i truffatori che la utilizzano come pietra dello scandalo o se preferite come cavallo di Troia, di Trojan per la precisione. Già da tempo, infatti, si parla di come, le truffe online, abbiano iniziato a sfruttare le magie dell’intelligenza artificiale generativa per creare scompiglio.
Con il suo ritiro la situazione sembrava essersi placata, ma ora che è stata rimessa in gioco, è stato registrato un aumento ragguardevole. Un sempre più crescente numero di malware si stanno infatti spacciando per il software di AI generativa per commettere frodi e simili.
Questi infatti, spacciandosi per ChatGPT, riescono a farsi strada nei sistemi dei loro fiduciosi utilizzatori, che cliccano sull’accesso fasullo, sena sospettare nulla. Meta ha dichiarato che da marzo 2023, i loro ricercatori, attraverso approfonditi studi e controlli, hanno individuato almeno 10 famiglie diverse di malware.
Tutte queste avevano ovviamente lo scopo di simulare la diva del momento, appunto ChatGPT. In conseguenza a questa scoperta, l’azienda, proprietaria di Instagram e Facebook, ha dichiarato anche di aver bloccato sui propri servizi pubblici, circa 1.000 link che riconducevano a questi malware.
Anche se la più colpita, c’è da dire che ChatGPT, on è l’unica piattaforma ad aver subito questo genere di “attacchi”. Si aggiunge infatti all’elenco delle vittime, anche Google Bard. Meta spiega anche che, questi malware sono ovviamente dannosi per i dispositivi che entrano in contatto con loro e di fare particolare attenzione a riconoscerli, per quanto difficile questo possa risultare.
Molte di queste copie fasulle certamente sono più semplici di altre. Alcune sono semplicemente una copia di facciata, rendersi conto del problema è quindi semplice. Ma altre replicano invece la funzione stessa di ChatGPT. Risultando essere delle vere e proprie intelligenze artificiali, ma da curriculum meno onesto diciamo. Con scopi non immacolati come vorrebbero far pensare ai fruitori