Roma, 24 febbraio 2024 – L’intelligenza artificiale è una delle innovazioni tecnologiche più intriganti dei nostri tempi. L’IA è uscita dai laboratori e dai film di fantascienza ed è entrata nelle nostre case. Ma come succede spesso con gli strumenti avanzati, anche l’intelligenza artificiale è un’arma a doppio taglio: il suo potenziale infinito è tanto promettente quanto spaventoso, e quando finisce nelle mani dei truffatori diventa anche molto pericoloso.

Con l’aiuto dell’IA, i malfattori del mondo digitale possono sviluppare immagini, video, testi e audio falsi, imitando lo stile e le caratteristiche di potenzialmente qualsiasi persona. I cosiddetti deepfake ingannano facilmente i non esperti, ma spesso sono difficili da riconoscere pure per i software dedicati alla loro individuazione. Infatti, secondo uno studio elaborato da Zeyu Lu, scienziato informatico dell’Università Jiao Tong di Shanghai, anche il programma più performante in questo campo verrebbe ingannato nel 13% dei casi analizzati, indicando come ‘vere’ immagini in realtà realizzate tramite l’IA.

Le truffe realizzate con questa tecnologia hanno mille facce. Forse il tipo più comune e semplice da realizzare è il phishing. Si tratta di una truffa attraverso la quale un malintenzionato si finge un ente affidabile per convincere la vittima a fornire informazioni personali, dati finanziari o codici di accesso. Le mail di phishing finora non erano troppo difficili da riconoscere: di solito l’indirizzo e-mail del mittente è ‘strano’ e il messaggio è pieno di errori linguistici o formali. Ma grazie all’IA, oggi si possono generare modelli di phishing molto più convincenti, che sembrano autentici a tutti gli effetti. Perciò è sempre importante controllare il link contenuto nel messaggio prima di cliccarci, per capire se indica un servizio esistente del mittente.

Oggi, però, i truffatori possono avvalersi non solo di testi, ma anche di immagini e video falsi. Dando in pasto all’IA immagini di persone realmente esistenti, ad esempio foto caricate sui social media, è possibile generare nuove immagini che non sono mai state scattate ma che danno l’impressione di essere vere.

Le foto e i filmati così creati poi possono essere utilizzati in una varietà di modi: il viso e la voce di un personaggio famoso può essere impiegato per realizzare pubblicità per truffa dell’investimento online o campagne di give-away fraudolenti. Una delle ultime vittime è Rishi Sunak, il primo ministro del Regno Unito, che in un video realizzato con l’IA sosteneva un’app di trading di Elon Musk, incoraggiando i cittadini a ‘investire’. Ma ad essere esposti a truffe del genere non sono solo i personaggi famosi.

È sempre più comune anche il fenomeno della sextortion facilitata dall’IA, che permette ai criminali di generare immagini compromettenti della vittima per poi ricattarla con esse. Queste foto, di solito, sono facili da riconoscere come false, ma a volte se è disponibile abbastanza materiale visivo adeguato, è possibile persino aggiungere una stanza o un ambiente familiare.

Infine, ultimamente è stato osservato un aumento anche delle truffe telefoniche realizzate con l’aiuto dell’intelligenza artificiale. Bastano dei campioni vocali registrati della persona interessata, ricavabili ad esempio da telefonate o video pubblicati sui social, e si può ricreare la lingua parlata in modo tale che la voce sintetizzata possa essere facilmente scambiata per quella vera.

Le vittime sono spesso genitori o nonni: i truffatori clonano la voce dei figli o dei nipoti che nella telefonata o nel messaggio vocale chiedono soldi per un’emergenza, sono stati coinvolti in un incidente fittizio o sono stati rapiti.

È il caso, ad esempio, di una donna pesarese che ha ricevuto un audio preoccupante da suo ‘figlio’: "Mamma, ho perso portafogli e cellulare, ora non posso chiamarti, riesco solo a mandarti questo vocale dal cellulare di un amico. Ho bisogno di soldi, poi ti spiego meglio, però ti prego, fammi subito un bonifico istantaneo, ho pochi minuti, ti giro l’Iban, appena posso ti dico cosa mi è successo".

Secondo le autorità, la cosa migliore da fare in queste situazioni è chiudere subito le chiamate strane o inquietanti che fingono un problema di un parente o amico, e provare a contattare la persona in questione tramite un altro canale – in caso di dubbi, anche la polizia.

QOSHE - Come riconoscere le truffe con l’IA: quali sono e cosa fare - Fruzsina Szikszai
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

Come riconoscere le truffe con l’IA: quali sono e cosa fare

32 0
24.02.2024

Roma, 24 febbraio 2024 – L’intelligenza artificiale è una delle innovazioni tecnologiche più intriganti dei nostri tempi. L’IA è uscita dai laboratori e dai film di fantascienza ed è entrata nelle nostre case. Ma come succede spesso con gli strumenti avanzati, anche l’intelligenza artificiale è un’arma a doppio taglio: il suo potenziale infinito è tanto promettente quanto spaventoso, e quando finisce nelle mani dei truffatori diventa anche molto pericoloso.

Con l’aiuto dell’IA, i malfattori del mondo digitale possono sviluppare immagini, video, testi e audio falsi, imitando lo stile e le caratteristiche di potenzialmente qualsiasi persona. I cosiddetti deepfake ingannano facilmente i non esperti, ma spesso sono difficili da riconoscere pure per i software dedicati alla loro individuazione. Infatti, secondo uno studio elaborato da Zeyu Lu, scienziato informatico dell’Università Jiao Tong di Shanghai, anche il programma più performante in questo campo verrebbe ingannato nel 13% dei casi analizzati, indicando come ‘vere’ immagini in realtà realizzate tramite........

© Quotidiano


Get it on Google Play