top of page
Post: Blog2_Post

Intelligenza artificiale e nuove frontiere del cybercrime

Come in tutti i grandi cambiamenti sociali, anche il modo in cui interagiamo con il mondo online si sta evolvendo e l’influenza che il virtuale esercita sulle nostre vite si può riscontrare in diversi ambiti. Fino a qualche decennio fa l’utopia che una intelligenza artificiale comprendesse le nostre richieste e si facesse carico di esigenze umane apparteneva al mondo della fantascienza. Eppure, ad oggi, la ricerca e il continuo evolversi delle più sofisticate tecnologie stanno dando ottimi risultati. Grazie ai complessi algoritmi dell’Intelligenza artificiale (A.I. Artificial Intelligence) è possibile infatti riassumere interi libri, scrivere testi di qualsiasi natura, creare immagini e opere grafiche che rispecchiano esattamente ciò che immaginiamo, scambiare la voce e il viso di due persone. Sono tutte opportunità da non sottovalutare che, nel giro di breve tempo, introdurranno nella società significativi cambiamenti: molte professioni spariranno e ne nasceranno di nuove, il mondo dell’istruzione dovrà adeguarsi, sempre più mansioni verranno delegate.

Tuttavia, insieme alle opportunità e ai benefici che offre, l'A.I. porta con sé una serie di rischi significativi, in particolare nei settori del cybercrime, delle fake news e delle truffe online. L' A.I. è infatti utilizzata in modo sempre più sofisticato dai criminali informatici per condurre attacchi di vario genere. Le minacce vanno dall'hacking di reti aziendali e governative, alla diffusione di malware e ransomware, fino al furto di dati sensibili. L' A.I. consente ai criminali di automatizzare complesse operazioni di hacking e di adattare rapidamente le loro tattiche in risposta alle difese informatiche. Lo scorso 10 Novembre, ad esempio, la filiale americana della Industrial and Commercial Bank of China (Icbc), è stata colpita da un attacco ransomware (malware che limita l'accesso del dispositivo che infetta, richiedendo un riscatto, ransom in inglese) che ha interrotto le transazioni nel mercato del Tesoro Usa. La finalità degli haker generalmente è la richiesta di un ingente riscatto per lo sblocco e l’appropriamento di dati sensibili a scopo di estorsione. Sulla base di quanto dichiarato da Steve Condit, proprietario della società di cybersicurezza Simply IT,


le tecniche di ingegneria sociale sarebbero in costante progresso e continuerebbero ad affinarsi grazie alla disponibilità e ai miglioramenti dei sistemi di intelligenza artificiale, come ChatGPT. Sarebbe possibile realizzare virus polimorfici ovvero in grado di modificare il proprio codice ogni volta che infettano un sistema.

Un altro punto focale nell’utilizzo malevolo dell’A.I. è che può essere sfruttata per generare contenuti falsi e ingannevoli, alimentando la diffusione di fake news e disinformazione. Algoritmi di generazione di testo, noti come GPT-3, possono produrre articoli, tweet e post su social media che sembrano essere stati scritti da esseri umani. Questo rappresenta una vera e propria minaccia per la democrazia e la stabilità sociale.

 

Il ritmo dei progressi nell’intelligenza artificiale è incredibilmente veloce. […], non hai idea di quanto velocemente stia crescendo ad un ritmo vicino ll’esponenziale. Il rischio che succeda qualcosa di gravemente pericoloso è dentro cinque anni di tempo. 10 anni al massimo.

Elon Musk SEO e CTO di Space Exploration Technologies Corporation

 

Deepkake e Deepfake, la nuova frontiera della truffa online


Negli ultimi due anni si è visto diffondersi un fenomeno legato all’intelligenza artificiale particolarmente preoccupante. Nel mondo delle truffe online, l'A.I. è infatti utilizzata per creare chatbot che simulano conversazioni umane per ingannare le vittime. Questi chatbot possono indurre le persone a condividere informazioni personali o finanziarie sensibili, spesso con conseguenze disastrose. I nuovi programmi di sintesi vocale sono in grado di riprodurre in maniera talvolta perfetta voce, tono, e timbro delle persone ascoltando un audio di pochi secondi. Gli hacker isolano la voce di un soggetto da video trovati in rete (pensiamo a quante volte pubblichiamo storie, post o contenuti su Instagram, Facebook o YouTube nei quali parliamo) per poi riprodurla in finte telefonate. Immaginiamo una madre che, magari in piena notte, riceve la telefonata del figlio (o meglio, dell’Intelligenza artificiale che simula la voce del figlio) che le dice di aver fatto un incidente e di avere bisogno di soldi per risolvere la situazione.


Secondo i dati della Federal Trade Commission, negli Stati Uniti, durante lo scorso anno, sono state oltre 36.000 le segnalazioni di persone truffate da qualcuno che finge di essere un amico o un familiare. Sono 5.100 i casi di truffa via chiamata, e i criminali sono riusciti a estorcere 11 milioni di dollari.

Ma non solo la voce può essere “clonata” dall’intelligenza artificiale. I criminali usano video modificati per fingersi delle celebrità che, a loro insaputa, si ritrovano ad essere testimonial di prodotti o servizi che altro non sono che truffe. Ad esempio, l’anno scorso è diventato virale un video creato artificialmente, in cui il noto imprenditore Elon Musk prometteva elevati profitti grazie a un piano di investimento in criptovalute di dubbia efficacia che, invece, portava gli utenti a perdere il proprio denaro. Recente è il caso della cantante italiana Noemi, che si è vista pubblicizzare un prodotto dimagrante senza mai aver girato personalmente il video che lo promuoveva. Il risultato di questa tecnica di sovrapposizione di volti è sconvolgente, e spesso è davvero difficile per l’utente saper distinguere il vero dal falso.

Ancora più grave è il tassello che si aggiunge al già conclamato reato di revenge porn, per il quale nel 2019 è stato istituito il codice rosso (612 ter del Codice Penale). Per violare la privacy di un soggetto, il malintenzionato può usare l’I.A. per sostituire il volto di qualcuno in un filmato pornografico. In un caso sono apparsi video di celebrità il cui volto è stato sovrapposto ad attrici o attori durante scende di film hard.



Esempio di deepfake dell'attore Tom Cruise

 

Qualche consiglio per evitare le truffe dell’intelligenza artificiale


In questi giorni la improbabile catena di condivisioni apparsa su facebook in cui gli utenti postano la frase “Io disattivo, nego il consento deluso delle mie foto” ingenuamente convinti di tutelarsi, la dice lunga sulla scarsa informazione che ci sia in materia di privacy e su come vengano utilizzati i nostri dati dai social network e dai servizi internet. Ovviamente tali dichiarazioni non hanno alcun impatto legale e sono il prodotto di informazioni errate e malintenzionate.

I dati degli utenti sono sempre stati una risorsa preziosa per i social network fin dalla loro creazione. Senza un margine di profitto, piattaforme come Facebook non potrebbero sussistere. Il loro utilizzo gratuito fa sì che i nostri dati assumano un valore economico. Lo sottoscriviamo ad ogni creazione di accont ed è sempre stato così. La recente opzione che Meta offre ai suoi utenti di scegliere tra un accont a pagamento senza inserzioni pubblicitarie (e quindi senza tracciamento di dati che permette di mostrare sponsorizzare mirate agli interessi dell’utente) e uno gratuito dove i dati vengono utilizzarti, conferma quanto sopra. Proprio per questo gli stati e le giurisdizioni dovrebbero garantire che le leggi esistenti siano adeguate a fronteggiare le nuove minacce del cybercrime. Ciò potrebbe implicare l'aggiornamento delle leggi sulla privacy, la definizione di nuovi reati informatici e la promulgazione di normative specifiche sull'uso dell'A.I in contesti dannosi.








Imparare il discernimento per tutelarsi


A uno sguardo attendo è possibile riconoscere video deepfake da alcuni dettagli che rendono ancora imperfetta l’immagine che si è voluto cercare di riprodurre tramite Intelligenza Artificiale: movimenti a scatti, cambi di illuminazione tra un frame e l’altro, assenza di battiti di ciglia, sguardi troppo fissi, movimenti delle labbra non sincronizzati al parlato. Ovviamente i programmi di Intelligenza Artificiale miglioreranno sempre di più e presto verranno corrette anche queste imperfezioni. Però per il momento, in molti casi, da questi elementi è ancora possibile distinguere un video vero da un fake.

 

Per quanto riguarda il pericolo di fake news, è sempre opportuno utilizzare fonti di informazione attendibili e verificabili. Se una testata giornalistica è registrata a un Tribunale, significa che ha una responsabilità nei confronti dell’Ordine dei Giornalisti. Ovviamente può capitare anche ai professionisti di prendere degli abbagli, ma per deontologia i giornalisti hanno il dovere di rettifica in caso di informazioni errate. Questo non succede con siti acchiappa click che, invece, basano i loro guadagni sulle visualizzazioni e condivisioni, indipendentemente dalla veridicità del fatto o dell’immagine. Anzi, spesso sono proprio questi siti che, con lo scopo di guadagnare, diffondono notizie sensazionalistiche e non verificate che creano una reazione di rabbia o pena nel lettore ai fini di farlo commentare o condividere.

 

È inoltre possibile capire se un testo è stato scritto da una intelligenza artificiale. Oltre a delle risorse create appositamente, molto utili per esempio agli insegnanti per sapere se uno scritto è stato redatto da uno studente o semplicemente “delegato”, alcuni elementi possono far scaturire campanelli d’allarme. Generalmente, la sintassi dei testi scritti con I.A. è molto rigida e semplice. Le frasi sono brevi, spesso ripetitive e ridondanti. Manca insomma quella creatività e brillantezza tipica della scrittura umana che, anche quando imperfetta, riesce comunque a comunicare.

 

 

 

 

 

 

 

Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page