La città di Tokyo è stata scossa da un evento senza precedenti nell’ambito della sicurezza informatica: il primo caso di un individuo sospettato di aver creato un virus informatico utilizzando l’intelligenza artificiale generativa. L’uomo di 25 anni, Hayashi Ryuki, residente a Kawasaki, è stato arrestato dalla polizia metropolitana di Tokyo il 28 maggio per sospetto coinvolgimento nella produzione di un pericoloso ransomware.
Secondo quanto riportato dalle autorità giapponesi, Hayashi avrebbe sfruttato l’aiuto di programmi di intelligenza artificiale disponibili gratuitamente su Internet per creare codici sorgente di malware e quindi sviluppare virus progettati per danneggiare dati aziendali e richiedere un riscatto in criptovaluta. Sorprendentemente, Hayashi non aveva alcuna competenza specifica nel campo dell’informatica, ma si affidava completamente alle risposte fornite dalle IA durante le sue ricerche su come creare un ransomware.
Le indagini hanno rivelato che Hayashi aveva già attirato l’attenzione delle autorità per un altro reato: l’ottenimento fraudolento di una carta SIM per uno smartphone. Durante tale indagine, sono stati scoperti i virus da lui creati, portando all’arresto anche per sospetti legati alla produzione di malware.
Fortunatamente, non sono stati riportati danni concreti causati dai virus di Hayashi. Tuttavia, l’incidente ha sollevato seri interrogativi sulla sicurezza informatica e sull’uso responsabile dell’intelligenza artificiale. Con la crescente disponibilità di programmi AI interattivi come ChatGPT e simili, esistono preoccupazioni sempre maggiori riguardo alla possibilità che tali tecnologie possano essere sfruttate per scopi maliziosi da individui non autorizzati.
Questo caso giunge in un momento cruciale, mentre il Giappone e altri paesi stanno valutando come regolamentare l’uso dell’IA per prevenire futuri abusi. Mentre alcuni sforzi sono stati compiuti per migliorare le misure di sicurezza nelle IA, come nel caso delle contromisure implementate da alcune piattaforme AI per evitare risposte dannose, rimane evidente la necessità di una maggiore vigilanza e regolamentazione in questo settore.
A livello globale, la comunità internazionale sta guardando con attenzione a questi sviluppi, con l’Unione Europea che ha recentemente approvato la prima legge al mondo sull’intelligenza artificiale, classificando le diverse forme di IA in base al rischio e imponendo sanzioni per i trasgressori.
Il Giappone, seguendo l’esempio dell’UE, ha istituito un consiglio strategico sull’IA per esaminare e sviluppare le leggi e i regolamenti appropriati per gestire l’uso dell’IA nel paese. Mentre la tecnologia continua a evolversi rapidamente, è essenziale che i governi e le organizzazioni internazionali collaborino per garantire che l’IA venga utilizzata in modo sicuro e etico, proteggendo allo stesso tempo la privacy e la sicurezza di individui e aziende in tutto il mondo.