Cerca nel blog

lunedì 31 marzo 2025

Google Chrome è stato interessato da CVE-2025-2783


CVE-2025-2783 è una vulnerabilità zero-day che colpisce Google Chrome, scoperta in una campagna mirata di cyber-spionaggio nota come Operation ForumTroll. Questa falla critica ha permesso agli aggressori di aggirare le robuste protezioni sandbox di Chrome ed eseguire codice dannoso sui sistemi delle vittime.

Panoramica di CVE-2025-2783
Dettagli tecniciIl difetto risiede in Mojo, una libreria di comunicazione interprocesso (IPC) ampiamente utilizzata in Chrome. Mojo facilita la comunicazione tra i componenti del browser.
La vulnerabilità deriva da una gestione non corretta degli handle, che crea una situazione in cui gli aggressori possono aumentare i privilegi ed eseguire payload dannosi.
Sfruttando questa falla, gli aggressori aggirano le protezioni sandbox di Chrome , progettate per isolare i processi del browser dal resto del sistema operativo. Questa violazione garantisce l'accesso non autorizzato alla macchina della vittima.

Meccanismo di sfruttamento
Vettore di attacco
La vulnerabilità è stata sfruttata tramite e-mail di spear-phishing che hanno reindirizzato le vittime a siti Web dannosi creati appositamente per sfruttare la falla. Questi siti contenevano codice che prendeva di mira la libreria vulnerabile Chrome Mojo.
Metodo di consegnaLe vittime venivano indotte a cliccare su link inseriti in e-mail che sembravano legittime.
Non è stata richiesta alcuna interazione aggiuntiva da parte dell'utente una volta che la vittima ha avuto accesso al sito dannoso. Ciò ha reso l'attacco particolarmente efficace.

Profilo della vittima
Lo zero-day è stato utilizzato principalmente nell'operazione ForumTroll, che aveva come obiettivo: Organi di stampa russi: probabilmente mirano a influenzare le narrazioni o a rubare dati sensibili.
Istituzioni educative: tra i possibili moventi rientrano il furto di proprietà intellettuale o lo spionaggio.
Enti governativi: per acquisire informazioni classificate o interrompere le operazioni.

Impatto e portata
Sistemi interessatiVersioni di Google Chrome:
Tutte le versioni di Chrome precedenti alla 134.0.6998.178 erano vulnerabili.
Browser basati su Chromium:
Potrebbero essere interessati anche altri browser basati sul framework Chromium, come Microsoft Edge, Brave, Opera e Vivaldi.

Danni potenziali
Lo sfruttamento di CVE-2025-2783 potrebbe comportare:

Esfiltrazione dei dati: Gli aggressori hanno avuto accesso a file sensibili memorizzati nei sistemi delle vittime, tra cui credenziali, documenti e altri dati proprietari.

Compromissione del sistema :Il malware è stato distribuito per mantenere un accesso e un controllo persistenti sui dispositivi compromessi.

Spionaggio: Probabilmente sono state prese di mira informazioni riservate provenienti da enti governativi e proprietà intellettuali di istituti scolastici.

Gravità
Questa vulnerabilità è classificata come critica a causa di: Il suo stato zero-day.
La possibilità di aggirare le protezioni sandbox di Chrome.
Il suo sfruttamento da parte di una probabile minaccia persistente avanzata (APT) sponsorizzata dallo Stato.

Strategie di mitigazione
La risposta di Google
Google ha rapidamente risolto la vulnerabilità rilasciando una patch nella versione 134.0.6998.178 di Chrome. Questo aggiornamento assicura la corretta gestione degli handle IPC e ripristina l'integrità della sandbox.

Passaggi per gli utenti
Aggiornamenti immediati: Gli utenti devono aggiornare manualmente Chrome andando su Impostazioni > Informazioni su Chrome. In questo modo si garantisce che sia installata la patch di sicurezza più recente.

Verifica le versioni del browser: Assicurarsi che tutti i browser basati su Chromium siano aggiornati alle rispettive versioni patchate.

Consapevolezza del phishing: Formare utenti e dipendenti a riconoscere le email di phishing ed evitare di cliccare su link sospetti.

Abilita Endpoint Protection: Implementare strumenti avanzati di Endpoint Detection and Response (EDR) per identificare e bloccare il malware che potenzialmente sfrutta la vulnerabilità.

Rafforzamento del sistema: Implementare strumenti di potenziamento della sandbox e limitare l'accesso ai file critici.

Implicazioni più ampie
L'importanza degli aggiornamenti tempestivi
Questo incidente evidenzia l'urgenza per le organizzazioni di implementare sistemi di gestione delle patch per distribuire rapidamente gli aggiornamenti e proteggersi dalle minacce emergenti.

L'evoluzione degli APT
Le vulnerabilità zero-day come CVE-2025-2783 ci ricordano come le minacce persistenti avanzate (APT) sfruttino tecniche sofisticate per infiltrarsi nei sistemi, soprattutto a fini di spionaggio.

Raccomandazioni future
Monitoraggio proattivo: Utilizzare servizi di intelligence sulle minacce per rilevare nuovi attacchi zero-day e potenziali modelli di sfruttamento.

Programmi Bug Bounty: Migliorare i programmi che incentivano i ricercatori a segnalare le vulnerabilità prima che vengano sfruttate.

Collaborazione: Rafforzare la cooperazione tra governi, aziende tecnologiche e ricercatori sulla sicurezza informatica per identificare e mitigare le minacce in modo più efficace.

Conclusione

CVE-2025-2783 sottolinea la minaccia persistente rappresentata dalle vulnerabilità zero-day, specialmente in software ampiamente utilizzati come Google Chrome. Lo sfruttamento di questa vulnerabilità tramite Operation ForumTroll dimostra la crescente sofisticatezza delle campagne di cyber-spionaggio. Mentre Google ha rilasciato una patch per mitigare il problema, organizzazioni e individui devono rimanere vigili e adottare misure proattive per proteggersi da minacce simili.

Twitter (X) colpito da una fuga di dati di 2,8 miliardi di profili in un presunto insider job


Un'enorme fuga di dati sul profilo Twitter (X) espone i dettagli di 2,8 miliardi di utenti; presunte fughe di notizie interne vengono alla luce, ma non c'è stata alcuna risposta ufficiale da parte dell'azienda.

Una fuga di dati che ha coinvolto ben 2,87 miliardi di utenti Twitter (X) è emersa sui famigerati Breach Forums. Secondo un post di un utente di nome ThinkingOne, la fuga di dati è il risultato di un dipendente X scontento che avrebbe rubato i dati durante un periodo di licenziamenti di massa . Se fosse vero, questa sarebbe la più grande fuga di dati sui social media della storia, ma sorprendentemente, né X né il pubblico più ampio sembrano esserne a conoscenza.

Cosa sappiamo della fuga di notizie

Il post originale di ThinkingOne afferma che i dati, per un valore di circa 400 GB, sono stati probabilmente esfiltrati durante i licenziamenti caotici di X. L'autore del post afferma di aver provato a contattare X tramite diversi metodi, ma di non aver ricevuto risposta.

Frustrati dalla mancanza di riconoscimento da parte di X e del pubblico in generale, hanno preso in mano la situazione e hanno deciso di unire i dati appena trapelati con un'altra famigerata violazione avvenuta nel gennaio 2023.


Uno screenshot di Breach Forums mostra cosa ha pubblicato ThinkingOne sulla presunta fuga di notizie (Credito: Waqas/Hackread.com)

Riepilogo delle violazioni del 2023

Per comprendere la portata completa di ciò che è trapelato, è importante guardare alla violazione dei dati del 2023 X che ha interessato circa 209 milioni di utenti. Tale violazione ha esposto:
Indirizzi email
Nomi visualizzati e nomi utente (handle)
Conteggio dei follower e date di creazione dell'account

All'epoca, X minimizzò la fuga di notizie, affermando che si trattava di dati disponibili al pubblico. Nonostante la massiccia esposizione di indirizzi email, insistettero sul fatto che non erano coinvolte informazioni sensibili o private. Tuttavia, gli esperti di sicurezza avvisarono che la combinazione di email e dati pubblici avrebbe potuto consentire phishing e furto di identità su larga scala.

Cosa c'è dietro la presunta fuga di notizie del 2025?

La fuga di notizie del 2025, tuttavia, è una bestia completamente diversa. A differenza della fuga di notizie del 2023, non contiene indirizzi email, ma contiene una miniera d'oro di metadati di profilo, tra cui:
Date di creazione dell'account 
ID utente e nomi schermo 
Descrizioni del profilo e URL 
Impostazioni di posizione e fuso orario 
Nomi visualizzati (correnti e dal 2021).
I follower sono conteggiati sia nel 2021 che nel 2025 
Conteggio dei tweet e timestamp dell'ultimo tweet Conteggio degli amici, conteggio degli elenchi e conteggio dei preferiti 
Fonte dell'ultimo tweet (ad esempio TweetDeck o X Web App)
Impostazioni di stato (ad esempio se il profilo è verificato o protetto).

I dati forniscono un'istantanea dettagliata dei profili e delle attività degli utenti nel tempo, tra cui biografie, conteggi dei follower di diversi anni, cronologia dei tweet e persino l'app utilizzata per l'ultimo tweet. Ma l'unica cosa che non include è la parte più sensibile: gli indirizzi email.

Dati analizzati dal team di ricerca di Hackread.com (Credito: Waqas/Hackread.com)

Il mashup dei dati

ThinkingOne, una figura ben nota su Breach Forums per la sua abilità nell'analizzare le perdite di dati, ha deciso di combinare la perdita del 2025 con quella del 2023, producendo un singolo file CSV da 34 GB (9 GB compressi) contenente 201 milioni di voci unite. Per essere chiari, i dati uniti includono solo gli utenti che sono apparsi in entrambi gli incidenti, creando una confusione tra dati pubblici e semi-pubblici.

Questa combinazione disordinata ha portato molti a credere che la fuga di notizie del 2025 contenesse anche indirizzi email, ma non è così. Le email mostrate nel file unito provengono dalla violazione del 2023. La presenza di email nel dataset unito ha dato l'impressione sbagliata che il contenuto della fuga di notizie del 2025 includa anche indirizzi email.

Perché 2,8 miliardi non tornano

A gennaio 2025, X (ex Twitter) aveva circa 335,7 milioni di utenti, quindi come è possibile che i dati di 2,8 miliardi di utenti siano trapelati? Una possibile spiegazione è che il set di dati include dati aggregati o storici, come account bot creati e successivamente bannati, account inattivi o eliminati che persistevano ancora nei record storici o vecchi dati che sono stati uniti a dati più recenti, aumentando il numero totale di record.

Inoltre, alcune voci potrebbero non rappresentare nemmeno utenti reali, ma includere entità non utente, come account API, bot per sviluppatori, profili eliminati o vietati che sono rimasti registrati da qualche parte, oppure account di organizzazioni e marchi che non sono collegati a singoli utenti.

Un'altra possibilità è che i dati trapelati non siano stati ottenuti esclusivamente da Twitter stesso, ma piuttosto siano stati recuperati da più fonti pubbliche e uniti insieme, includendo dati archiviati da vecchie fughe di notizie o informazioni da servizi di terze parti collegati agli account Twitter.

Chi è ThinkingOne e come ha ottenuto i dati?

Uno dei più grandi misteri è come ThinkingOne sia riuscito a ottenere i dati trapelati del 2025 in primo luogo. A differenza dei tipici hacker, non sono noti per aver violato i sistemi in prima persona, ma sono molto stimati per l'analisi e l'interpretazione dei set di dati trapelati. Non è ancora chiaro se abbiano ricevuto i dati da un'altra fonte o se abbiano condotto una sofisticata aggregazione di dati.
La loro teoria secondo cui un dipendente scontento avrebbe fatto trapelare i dati durante i licenziamenti non è stata confermata e non ci sono prove concrete a sostegno; si tratta solo di un'ipotesi plausibile, dati i tempi e il caos interno all'azienda X.

Perché il silenzio di X?

Se le affermazioni sono vere, non si tratta solo di una fuga di dati di dimensioni enormi, ma anche di un duro colpo alla privacy degli utenti. Inoltre, che si sia trattato o meno di un lavoro interno, gli utenti si ritrovano con più domande che risposte: quanti dei loro dati sono stati "presi" ? Chi c'è dietro la fuga? E perché X non ha detto nulla a riguardo, anche dopo che ThinkingOne ha provato a contattarlo più volte?

Come gli esperti di sicurezza informatica combattono le minacce generate dall'intelligenza artificiale

La rapida integrazione dell'intelligenza artificiale (IA) nella sicurezza informatica sta rimodellando il modo in cui le minacce emergono ed evolvono. I criminali informatici non sono più limitati dalle tradizionali tecniche di hacking: ora utilizzano strumenti basati sull'IA per automatizzare gli attacchi , generare codice dannoso e perfezionare le tattiche di ingegneria sociale. Questo cambiamento sta rendendo le minacce informatiche più veloci, più efficaci e più difficili da rilevare, costringendo i professionisti della sicurezza a ripensare le proprie strategie difensive.


L'aspetto più preoccupante degli attacchi informatici generati dall'intelligenza artificiale è che richiedono poca o nessuna competenza tecnica per essere eseguiti. Invece di affidarsi alla scrittura manuale di script, gli aggressori ora utilizzano modelli di linguaggio di grandi dimensioni (LLM) come ChatGPT e Gemini per generare e-mail di phishing, exploit script e payload con solo pochi prompt ben congegnati.


Oltre ai singoli attacchi, la tecnologia AI sta consentendo l'automazione su larga scala delle minacce informatiche. Gli aggressori possono ora implementare campagne di hacking persistenti, guidate dall'AI, in cui il malware si evolve in tempo reale, i messaggi di phishing si adattano dinamicamente e lo spyware raccoglie informazioni in modo autonomo.


Questo potenziale duplice uso, in cui l’intelligenza artificiale può essere utilizzata sia per la difesa che per l’attacco, rappresenta una delle maggiori sfide per la sicurezza informatica.


Attacchi informatici guidati dall'intelligenza artificiale: tecniche utilizzate dai criminali informatici


Ingegneria sociale e phishing


L'intelligenza artificiale generativa consente ora agli aggressori di creare messaggi di phishing altamente personalizzati su larga scala, imitando stili di comunicazione aziendali reali e adattandosi alle risposte delle vittime. Può aiutare a replicare il branding ufficiale, il tono e gli stili di scrittura, rendendoli difficili da distinguere dai messaggi legittimi. In esperimenti controllati, le e-mail di phishing generate dall'intelligenza artificiale hanno ingannato oltre il 75 percento dei destinatari inducendoli a cliccare su link dannosi, dimostrando quanto efficacemente l'intelligenza artificiale possa manipolare la fiducia umana.


Generazione di codice dannoso


Utilizzando tecniche di jailbreak come il metodo di gioco dei personaggi, gli aggressori possono aggirare le misure di sicurezza etiche dell'IA ed estrarre codice dannoso per la generazione di payload, la crittografia e l'offuscamento.
L'IA generativa è particolarmente utile per creare malware polimorfici, ovvero software dannosi che modificano la struttura del codice in tempo reale per eludere il rilevamento. Le soluzioni antivirus tradizionali faticano a tenere il passo con questi rapidi cambiamenti.


L'IA aiuta anche nell'offuscamento di script dannosi. Gli aggressori possono usare modelli di IA per generare script malware altamente complessi, criptati o mascherati. L'inserimento di codice morto, l'offuscamento del flusso di controllo e le tecniche di manipolazione del codice basate sull'IA consentono al malware di mimetizzarsi in applicazioni legittime e di eludere l'analisi statica degli strumenti di sicurezza.


Strategie di hacking automatizzate


L'intelligenza artificiale può automatizzare tecniche di hacking come attacchi brute-force, credential stuffing e scansione delle vulnerabilità, consentendo agli aggressori di compromettere i sistemi in pochi secondi. Inoltre, la ricognizione automatizzata consente all'intelligenza artificiale di analizzare i sistemi alla ricerca di porte aperte, software obsoleti ed errori di configurazione. Con l'assistenza dell'intelligenza artificiale, gli aggressori possono condurre attacchi automatici di SQL injection, cross-site scripting (XSS) e buffer overflow exploit con un intervento umano minimo.
Spyware e minacce persistenti avanzate (APT)


L'intelligenza artificiale generativa alimenta lo spyware di nuova generazione, consentendo l'esfiltrazione furtiva dei dati, il keylogging e le capacità di accesso remoto. Lo spyware generato dall'intelligenza artificiale può monitorare il comportamento degli utenti, rubare credenziali ed eludere il rilevamento tramite tecniche di offuscamento.
Gli aggressori utilizzano l'intelligenza artificiale per automatizzare la ricognizione sui sistemi target, identificando le vulnerabilità che consentono l'infiltrazione a lungo termine e non rilevata. Gli APT basati sull'intelligenza artificiale possono mantenere un accesso persistente alle reti aziendali, esfiltrando i dati in piccoli frammenti non rilevabili nel tempo. L'intelligenza artificiale aiuta anche nell'escalation automatizzata dei privilegi, in cui gli aggressori utilizzano script generati dall'intelligenza artificiale per ottenere livelli di accesso più elevati all'interno di un sistema.


Deepfake e disinformazione generata dall'intelligenza artificiale


Gli aggressori utilizzano audio e video generati dall'intelligenza artificiale per impersonare individui di alto profilo, manipolando la percezione pubblica e conducendo frodi su larga scala. Le truffe finanziarie che utilizzano deepfake hanno già ingannato le aziende inducendole a trasferire milioni di dollari su conti fraudolenti. Le campagne di disinformazione politica sfruttano i video generati dall'intelligenza artificiale per diffondere false narrazioni, influenzare le elezioni e destabilizzare le società. L'aumento dei contenuti generati dall'intelligenza artificiale facilita anche gli attacchi alla reputazione, in cui i deepfake vengono utilizzati per creare falsi scandali, ricattare le vittime o diffondere disinformazione.


Occupy AI: un LLM ottimizzato per gli attacchi informatici


Yusuf Usman, assistente di ricerca laureato in sicurezza informatica presso la Quinnipiac University, studia come l'intelligenza artificiale e l'apprendimento automatico possano migliorare il rilevamento del phishing e automatizzare la difesa informatica. Evidenzia una minaccia crescente: Occupy AI, un LLM personalizzato progettato per migliorare gli attacchi informatici tramite automazione, precisione e adattabilità.


Occupy AI può essere precaricato con ampi set di dati di vulnerabilità di sicurezza, librerie di exploit e metodologie di attacco del mondo reale, consentendo ai criminali informatici di eseguire attacchi informatici complessi con il minimo sforzo. Eccelle nell'automazione della ricognizione, fornendo analisi delle vulnerabilità in tempo reale e generando script di attacco altamente efficaci su misura per obiettivi specifici.


Un vantaggio fondamentale degli LLM malevoli ottimizzati come Occupy AI è la loro capacità di auto-migliorarsi tramite apprendimento per rinforzo. Analizzando continuamente i tassi di successo degli attacchi, questi strumenti basati sull'intelligenza artificiale possono perfezionare le loro tecniche, rendendole più efficaci nel tempo. Possono anche integrare intelligence sulle minacce in tempo reale, adattandosi a nuove patch di sicurezza, regole del firewall e meccanismi di autenticazione.


L'accessibilità di tali strumenti riduce la barriera alla criminalità informatica, consentendo anche a individui inesperti di condurre attacchi altamente efficaci.


Preoccupazioni etiche e implicazioni per la sicurezza dell’intelligenza artificiale


Il rapido sviluppo degli attacchi informatici basati sull'intelligenza artificiale solleva gravi preoccupazioni di carattere etico e di sicurezza, in particolare per quanto riguarda l'accessibilità, la regolamentazione e l'adattabilità degli strumenti di intelligenza artificiale dannosi.


Accesso illimitato agli strumenti di attacco generati dall'intelligenza artificiale


Una volta che un modello di IA è stato messo a punto per gli attacchi informatici, può essere facilmente distribuito su forum underground o venduto come servizio. Questa disponibilità di massa amplifica la portata e la frequenza degli attacchi basati sull'IA, rendendo più facile per gli attori malintenzionati lanciare campagne automatizzate senza richiedere una conoscenza approfondita della sicurezza informatica.


Mancanza di regolamentazione per i modelli di intelligenza artificiale perfezionati


A differenza dei prodotti AI disponibili in commercio che aderiscono a rigide linee guida etiche, i modelli AI addestrati su misura progettati per la criminalità informatica esistono in una zona grigia legale. Non ci sono policy standardizzate per regolamentare la creazione e l'uso di tali modelli, rendendone quasi impossibile l'applicazione.


Evoluzione continua delle minacce basate sull'intelligenza artificiale


Le minacce informatiche guidate dall'intelligenza artificiale si evolvono costantemente, adattandosi alle patch di sicurezza, agli aggiornamenti di intelligence sulle minacce e ai metodi di rilevamento. Gli aggressori perfezionano modelli come Occupy AI per aggirare le difese, eludere il rilevamento delle frodi e migliorare la furtività. Ciò crea un continuo gioco del gatto e del topo tra i difensori della sicurezza informatica e gli aggressori potenziati dall'intelligenza artificiale, in cui le soluzioni di sicurezza devono adattarsi costantemente a un panorama delle minacce in continua evoluzione.


Rafforzare le difese contro le minacce informatiche generate dall'intelligenza artificiale


Man mano che le minacce informatiche basate sull'intelligenza artificiale diventano più sofisticate, i team di sicurezza informatica devono sfruttare l'intelligenza artificiale in modo difensivo e implementare misure di sicurezza proattive per contrastare i rischi emergenti.


Rilevamento e risposta alle minacce basate sull'intelligenza artificiale


I team di sicurezza devono adottare strumenti di sicurezza basati sull'intelligenza artificiale per rilevare e neutralizzare le minacce informatiche generate dall'intelligenza artificiale. Il monitoraggio in tempo reale, combinato con analisi comportamentali avanzate, rilevamento delle anomalie e piattaforme di intelligence sulle minacce basate sull'intelligenza artificiale, può aiutare a identificare modelli di attacco sottili che i sistemi di sicurezza tradizionali potrebbero non rilevare.


Architettura Zero Trust (ZTA)


Data la capacità dell'intelligenza artificiale di automatizzare il furto di credenziali e l'escalation dei privilegi, le organizzazioni devono applicare i principi di fiducia zero, assicurando che ogni richiesta di accesso venga costantemente verificata, indipendentemente dall'origine, implementando una verifica avanzata dell'identità e un'autenticazione a più fattori.


Inganno informatico basato sull'intelligenza artificiale


I team di sicurezza informatica possono usare l'IA contro gli aggressori implementando tecniche di inganno basate sull'IA, come honeytoken, credenziali false, honeypot e sistemi esca che confondono gli sforzi di ricognizione potenziati dall'IA. Fornendo agli aggressori informazioni false, le organizzazioni possono sprecare tempo e risorse, riducendo l'efficacia degli attacchi automatizzati.


Test di sicurezza automatizzati e red teaming


Proprio come l'intelligenza artificiale viene utilizzata per gli attacchi informatici, i difensori possono implementare test di penetrazione basati sull'intelligenza artificiale e audit di sicurezza automatizzati per identificare le vulnerabilità prima che lo facciano gli aggressori. Il red teaming assistito dall'intelligenza artificiale può simulare strategie di attacco potenziate dall'intelligenza artificiale, aiutando i team di sicurezza a rimanere un passo avanti agli avversari migliorando continuamente le loro difese.


Raccomandazioni normative e politiche per mitigare i crimini informatici basati sull'intelligenza artificiale


I governi e le organizzazioni internazionali devono applicare rigide normative sull'uso dell'IA. Ciò include il divieto di creazione e distribuzione di modelli di IA specificamente progettati per la criminalità informatica, l'obbligo per gli sviluppatori di IA di mantenere la trasparenza e l'applicazione di controlli sulle esportazioni di sistemi di IA in grado di generare codice dannoso o di aggirare le misure di sicurezza.


Le piattaforme AI devono implementare meccanismi di filtraggio robusti per prevenire prompt engineering dannosi e la generazione di codice dannoso. Il monitoraggio continuo degli output generati dall'AI è necessario per rilevare l'uso improprio prima che degeneri.


I governi, le aziende di sicurezza informatica e gli sviluppatori di intelligenza artificiale devono collaborare per creare piattaforme di condivisione di informazioni sulle minacce in tempo reale, in grado di monitorare e neutralizzare le minacce informatiche guidate dall'intelligenza artificiale.


Infine, è fondamentale investire di più nella ricerca sulla sicurezza informatica basata sull'intelligenza artificiale per restare un passo avanti agli aggressori che perfezionano costantemente le loro tecniche basate sull'intelligenza artificiale.


6 principali attacchi informatici e violazioni dei dati a marzo 2025. Gli attacchi informatici e le violazioni dei dati più importanti di marzo 2025



Gli attacchi informatici e le violazioni dei dati stanno creando scompiglio tra le organizzazioni e gli utenti di tutto il mondo.

Dagli attacchi ransomware e DDoS (Distributed Denial-of-Service) alle esposizioni accidentali e di dati di terze parti, le aziende devono affrontare rischi continui e complessi per la sicurezza informatica.

Ecco un'analisi di alcuni degli attacchi informatici e delle violazioni dei dati più importanti che hanno fatto notizia questo mese.

6 milioni di record esfiltrati da Oracle Cloud

Il fornitore di sicurezza CloudSEK ha scoperto una grave violazione che ha preso di mira Oracle Cloud, con 6 milioni di record esfiltrati tramite una sospetta vulnerabilità non divulgata. Sono stati colpiti più di 140.000 tenant, con l'aggressore che ha chiesto un riscatto e ha commercializzato dati sensibili online. I dati includono file JKS, password SSO crittografate, file chiave e chiavi JPS del gestore aziendale.

"Sebbene l'autore della minaccia non abbia precedenti, i suoi metodi indicano un'elevata sofisticatezza, CloudSEK valuta questa minaccia con un livello di sicurezza medio e la classifica come di gravità elevata", ha affermato CloudSEK.

Un'app bancaria falsa prende di mira gli utenti Android tramite Telegram

È stato individuato un sofisticato malware dropper che imitava l'app IndusInd Bank e prendeva di mira gli utenti Android in uno schema di phishing per rubare informazioni finanziarie sensibili. Visualizzando un'interfaccia bancaria falsa, l'app dannosa inganna gli utenti inducendoli a immettere informazioni come i numeri PAN e Aadhaar, nonché le credenziali bancarie.

Dopo che le vittime hanno inviato i dati, questi vengono inviati sia a un server di phishing sia a un canale di comando e controllo (C2) controllato da Telegram.

Attacco informatico colpisce le ferrovie ucraine

Un attacco informatico "su larga scala" alle ferrovie ucraine ha costretto i servizi online offline. Ukrzaliznytsia, la compagnia ferroviaria nazionale del paese, ha descritto l'attacco come "molto sistematico, complesso e multilivello". Ha bloccato il suo portale online, rendendo impossibile la vendita online dei biglietti per un periodo di tempo, sebbene i treni fossero ancora in grado di funzionare.

"L'obiettivo principale del nemico è fallito: il traffico ferroviario rimane stabile, procede secondo programma senza ritardi e tutti i processi operativi sono stati commutati in modalità di backup", si legge nell'ultimo aggiornamento di Ukrzaliznytsia. "La ferrovia continua a funzionare nonostante gli attacchi fisici all'infrastruttura e persino gli attacchi informatici più subdoli non riescono a fermarla. Poiché Ukrzaliznytsia è stata in precedenza un bersaglio di attacchi informatici nemici, sono stati implementati protocolli di backup all'interno dell'azienda".

Siti Web attendibili sfruttati per reindirizzamenti dannosi

Un'altra campagna esposta da ANY.RUN ha visto gli aggressori abusare delle funzioni di reindirizzamento su domini affidabili e di lunga data per reindirizzare gli utenti a pagine di phishing. Sfruttando una debole convalida del reindirizzamento, gli autori della minaccia hanno trasformato URL dall'aspetto sicuro in una rampa di lancio per siti dannosi. Poiché gli utenti credevano di essere ancora su pagine legittime o di spostarsi tra di esse, era molto più probabile che cadessero nella truffa.

L'attacco alla supply chain compromette GitHub Action

Un attacco alla supply chain ha compromesso la popolare GitHub Action tj-actions/changed-files, con un impatto su oltre 23.000 repository. Gli aggressori hanno modificato retroattivamente più tag di versione per fare riferimento a un commit dannoso, esponendo i segreti CI/CD nei log del flusso di lavoro. La vulnerabilità è esistita tra il 14 e il 15 marzo 2025 e da allora è stata mitigata.

L'attacco ha comportato la modifica della GitHub Action tj-actions/changed-files per eseguire uno script Python dannoso. Questo script ha estratto i segreti dalla memoria del processo Runner Worker e li ha stampati nei log di GitHub Actions, rendendoli accessibili al pubblico nei repository con log di workflow pubblici.

"Questo CVE ha un impatto sui repository GitHub pubblici con GitHub Actions abilitate. Tutte le versioni sono state interessate", ha affermato Dimitri Stiliadis, CTO e co-fondatore di Endor Labs. "Per le organizzazioni che creano software, sarà probabile che dovranno riconfigurare le proprie pipeline se utilizzano l'Azione compromessa".

Migliaia di fascicoli giudiziari del Nuovo Galles del Sud trapelati

Circa 9.000 fascicoli giudiziari, tra cui documenti sensibili come ordini di violenza e dichiarazioni giurate, sono trapelati in una violazione dei dati del registro online del sistema giudiziario del Nuovo Galles del Sud (NSW). La polizia è stata avvisata della violazione del sito Web del registro online del NSW con i detective della criminalità informatica del NSW State Crime Command che hanno avviato un'indagine che ha coinvolto il Department of Communities and Justice (DCJ) dello stato.

È stato riferito che i documenti esposti potrebbero contenere nomi e indirizzi di vittime e autori di reati, nonché resoconti di presunti reati.

Il procuratore generale del NSW Michael Daley ha affermato che il dipartimento e la polizia stanno prendendo l'incidente seriamente e stanno lavorando per garantire l'integrità del sistema in seguito alla perdita significativa. "Stanno anche lavorando per identificare e contattare urgentemente gli utenti interessati e il pubblico verrà tenuto aggiornato man mano che saranno disponibili maggiori informazioni", ha aggiunto.

Le 6 principali innovazioni per l'esercito 25 marzo 2025

1. Un Black Hawk modernizzato

Maggiore potenza, carico utile e intelligenza nel dominio aereo di livello inferiore

Mentre l'esercito guarda al futuro, deve essere pronto a operare su distese più grandi di terra e acqua, combattere in un ambiente multi-dominio e contrastare minacce sempre più sofisticate. Nel dominio aereo di livello inferiore, un elicottero offre versatilità, portata e accesso senza pari su terreni diversi per una vasta gamma di missioni, dall'assalto aereo al rifornimento in prima linea e al soccorso umanitario.

Il Black Hawk è essenziale per le operazioni dell'esercito, con oltre 2.100 esemplari nella flotta in tutto il mondo. Dalla risposta alle emergenze della Guardia Nazionale alle operazioni di deterrenza quasi pari, nessuna missione dell'esercito può avere successo senza il supporto di questo cavallo di battaglia, elicottero collaudato in combattimento.

Quindi, cosa porta all'esercito il Black Hawk modernizzato?Più potenza e carico utile a distanza con l' Improved Turbine Engine (ITE). Sikorsky si sta preparando per il primo volo del primo Black Hawk integrato con due di questi motori T901.
Aggiornamenti più rapidi ed efficienti grazie alla nuova struttura portante Modular Open System Approach (MOSA) che garantirà al Black Hawk di stare al passo con le ultime innovazioni.
Capacità autonome che renderanno i piloti del Black Hawk più efficaci, aumenteranno la sicurezza e offriranno ai comandanti a terra ancora più opzioni per missioni critiche in ambienti con scarsa visibilità.
Team di droni pilotati tramite Launched Effects per raccogliere e condividere informazioni vitali in ambienti contesi. I droni LE possono anche dare al Black Hawk migliori difese, rafforzando la sopravvivenza e la letalità in ambienti contesi.



Il Black Hawk è in continua innovazione per essere più resistente, più sicuro e più veloce.


Espansione delle capacità dei UAS

Le missioni dell'esercito come ricerca e soccorso, rifornimento e intelligence, sorveglianza e ricognizione potrebbero trarre vantaggio dai nuovi droni ibridi-elettrici progettati e testati da Sikorsky. Si tratta di una configurazione a doppio proprotore "ala soffiata dal rotore" che si appoggia sulla coda per decollare e atterrare come un elicottero e passa facilmente al volo orizzontale in avanti. Questo sistema aereo senza pilota (UAS) di nuova generazione può essere adattato a una varietà di missioni e operare in modo autonomo da superfici non preparate o persino da navi più lontane e veloci degli elicotteri tradizionali.

In poco più di un anno, Sikorsky ha portato a termine la progettazione preliminare, la simulazione, il volo vincolato e quello svincolato.

Le applicazioni dei futuri aeromobili UAS con rotore soffiato includono ricerca e soccorso, monitoraggio antincendio, risposta umanitaria e sorveglianza di condotte. Le varianti di grandi dimensioni consentiranno missioni di intelligence a lungo raggio, sorveglianza e ricognizione e di teaming con droni pilotati.


2. PrSM fornisce tiri di precisione a lungo raggio e si evolve per il futuro


Il Precision Strike Missile (PrSM) rappresenta un significativo balzo in avanti nei tiri di precisione a lungo raggio, consentendo alle forze di colpire i bersagli con precisione e efficacia millimetriche. Questa capacità rafforza la capacità dell'esercito di dominare il campo di battaglia e mantenere un vantaggio strategico.

PrSM è una componente cruciale della strategia di modernizzazione dell'esercito degli Stati Uniti, progettata per sostituire i vecchi sistemi di artiglieria e migliorare letalità, gittata e mobilità. Questa tecnologia di nuova generazione garantisce che le nostre forze armate rimangano all'avanguardia dell'innovazione militare, pronte ad affrontare le minacce emergenti e a difendere gli interessi della nostra nazione.



Le capacità avanzate del PrSM sono essenziali per l'esecuzione con successo degli incendi per l'esercito statunitense.

In un panorama di sicurezza globale sempre più complesso e imprevedibile, PrSM offre una risposta potente e adattabile alle minacce in evoluzione. Sfruttando tecnologie avanzate, il nostro team presso Lockheed Martin si impegna a fornire soluzioni all'avanguardia, 21st Century Security® che mantengano la nostra nazione al sicuro.

Lo sviluppo e il successo del PrSM sono una testimonianza del potere della partnership e della collaborazione internazionale. Lavorando a stretto contatto con i nostri alleati e partner, possiamo mettere in comune risorse, competenze e conoscenze per creare una rete di difesa più forte e resiliente, in grado di affrontare le sfide del 21° secolo.


3. Difesa anti-UAS più intelligente e scalabile




Cieli sicuri, missione sicura: la soluzione C-UAS all'avanguardia di Lockheed Martin protegge dalle minacce aeree in un ambiente in rapido cambiamento.

Mentre la minaccia di piccoli droni e attacchi a sciame cresce, Lockheed Martin sta fornendo una soluzione flessibile basata sull'intelligenza artificiale per rilevare, tracciare e sconfiggere gli UAS. Una recente dimostrazione ha dimostrato la sua capacità di gestire sia minacce singole che sciami di droni coordinati, preparando il terreno per un rapido dispiegamento.
Cosa lo distingue:Architettura modulare e aperta : progettato per un'integrazione perfetta con i sistemi dell'esercito esistenti, questo approccio consente rapidi aggiornamenti incorporando i migliori sensori, effettori e miglioramenti del comando e controllo (C2).
Rilevamento e risposta basati sull'intelligenza artificiale : algoritmi avanzati, addestrati su scenari reali, forniscono un tracciamento più rapido e accurato, offrendo agli operatori un vantaggio tattico nell'identificazione e nella neutralizzazione delle minacce.
Rapida scalabilità : il sistema si adatta rapidamente alle minacce in continua evoluzione e collabora facilmente con le tecnologie dei partner per garantire un'efficacia continua in ambienti di combattimento dinamici.
Prestazioni comprovate: in un recente evento sul campo, Lockheed Martin è riuscita a rilevare, tracciare e mitigare con successo varie piccole minacce rappresentate da UAS, tra cui sciami coordinati di droni.

Con solo pochi minuti per reagire a un attacco di droni, un approccio di difesa a più livelli è essenziale. La soluzione abilitata dall'intelligenza artificiale di Lockheed Martin garantisce che le forze dell'esercito possano rilevare e rispondere rapidamente alle minacce UAS, proteggendo soldati, equipaggiamenti e infrastrutture critiche in uno spazio di battaglia in rapida evoluzione. Sfruttando la nostra competenza nell'integrazione di sistemi, nell'intelligenza artificiale e nella sicurezza informatica, ci impegniamo ad aiutare l'esercito a rimanere al passo con le minacce emergenti e a mantenere il suo vantaggio operativo.


4. Sviluppo dell'intelligenza artificiale (IA) per un uso futuro nei sensori Apache

Lockheed Martin inizierà presto la produzione della Common Sensor Electronics Unit (CSEU) per mitigare l'obsolescenza del processore per i sensori di puntamento e pilotaggio Apache. Questo processore, progettato per mitigare l'obsolescenza, fornirà anche la potenza di elaborazione per abilitare le funzionalità future. Il nostro team ha lavorato su iniziative di intelligenza artificiale che possono essere implementate sull'Apache, fornendo capacità significative volte a ridurre il carico di lavoro del pilota e ottimizzare le prestazioni nelle condizioni più difficili, come gli ambienti visivi degradati. Queste tecnologie estenderanno la capacità dell'equipaggio di identificare i bersagli (aerei, terrestri e marittimi) più rapidamente e con maggiore precisione e saranno preziose per le operazioni di combattimento su larga scala. Siamo orgogliosi di essere all'avanguardia in questa innovazione. Investendo nell'intelligenza artificiale e conducendo ricerche per integrare le capacità di rilevamento e riconoscimento assistiti dei bersagli sulla piattaforma Apache, il nostro obiettivo è aumentare la letalità e la sopravvivenza degli equipaggi Apache, mitigando al contempo i rischi incontrati durante ogni missione Apache.



I sensori Apache Fire Control forniscono agli equipaggi una maggiore consapevolezza della situazione e maggiori tassi di sopravvivenza.

Questi sforzi evidenziano il nostro impegno nel mantenere l'esercito statunitense al passo con le minacce in continuo progresso per fornire agli equipaggi degli Apache una tecnologia all'avanguardia che ne migliori l'efficacia operativa. Mentre continuiamo a far progredire questa tecnologia, siamo entusiasti del suo potenziale di contribuire all'obiettivo collettivo di abilitare operazioni di combattimento su larga scala. Attraverso la collaborazione con i nostri clienti dell'esercito statunitense e investimenti strategici nell'innovazione dell'intelligenza artificiale, stiamo sviluppando gli strumenti all'avanguardia che consentiranno agli equipaggi degli Apache di rimanere al passo con le minacce emergenti e mantenere il loro vantaggio competitivo.


5. Integrazione di sistemi per fornire capacità di difesa missilistica a più livelli

Nel 2022, Lockheed Martin ha ulteriormente integrato l' intercettore PAC-3 Missile Segment Enhancement (MSE) nel sistema d'arma Terminal High Altitude Area Defense (THAAD) con FTT-21 , un test di volo di successo effettuato presso il White Sands Missile Range.


L'integrazione THAAD MSE (TMI) aggiunge una capacità critica di difesa missilistica a più livelli.

FTT-21 ha dimostrato la capacità di intercettare una minaccia missilistica in arrivo con un PAC-3 MSE organicamente all'interno del sistema d'arma THAAD. L'integrazione della difesa missilistica PAC-3 di livello inferiore nel sistema di difesa missilistica di livello superiore THAAD senza la necessità di collocare insieme i sistemi d'arma THAAD e Patriot significa una significativa riduzione della logistica e dell'equipaggiamento di terra necessario per il combattente.

L'integrazione si traduce in un sistema di difesa missilistica a strati più strettamente integrato, che fornisce una capacità di difesa missilistica multilivello critica per sconfiggere le minacce attuali ed emergenti, ed è un altro contributo di Lockheed Martin alle operazioni congiunte all-domain. La comprovata capacità migliora la sicurezza del 21 ° secolo, offrendo al combattente più opzioni con l'equipaggiamento esistente in modo che possa scegliere il miglior intercettore per qualsiasi minaccia si trovi ad affrontare.

Il sistema d'arma THAAD ha dimostrato un record perfetto di test di volo di 17 per 17 intercettazioni. Sedici di queste intercettazioni sono state con un intercettore THAAD. Il tasso di successo dei test di volo del THAAD e lo stato di comprovata efficacia in combattimento continuano a suscitare interesse in tutto il mondo. Il PAC-3 MSE è stato testato contro una varietà di minacce, tra cui missili da crociera, missili balistici e ipersonici. I combattenti hanno contato sul THAAD e sul PAC-3 MSE per sconfiggere le minacce missilistiche, sia nei test di volo che negli scenari di combattimento.


6. Capacità senza equipaggio con un lanciatore surrogato HIMARS®

Lockheed Martin ha dimostrato con successo la capacità di operare senza equipaggio con un lanciatore surrogato HIMARS ®, segnando un passo fondamentale nello sviluppo di sistemi autonomi che operano in collaborazione con veicoli con equipaggio.

Nel 2024, il surrogato ha lanciato la capacità di navigazione visualizzata senza conducente utilizzando sensori di percezione non emettitori. Questa dimostrazione consente operazioni diurne e notturne senza soluzione di continuità senza equipaggio. Questo risultato segna un sostanziale passo avanti nello sviluppo di una soluzione autonoma che può essere integrata senza soluzione di continuità nella flotta HIMARS esistente di lanciatori e veicoli di rifornimento. Supportando gli sforzi di modernizzazione dell'esercito statunitense per le capacità di artiglieria, questa tecnologia innovativa fornisce una maggiore adattabilità in ambienti complessi e dinamici.

Lo sviluppo di questa capacità di lancio autonoma è in linea con l'impegno di Lockheed Martin nel promuovere la sua visione 21st Century Security ®, sottolineando lo sviluppo di tecnologie all'avanguardia che consentano al nostro esercito di anticipare le minacce emergenti.

Il sistema di combattimento Aegis dimostra la capacità del sistema di contrastare le minacce ipersoniche


Kauai, Hawaii, 25 marzo 2025 – L'USS Pinckney (DDG 91) ha completato con successo il Flight Test Other 40 (FTX-40), noto anche come Stellar Banshee, utilizzando il sistema di combattimento Aegis di Lockheed Martin per rilevare, tracciare ed eseguire uno scontro con un bersaglio vivo di un missile balistico a medio raggio (MRBM) ipersonico avanzato utilizzando un SM-6 Block IAU simulato.

FTX-40, supportato dalla Missile Defense Agency, dalla Marina degli Stati Uniti, da Lockheed Martin e dai partner del settore, ha testato uno scenario ipersonico reale, mostrando diverse capacità. Stellar Banshee ha introdotto un nuovo bersaglio e un missile simulato, segnando l'uso riuscito dell'ultimo software Aegis in una configurazione virtualizzata per una missione di test di volo di difesa missilistica balistica (BMD).

Il momento clou dell'ipersonico

"Il nostro Aegis Combat System ha difeso con successo contro una minaccia ipersonica simulata", ha affermato Chandra Marshall, vicepresidente di Multi-Domain Combat Solutions presso Lockheed Martin. "Il vantaggio di difesa ipersonica di Aegis Baseline 9 contro un bersaglio MRBM offre un'incredibile capacità che consente al nostro combattente di vedere l'invisibile, prima, assicurando che i nostri marinai si trovino di fronte alle minacce rapidamente".

Il test di successo evidenzia anche la capacità dell'Aegis Combat System di adattarsi all'ambiente di difesa in continua evoluzione. Con configurazioni sia marittime che terrestri, Aegis dimostra la flessibilità e la scalabilità del sistema, rendendolo un pilastro fondamentale della difesa missilistica.

Capacità comprovata in corso

Lockheed Martin sta guidando l'innovazione, l'integrazione e il supporto per i test di volo in corso con la Missile Defense Agency, la US Navy e i partner del settore, plasmando il futuro della tecnologia Aegis. L'impegno simulato FTX-40 anticipa le future missioni di intercettazione del fuoco vivo Aegis ed è il terzo test per il sistema Capability Package 24 / Ballistic Missile Defense 5.1.5, incluso il Sea-Based Terminal Increment 3.

L'anno scorso, i team dell'industria e del governo hanno eseguito con successo FTX-23, altrimenti noto come Stellar Sisyphus, dimostrando un test di sviluppo in due parti di capacità di tracciamento dei sensori e di collegamento delle comunicazioni. I team hanno intercettato con successo un bersaglio MRBM utilizzando il missile intercettore SM-6 Dual II Software Upgrade in FTM-32.

Lockheed Martin e Google Cloud annunciano la collaborazione per promuovere l'intelligenza artificiale generativa per la sicurezza nazionale

Lockheed Martin (NYSE: LMT) e Google Public Sector hanno annunciato oggi la loro intenzione di integrare l'intelligenza artificiale generativa avanzata (genAI) di Google nell'ecosistema AI Factory di Lockheed Martin. Questa collaborazione migliorerà la capacità di Lockheed Martin di addestrare, distribuire e sostenere modelli di intelligenza artificiale ad alte prestazioni insieme ad altri fornitori leader, accelerando le capacità basate sull'intelligenza artificiale in applicazioni critiche per la sicurezza nazionale, aerospaziali e scientifiche.


L'AI Factory di Lockheed Martin sfrutta modelli AI sia open source che proprietari, offrendo tracciabilità, affidabilità e monitoraggio per garantire affidabilità, sicurezza e distribuzione ad alta garanzia. Le capacità AI di Google Cloud diventeranno parte di questo ecosistema, integrando l'approccio completo di Lockheed Martin all'AI.




"Utilizzando le tecnologie AI di Google Cloud possiamo esplorare un'ampia gamma di potenti capacità per fornire soluzioni innovative e affidabili che restano all'avanguardia", ha affermato John Clark, vicepresidente senior di Lockheed Martin Technology & Strategic Innovation. "Una relazione duratura con Google Public Sector fa parte del nostro impegno continuo verso una cultura dell'innovazione, che guida il miglioramento continuo e fornisce risultati per i nostri clienti".


"Lockheed Martin e Google Cloud condividono la visione di portare nuova innovazione nel settore con l'intelligenza artificiale", ha affermato Jim Kelly, vicepresidente federale, Google Public Sector. "Le nostre tecnologie Google Cloud AI forniranno a Lockheed Martin un potente set di strumenti per affrontare alcuni dei loro problemi più esigenti più velocemente che mai".


Lockheed Martin applicherà queste funzionalità di intelligenza artificiale integrate per migliorare aree critiche, tra cui analisi di intelligence avanzata, processo decisionale in tempo reale, manutenzione aerospaziale predittiva, progettazione ingegneristica ottimizzata, catene di fornitura solide, sviluppo software sicuro, formazione personalizzata della forza lavoro e scoperte scientifiche accelerate.


La piattaforma Vertex AI di Google Cloud aiuta le organizzazioni a formare, distribuire e personalizzare modelli linguistici di grandi dimensioni (LLM) in modo sicuro e su larga scala, integrando l'impegno di AI Factory di Lockheed Martin per un'intelligenza artificiale sicura e affidabile in tutte le operazioni globali, compresi gli ambienti air gap.


Questa collaborazione riflette l'impegno comune di entrambe le aziende verso un'implementazione dell'intelligenza artificiale affidabile e sicura, nel rispetto dei più elevati standard di sicurezza e affidabilità, tratti distintivi di entrambe le organizzazioni.


Informazioni su Lockheed Martin
Lockheed Martin è un'azienda globale di tecnologia di difesa che guida l'innovazione e promuove la scoperta scientifica. Le nostre soluzioni di missione per tutti i domini e la visione 21st Century Security ® accelerano la fornitura di tecnologie trasformative per garantire che coloro che serviamo siano sempre un passo avanti. Ulteriori informazioni su LockheedMartin.com.


Informazioni su Google Cloud
Google Cloud è il nuovo modo di accedere al cloud, offrendo strumenti di intelligenza artificiale, infrastruttura, sviluppo, dati, sicurezza e collaborazione pensati per oggi e per domani. Google Cloud offre uno stack di intelligenza artificiale potente, completamente integrato e ottimizzato con la propria infrastruttura su scala planetaria, chip personalizzati, modelli di intelligenza artificiale generativa e piattaforma di sviluppo, nonché applicazioni basate sull'intelligenza artificiale, per aiutare le organizzazioni a trasformarsi. I clienti in oltre 200 paesi e territori si rivolgono a Google Cloud come partner tecnologico di fiducia.


Più produttive grazie all’AI: come liberare il potenziale delle aziende

L’intelligenza artificiale rivoluziona la produttività aziendale, liberando il potenziale umano e migliorando l’efficienza. L’adozione strategica dell’AI permette alle aziende di concentrarsi su attività a valore aggiunto, ottimizzando risorse e processi per un ritorno sugli investimenti accelerato


Aumentare la competitività e la produttività delle imprese, contribuendo alla crescita del Paese.

È questa la grande opportunità che si aprirebbe se l’intelligenza artificiale venisse adottata con il giusto approccio strategico dalle imprese e dalla pubblica amministrazione in Italia, grazie anche a una serie di sviluppi tecnologici che la rendono sempre più performante e in grado di sollevare gli umani da compiti ripetitivi o particolarmente impegnativi, mettendoli nelle condizioni ideali per dedicarsi ad attività a maggiore valore aggiunto, sulle quali sfruttare al meglio le proprie conoscenze e le proprie competenze.


Eventi per esplorare il potenziale dell’AI


Proprio a questi temi sono dedicate le tappe del roadshow “IBM AI experience on tour” organizzato da Ibm, con il primo evento realizzato in collaborazione con Red Hat e Università LUISS che si è svolto giovedì 20 marzo nella sede dell’ateneo romano. L’iniziativa proseguirà toccando diverse Regioni Italiane nei prossimi mesi, con l’obiettivo di esplorare le ultime funzionalità e le potenzialità dell’intelligenza artificiale, anche di tipo generativo e agentico.


L’importanza dell’AI open source per il ROI


Nella strategia di investimenti a lungo termine che le aziende stanno implementando sull’intelligenza artificiale assume una particolare rilevanza l’utilizzo di strumenti open source, con l’obiettivo di accelerare sul ROI (Return of Investment) e per rimanere al passo con l’innovazione.


A dimostrarlo è un recente studio realizzato da Morning Consult e lopez Research, secondo cui l’85% del campione nel 2024 ha registrato progressi nell’esecuzione della propria strategia. Il 47%, in particolare, può già contare su un ritorno degli investimenti positivo. La redditività finanziaria, in particolare, risulta, secondo la ricerca, legata all’utilizzo di strumenti open source: il 51% degli intervistati tra chi utilizza strumenti AI open source registra un ROI positivo, contro il 41% di coloro che non lo utilizza.


Predisposizione all’investimento in AI nelle aziende


Aumenta anche la predisposizione a investire sull’AI, tanto che il 62% delle aziende coinvolte nella ricerca afferma di voler incrementare le risorse economiche da destinare all’intelligenza artificiale, e il 48% dice di guardare all’ecosistema open source. Prendendo in considerazione il campione di chi non ha ancora utilizzato l’open source, inoltre, due intervistati su cinque dicono di voler esplorare questa possibilità nell’anno in corso.


Intelligenza artificiale per aziende: l’attenzione al focus strategico


Se in generale quasi nove aziende su dieci manifestano l’intenzione di mantenere o aumentare i propri investimenti sull’intelligenza artificiale nel corso del 2025, è interessante notare come – prendendo in considerazione il 62% che ha in programma di destinare più risorse all’AI – il 39% pensa di spendere dal 25 al 50% in più rispetto al 2024.


La spesa non sarà “a pioggia”, ma indirizzata ad alcuni segmenti specifici, quelli nei quali le aziende hanno individuato la possibilità di ottenere risultati migliori, come le IT operations, la gestione della qualità dei dati e l’innovazione dei propri prodotti o servizi. Le tre priorità, nello specifico, riguardano l’utilizzo di servizi cloud gestiti, l’assunzione di talenti specializzati e l’utilizzo dell’open source.


Lo sviluppo delle soluzioni di intelligenza artificiale nelle aziende


Rispetto a un periodo iniziale in cui era più difficile misurare gli effetti delle strategie di intelligenza artificiale all’interno delle aziende, l’adozione di questa tecnologia sta iniziando a dare segni di maggiore maturità, tanto che l’85% del campione della ricerca afferma di aver registrato progressi nei risultati durante il 2024, con il 58% che riesce ormai a passare in meno di un anno dall’implementazione di progetti pilota alla “piena produzione”.


A guidare le aziende negli investimenti in intelligenza artificiale è prima di tutto la volontà di innovare, citata come motivazione principale dal 31% degli intervistati, contro il 28% che guarda principalmente al ritorno degli investimenti. Un mix delle due motivazioni, inoltre, è l’elemento scatenante per il 41% delle imprese. Quanto al cost saving, a citarlo come elemento principale è il 15% del campione.


Ai generativa e Agentic AI: soluzioni su misura per le aziende


Per dare un impulso decisivo al processo di trasformazione digitale in corso nel Paese, e perché questa possa rispondere al meglio alle esigenze di un ecosistema produttivo che in Italia vede in primo piano – come driver dell’economia nazionale – settori come il turismo, la tradizione agricola e artigianale e un’industria manifatturiera ben radicata in alcune aree del Paese, le evoluzioni più recenti dell’intelligenza artificiale possono giocare un ruolo di primo piano. Parliamo in particolare dell’AI generativa e dell’Agentic AI.


Si tratta, in sostanza, di individuare soluzioni sviluppate “su misura” sulla base delle esigenze specifiche di ogni azienda, che siano scalabili e traggano il massimo del valore dai dati, che si tratti di dare supporto all’HR, di interagire con i clienti sia in ambito B2C sia in ambito B2B, per arrivare fino alla gestione dei processi e al monitoraggio delle infrastrutture.


Cos’è l’AI generativa


Per intelligenza artificiale generativa si intende generalmente la tecnologia basata sull’AI che è in grado, partendo dall’analisi di un data set, di generare nuovi contenuti, che si tratti di testi, immagini, musica, o anche codici di programmazione software.


Uno dei modelli più diffusi è quelle delle cosiddette “reti avversarie”, o “generative adversial networks”, che si basano sulla combinazione di due reti neurali: la prima genera nuovi dati attingendo a un determinato database, e la seconda valuta la loro qualità confrontandola con informazioni “reali”, per assicurare la qualità dell’output.


Un altro modello fondamentale per l’AI generativa è l’approccio “Gpt”, acronimo per “generative pre-trained transformer”, che utilizza modelli di linguaggio avanzati per generare testi coerenti e contestualmente appropriati.


Entrambi i modelli trovano applicazione, soltanto per fare qualche esempio, nella creazione automatica di contenuti e nella traduzione linguistica, fino alla generazione di immagini e video.


Cos’è l’Agentic AI


A differenza dell’Ai generativa, l’Agentic AI, o intelligenza artificiale agentica consente alla tecnologia di compiere un passo in più, agendo autonomamente fino al raggiungimento di un obiettivo prefissato, senza avere il bisogno costante di un’interazione costante con l’uomo.


Si tratta quindi di dotare la tecnologia di una capacità decisionale avanzata che le consenta di assolvere ad alcuni task specifici, anche adattandosi a contesti mutevoli. Il suo utilizzo risulta particolarmente prezioso nel campo dell’automazione dei processi ad esempio nel manifatturiero, ed è uno dei cardini dell’industria 5.0.


Oltre a questo, è possibile vederla come un “potenziamento” della tecnologia alla base degli assistenti virtuali, che grazie all’intelligenza artificiale potranno non soltanto fornire informazioni a chi le chiede, ma anche compiere azioni predefinite, come – soltanto per fare qualche esempio – le prenotazioni per un viaggio o la gestione di alcune attività di pagamento, o ancora la gestione automatica delle flotte.


Il fatto che le macchine possano operare con un certo grado di indipendenza contribuisce a migliorare l’efficienza e l’efficacia quando si affrontano compiti complessi o ripetitivi.


AI e produttività, una rivoluzione culturale


“L’intelligenza artificiale, in particolare quella generativa, rappresenta una rivoluzione culturale che coinvolge tutte le sfere della società, dalle istituzioni alle imprese di ogni dimensione”, spiega Tiziana Tornaghi, General Manager Consulting IBM Italia. “La nuova frontiera del cambiamento si estende ulteriormente con l’avvento degli AI Agentic, nuovi ‘attori aziendali’ in grado di apprendere, adattarsi e interagire in modo autonomo. Tuttavia, come per ogni trasformazione – prosegue – la loro adozione richiede un approccio strategico su come integrarli in funzione degli obiettivi aziendali, nonché un investimento nella formazione di competenze e nella creazione di un ecosistema che governi questo cambiamento”.


Intelligenza artificiale, il nodo delle competenze


Ma le tecnologie, per quanto avanzate, da sole non bastano per compiere il salto della digital transformation e dell’adozione dell’intelligenza artificiale, se da questi processi si vuole trarre il massimo vantaggio. Serve anche che chi è chiamato a utilizzare gli strumenti di ultima generazione abbia competenze adeguate, e l’Italia ha bisogno di accelerare in questo campo.


Lo dimostrano i dati del Digital Decade Report 2024, secondo cui l’Italia è – tra i Paesi europei – tra quelli con i livelli più bassi di competenze digitali di base. Soltanto il 45,8% della popolazione, infatti, può contare in Italia su queste skill, con dieci punti percentuali di ritardo rispetto al valore medio dell’Unione Europea.


Per colmare questo gap anche le aziende stanno facendo la loro parte con iniziative ad hoc. Tra queste la piattaforma di aggiornamento skillsbuild.org, messa a punto da IBM, che ha erogato formazione gratuita su digital skill a oltre 200mila tra studenti, docenti e lavoratori in Italia.


“L’AI agisce come acceleratore dell’efficienza e della produttività. Per coglierne in pieno il potenziale di valore è però necessario concepirlo come strumento per migliorare le potenzialità umane, non per sostituirle – sottolinea Paolo Boccardelli, rettore dell’Università Luiss Guido Carli – In questa prospettiva, le università devono evolversi per trasformarsi da luoghi di riflessione e conoscenza in hub dinamici per lo sviluppo e l’innovazione, dove competenze tecnologiche e solida formazione umanistica si integrano armoniosamente, alimentando costantemente il dialogo e la collaborazione con le imprese”.


Le tecnologie di IBM per l’AI


Come esempio degli use case più promettenti e delle tecnologie trasformative di ultima generazione il roadshow di Ibm ha messo a punto un’area esperienziale, che presenta il portfolio di soluzioni di genAI di watsonx, a partire da watsonx Orchestrate, pensato per creare facilmente assistenti AI e agenti personalizzati per automatizzare e accelerare i flussi di lavoro, aumentando l’efficienza e ottenendo migliori risultati di business.


Tra le soluzioni presentate nel roadshow ci sono anche IBM Hybrid iPaaS, piattaforma ibrida per sviluppare in modo coerente con un unico strumento tutti i pattern di integrazione che coinvolgono applicazioni, API, B2B, file ed eventi, e IBM StreamSets, progettata per potenziare i progetti di AI integrando sorgenti dati eterogenee in maniera agile e veloce. Tra gli stand del percorso esperienziale, infine, quelli dedicati per il supporto dell’attività dei consulenti e dei diversi profili professionali di un’organizzazione, le soluzioni di quantum computinge quelle di security.


Creare una rete DPO per la sanità pubblica: perché è essenziale


Il Garante Privacy invita i DPO della sanità pubblica a creare una rete per affrontare le sfide della protezione dei dati, migliorare la compliance e rafforzare la sicurezza informatica. Un’alleanza strategica per un sistema sanitario più sicuro ed efficace

Nel complesso panorama della sanità pubblica italiana, la gestione della privacy e dei dati personali rappresenta una sfida cruciale.

Il Garante Privacy ha lanciato un chiaro invito: costituire una rete DPO nella sanità pubblica per rafforzare la protezione dei dati e migliorare la compliance normativa. Un’iniziativa strategica che potrebbe offrire numerosi vantaggi ai professionisti del settore e garantire una maggiore sicurezza per i cittadini.

Modelli organizzativi e gestione gerarchica dei dati sanitari

I titolari del trattamento che operano in tale contesto ben sanno, inoltre, che le innovazioni tecnologiche hanno profondamente mutato il processo di trattamento dei dati di salute, passato in pochi decenni da modalità analogiche e gestite in regime quasi del tutto autarchico a modalità automatizzate e digitali, condivise tra più attori, le cui attività devono svolgersi nel rispetto dei principi di privacy by design e privacy by default di cui all’articolo 25 del Regolamento Ue 2016/679.

Riprova di tale nuovo approccio alla gestione dell’informazione di salute sono, in particolare, i modelli organizzativi condivisi gerarchicamente tra i diversi livelli di cui si compone il sistema sanitario, come ad esempio quello dell’anagrafe nazionale vaccini o dell‘importante strumento costituito dal Fascicolo Sanitario Elettronico dove le responsabilità del trattamento dei dati sono suddivise tra livello del produttore, la struttura sanitaria, del coordinatore a livello locale, la regione o la provincia autonoma, e il livello centrale, spesso individuato nel Ministero della Salute.

Il ruolo cruciale del DPO nella sanità pubblica

In questo contesto, il ruolo del Data Protection Officer è divenuto sempre più cruciale, ma anche sempre più impegnativo da svolgere.

E purtroppo sinora, per contro, pochi amministratori se ne sono resi pienamente conto, rischiando così di avviare trattamenti di dati di non completa liceità e compliance al dettato normativo, corpus di regole che spesso non tiene il passo con le occasioni messe a disposizione dall’innovazione tecnologica o non riesce a individuarne pienamente i possibili punti critici.

L‘invito del Garante alla creazione di una rete DPO

Per supportare nel miglior modo tale processo e consentire al sistema sanitario di affrontare con efficacia le sfide attuali e future, è quindi oltremodo opportuno pensare ad avviare una maggiore collaborazione tra i DPO delle diverse strutture sanitarie, professionisti che nel dare seguito ai compiti previsti dall’articolo 39 del Regolamento UE 2016/679 possono trovare estrema utilità nel confronto e collaborazione tra pari.

Ed è proprio l’Autorità Garante che, anche alla luce di esperienze già attive da tempo relativamente al Progetto, messo in campo da Garante e ABI, di costituzione di una “Rete dei Responsabili della protezione dati nel settore bancario”, un gruppo di lavoro permanente, finalizzato al confronto e interscambio informativo tra l’Autorità e i RPD coinvolti nella gestione di trattamenti così complessi” ha nel corso di una importante giornata di studio tenutasi a Trieste a fine novembre 2024 ed organizzata da APIHM e dall’Università di Trieste che ha invitato i DPO del sistema sanitario ad organizzarsi con una propria rete.

Perché creare una rete DPO per la sanità pubblica?

A tal proposito la costituzione di una Rete nazionale dei DPO della sanità pubblica può rappresentare oggi una soluzione strategica per migliorare l’efficacia della funzione di tali professionisti, tale da garantire una gestione più coordinata e una protezione più uniforme dell’enorme e preziosissimo patrimonio di dati dei cittadini che i singoli Enti sanitari hanno in custodia e che sono molto ambiti da svariati soggetti, come i fornitori di servizi e i produttori di farmaci, ma anche dai criminali.

Ma quali sono le principali motivazioni che giustificano questa necessità?

Ridurre la frammentazione e uniformare la compliance

Il sistema sanitario italiano è caratterizzato da una estrema frammentazione, con una serie diversificata di strutture (ospedali, ASL, aziende sanitarie, IRCCS, Aziende sanitarie universitarie, Cliniche Universitarie, Case di cura, Centri diagnostici) con caratteristiche e dimensioni diverse che operano in modo autonomo e sono soggette a regolamentazioni non del tutto omogenee.



Questa frammentazione si riflette anche nella gestione della riservatezza degli utenti dei servizi e della protezione dei loro dati, tematiche che vengono affrontate con approcci disomogenei e, purtroppo, molto spesso di non completa efficacia come vediamo dalla cronaca, con i molti blocchi e danni ai sistemi informativi per attacchi di ransomware o altri tipi di incidenti di sicurezza.

La costituzione di una specifica rete di DPO potrebbe innanzitutto ridurre il rischio di interpretazioni divergenti della vigente normativa nazionale e comunitaria, favorendo senz’altro una maggiore uniformità nell’applicazione delle norme.

Tale uniformità applicativa risulta particolarmente importante in un contesto nel quale i dati sanitari vengono spesso condivisi tra diverse strutture, in particolare per garantire la continuità assistenziale o per la conduzione di attività di ricerca.

La possibilità di condividere conoscenze, esperienze e best practice, tipico effetto di una rete tra professionisti, sarebbe quindi di grande beneficio per il settore sanitario, che è caratterizzato da estremo dinamismo e governato da normative in continua evoluzione ed esposto ai rischi emergenti, come quelli legati alla cybersecurity e all’uso delle nuove tecnologie, come l’intelligenza artificiale e la telemedicina.

Una rete permetterebbe ai DPO di confrontarsi sulle tematiche di carattere comune, sulle soluzioni adottate e sulle criticità riscontrate, e l’esito del dibattito interno alla rete andrebbe così a costituire un patrimonio di conoscenza comune, a beneficio di tutti i suoi componenti.

Inoltre, la possibile analisi e condivisione tra gli attori della rete di taluni modelli operativi e di strumenti standardizzati, come linee guida, checklist, e di metodiche per la valutazione d’impatto dei trattamenti, ecc. potrebbe contribuire a ridurre significativamente i tempi ed i costi legati al raggiungimento della compliance dei titolari del trattamento del contesto sanitario, migliorando al contempo la qualità del lavoro svolto all’interno delle relative strutture.

Rfforzare la sicurezza e la risposta alle emergenze

Nel settore sanitario le violazioni dei dati e gli incidenti di cybersecurity sono in costante aumento, e le statistiche ufficiali su tale problematica evidenziano che tale settore operativo rappresenta uno dei principali bersagli degli attacchi da parte dei criminali informatici, visto anche l’elevato valore economico delle informazioni oggetto di corrente e massivo trattamento.

Ma il tema della sicurezza dei dati è purtroppo di scarso interesse per il management e nel caso purtroppo sempre più frequente di emergenze di sicurezza, i DPO si trovano spesso a dover gestire situazioni complesse, con tempi stretti e pressioni elevate.

Una rete di DPO potrebbe quindi costituire un sistema di allerta che permette di condividere informazioni su potenziali minacce e di coordinare risposte tempestive ed efficaci.

Inoltre, la rete potrebbe facilitare la creazione di protocolli comuni per la gestione delle violazioni dei dati, garantendo una risposta uniforme e conforme alle normative agli enti dove questi operano.

Diffondere la cultura della privacy nella sanità

Uno dei compiti fondamentali del DPO è promuovere una cultura della riservatezza e della protezione dei dati personali all’interno dell’organizzazione dei titolari e dei responsabili del trattamento.

Tuttavia, in un contesto frammentato come quello del sistema sanitario italiano questo obiettivo, che costituisce a ben vedere una vera e propria misura organizzativa di sicurezza, non sempre viene perseguito con metodo e risorse adeguate, rischiando di ottenere risultati disomogenei e di efficacia molto limitata.

Una rete strutturata e coordinata di DPO potrebbe quindi svolgere un ruolo chiave nel promuovere una cultura della privacy condivisa a livello di sistema e una maturazione della percezione della rilevanza della materia della protezione dei dati come asset fondamentale del sistema sanitario.

Attività come campagne di sensibilizzazione, workshop per il top management, corsi di formazione comuni o la creazione di materiali informativi standardizzati, potrebbero aumentare in effetti la consapevolezza di tutti gli operatori sanitari, migliorando l’attenzione alla protezione dei dati e riducendo enormemente i rischi legati agli errori umani, che sappiamo esserne la maggior fonte.

La rete DPO come strumento di rappresentanza e ottimizzazione

I DPO del sistema sanitario si trovano a dover affrontare sfide comuni, legate all’interpretazione delle normative, alla mancanza di risorse e all’estrema complessità tecnica del settore nel quale si trovano ad operare.

Senza un coordinamento a livello nazionale, la loro voce rischia di rimanere frammentata, per nulla incisiva e spesso inascoltata.

Una rete coordinata di DPO potrebbe a tal proposito svolgere un ruolo di rappresentanza di questo importantissimo settore, portando le istanze direttamente all’attenzione delle istituzioni, dell’Autorità Garante per la protezione dei dati personali e degli altri stakeholder, fra i quali anche i rappresentanti della particolare categoria di interessati, i cittadini assistiti dal sistema sanitario.

Questo permetterebbe ai DPO di far sentire la propria voce, di influenzare positivamente le politiche pubbliche, di ottenere chiarimenti normativi e di garantire che le specificità del settore sanitario siano adeguatamente considerate.

Molte strutture sanitarie, soprattutto quelle più piccole, faticano a dotarsi di DPO con competenze adeguate, spesso a causa del limitato impegno di risorse e della scarsa comprensione dell’importanza strategica di questa figura.

Una rete coordinata di DPO potrebbe favorire la condivisione di risorse e competenze, ad esempio attraverso la creazione di pool di esperti disponibili a supportare più strutture o la definizione di modelli di collaborazione tra grandi e piccole aziende sanitarie.

La rete potrebbe anche facilitare l’accesso a finanziamenti o progetti comuni, sfruttando sinergie e riducendo i costi per le singole strutture di titolari e responsabili del trattamento.

Guidare l’innovazione digitale in sanità

La digitalizzazione del settore sanitario rappresenta un’opportunità straordinaria per migliorare l’efficienza e la qualità dei servizi che gli enti devono assolutamente cogliere, ma essa può comportare anche nuovi rischi per la protezione dei dati, ancora non ben compresi e quindi non pienamente valutati.

L’adozione di tecnologie come l’intelligenza artificiale, la blockchain o i big data in ambito sanitario richiede un approccio molto attento e consapevole, che tenga debitamente conto delle conseguenti implicazioni per la protezione dei dati degli interessati.

Una rete coordinata di DPO potrebbe svolgere un ruolo chiave nel guidare l’innovazione, garantendo che le nuove tecnologie siano implementate nel rispetto delle normative e dei diritti dei cittadini.

Inoltre, la rete potrebbe favorire lo sviluppo di soluzioni comuni, come piattaforme sicure per la condivisione dei dati o strumenti per una migliore pseudonimizzazione dei dati, anche a scopo di ricerca.

Perché la rete DPO è una necessità strategica

In conclusione, la costituzione di una rete dei DPO del sistema sanitario nazionale non è più un’opzione, ma è diventata una necessità vera e propria.

In un contesto caratterizzato da complessità normative, rischi crescenti e risorse limitate, la collaborazione tra i DPO rappresenta l’unico modo per garantire una protezione efficace dei dati e, al contempo, migliorare l’efficienza del sistema sanitario.

Una rete di DPO permetterebbe di condividere conoscenze, uniformare gli approcci, rafforzare la capacità di risposta alle emergenze e promuovere una cultura della privacy condivisa.

Inoltre, potrebbe svolgere un ruolo di rappresentanza e favorire l’innovazione, contribuendo a creare un sistema sanitario più sicuro, trasparente e all’avanguardia.

Investire nella creazione di questa rete non significa solo rispondere alle esigenze del presente, ma anche prepararsi alle sfide del futuro, garantendo che la protezione dei dati rimanga al centro della trasformazione digitale del settore sanitario, nel pieno rispetto ed a tutela dei principi fondamentali del Regolamento UE 2016/679.

Gli hacker russi prendono di mira i siti web dello Stato rumeno il giorno delle elezioni

Un gruppo di hacktivisti legato alla Russia, noto come NoName057(16), ha rivendicato la responsabilità degli attacchi informatici su diversi...