Cerca nel blog

lunedì 31 marzo 2025

Come gli esperti di sicurezza informatica combattono le minacce generate dall'intelligenza artificiale

La rapida integrazione dell'intelligenza artificiale (IA) nella sicurezza informatica sta rimodellando il modo in cui le minacce emergono ed evolvono. I criminali informatici non sono più limitati dalle tradizionali tecniche di hacking: ora utilizzano strumenti basati sull'IA per automatizzare gli attacchi , generare codice dannoso e perfezionare le tattiche di ingegneria sociale. Questo cambiamento sta rendendo le minacce informatiche più veloci, più efficaci e più difficili da rilevare, costringendo i professionisti della sicurezza a ripensare le proprie strategie difensive.


L'aspetto più preoccupante degli attacchi informatici generati dall'intelligenza artificiale è che richiedono poca o nessuna competenza tecnica per essere eseguiti. Invece di affidarsi alla scrittura manuale di script, gli aggressori ora utilizzano modelli di linguaggio di grandi dimensioni (LLM) come ChatGPT e Gemini per generare e-mail di phishing, exploit script e payload con solo pochi prompt ben congegnati.


Oltre ai singoli attacchi, la tecnologia AI sta consentendo l'automazione su larga scala delle minacce informatiche. Gli aggressori possono ora implementare campagne di hacking persistenti, guidate dall'AI, in cui il malware si evolve in tempo reale, i messaggi di phishing si adattano dinamicamente e lo spyware raccoglie informazioni in modo autonomo.


Questo potenziale duplice uso, in cui l’intelligenza artificiale può essere utilizzata sia per la difesa che per l’attacco, rappresenta una delle maggiori sfide per la sicurezza informatica.


Attacchi informatici guidati dall'intelligenza artificiale: tecniche utilizzate dai criminali informatici


Ingegneria sociale e phishing


L'intelligenza artificiale generativa consente ora agli aggressori di creare messaggi di phishing altamente personalizzati su larga scala, imitando stili di comunicazione aziendali reali e adattandosi alle risposte delle vittime. Può aiutare a replicare il branding ufficiale, il tono e gli stili di scrittura, rendendoli difficili da distinguere dai messaggi legittimi. In esperimenti controllati, le e-mail di phishing generate dall'intelligenza artificiale hanno ingannato oltre il 75 percento dei destinatari inducendoli a cliccare su link dannosi, dimostrando quanto efficacemente l'intelligenza artificiale possa manipolare la fiducia umana.


Generazione di codice dannoso


Utilizzando tecniche di jailbreak come il metodo di gioco dei personaggi, gli aggressori possono aggirare le misure di sicurezza etiche dell'IA ed estrarre codice dannoso per la generazione di payload, la crittografia e l'offuscamento.
L'IA generativa è particolarmente utile per creare malware polimorfici, ovvero software dannosi che modificano la struttura del codice in tempo reale per eludere il rilevamento. Le soluzioni antivirus tradizionali faticano a tenere il passo con questi rapidi cambiamenti.


L'IA aiuta anche nell'offuscamento di script dannosi. Gli aggressori possono usare modelli di IA per generare script malware altamente complessi, criptati o mascherati. L'inserimento di codice morto, l'offuscamento del flusso di controllo e le tecniche di manipolazione del codice basate sull'IA consentono al malware di mimetizzarsi in applicazioni legittime e di eludere l'analisi statica degli strumenti di sicurezza.


Strategie di hacking automatizzate


L'intelligenza artificiale può automatizzare tecniche di hacking come attacchi brute-force, credential stuffing e scansione delle vulnerabilità, consentendo agli aggressori di compromettere i sistemi in pochi secondi. Inoltre, la ricognizione automatizzata consente all'intelligenza artificiale di analizzare i sistemi alla ricerca di porte aperte, software obsoleti ed errori di configurazione. Con l'assistenza dell'intelligenza artificiale, gli aggressori possono condurre attacchi automatici di SQL injection, cross-site scripting (XSS) e buffer overflow exploit con un intervento umano minimo.
Spyware e minacce persistenti avanzate (APT)


L'intelligenza artificiale generativa alimenta lo spyware di nuova generazione, consentendo l'esfiltrazione furtiva dei dati, il keylogging e le capacità di accesso remoto. Lo spyware generato dall'intelligenza artificiale può monitorare il comportamento degli utenti, rubare credenziali ed eludere il rilevamento tramite tecniche di offuscamento.
Gli aggressori utilizzano l'intelligenza artificiale per automatizzare la ricognizione sui sistemi target, identificando le vulnerabilità che consentono l'infiltrazione a lungo termine e non rilevata. Gli APT basati sull'intelligenza artificiale possono mantenere un accesso persistente alle reti aziendali, esfiltrando i dati in piccoli frammenti non rilevabili nel tempo. L'intelligenza artificiale aiuta anche nell'escalation automatizzata dei privilegi, in cui gli aggressori utilizzano script generati dall'intelligenza artificiale per ottenere livelli di accesso più elevati all'interno di un sistema.


Deepfake e disinformazione generata dall'intelligenza artificiale


Gli aggressori utilizzano audio e video generati dall'intelligenza artificiale per impersonare individui di alto profilo, manipolando la percezione pubblica e conducendo frodi su larga scala. Le truffe finanziarie che utilizzano deepfake hanno già ingannato le aziende inducendole a trasferire milioni di dollari su conti fraudolenti. Le campagne di disinformazione politica sfruttano i video generati dall'intelligenza artificiale per diffondere false narrazioni, influenzare le elezioni e destabilizzare le società. L'aumento dei contenuti generati dall'intelligenza artificiale facilita anche gli attacchi alla reputazione, in cui i deepfake vengono utilizzati per creare falsi scandali, ricattare le vittime o diffondere disinformazione.


Occupy AI: un LLM ottimizzato per gli attacchi informatici


Yusuf Usman, assistente di ricerca laureato in sicurezza informatica presso la Quinnipiac University, studia come l'intelligenza artificiale e l'apprendimento automatico possano migliorare il rilevamento del phishing e automatizzare la difesa informatica. Evidenzia una minaccia crescente: Occupy AI, un LLM personalizzato progettato per migliorare gli attacchi informatici tramite automazione, precisione e adattabilità.


Occupy AI può essere precaricato con ampi set di dati di vulnerabilità di sicurezza, librerie di exploit e metodologie di attacco del mondo reale, consentendo ai criminali informatici di eseguire attacchi informatici complessi con il minimo sforzo. Eccelle nell'automazione della ricognizione, fornendo analisi delle vulnerabilità in tempo reale e generando script di attacco altamente efficaci su misura per obiettivi specifici.


Un vantaggio fondamentale degli LLM malevoli ottimizzati come Occupy AI è la loro capacità di auto-migliorarsi tramite apprendimento per rinforzo. Analizzando continuamente i tassi di successo degli attacchi, questi strumenti basati sull'intelligenza artificiale possono perfezionare le loro tecniche, rendendole più efficaci nel tempo. Possono anche integrare intelligence sulle minacce in tempo reale, adattandosi a nuove patch di sicurezza, regole del firewall e meccanismi di autenticazione.


L'accessibilità di tali strumenti riduce la barriera alla criminalità informatica, consentendo anche a individui inesperti di condurre attacchi altamente efficaci.


Preoccupazioni etiche e implicazioni per la sicurezza dell’intelligenza artificiale


Il rapido sviluppo degli attacchi informatici basati sull'intelligenza artificiale solleva gravi preoccupazioni di carattere etico e di sicurezza, in particolare per quanto riguarda l'accessibilità, la regolamentazione e l'adattabilità degli strumenti di intelligenza artificiale dannosi.


Accesso illimitato agli strumenti di attacco generati dall'intelligenza artificiale


Una volta che un modello di IA è stato messo a punto per gli attacchi informatici, può essere facilmente distribuito su forum underground o venduto come servizio. Questa disponibilità di massa amplifica la portata e la frequenza degli attacchi basati sull'IA, rendendo più facile per gli attori malintenzionati lanciare campagne automatizzate senza richiedere una conoscenza approfondita della sicurezza informatica.


Mancanza di regolamentazione per i modelli di intelligenza artificiale perfezionati


A differenza dei prodotti AI disponibili in commercio che aderiscono a rigide linee guida etiche, i modelli AI addestrati su misura progettati per la criminalità informatica esistono in una zona grigia legale. Non ci sono policy standardizzate per regolamentare la creazione e l'uso di tali modelli, rendendone quasi impossibile l'applicazione.


Evoluzione continua delle minacce basate sull'intelligenza artificiale


Le minacce informatiche guidate dall'intelligenza artificiale si evolvono costantemente, adattandosi alle patch di sicurezza, agli aggiornamenti di intelligence sulle minacce e ai metodi di rilevamento. Gli aggressori perfezionano modelli come Occupy AI per aggirare le difese, eludere il rilevamento delle frodi e migliorare la furtività. Ciò crea un continuo gioco del gatto e del topo tra i difensori della sicurezza informatica e gli aggressori potenziati dall'intelligenza artificiale, in cui le soluzioni di sicurezza devono adattarsi costantemente a un panorama delle minacce in continua evoluzione.


Rafforzare le difese contro le minacce informatiche generate dall'intelligenza artificiale


Man mano che le minacce informatiche basate sull'intelligenza artificiale diventano più sofisticate, i team di sicurezza informatica devono sfruttare l'intelligenza artificiale in modo difensivo e implementare misure di sicurezza proattive per contrastare i rischi emergenti.


Rilevamento e risposta alle minacce basate sull'intelligenza artificiale


I team di sicurezza devono adottare strumenti di sicurezza basati sull'intelligenza artificiale per rilevare e neutralizzare le minacce informatiche generate dall'intelligenza artificiale. Il monitoraggio in tempo reale, combinato con analisi comportamentali avanzate, rilevamento delle anomalie e piattaforme di intelligence sulle minacce basate sull'intelligenza artificiale, può aiutare a identificare modelli di attacco sottili che i sistemi di sicurezza tradizionali potrebbero non rilevare.


Architettura Zero Trust (ZTA)


Data la capacità dell'intelligenza artificiale di automatizzare il furto di credenziali e l'escalation dei privilegi, le organizzazioni devono applicare i principi di fiducia zero, assicurando che ogni richiesta di accesso venga costantemente verificata, indipendentemente dall'origine, implementando una verifica avanzata dell'identità e un'autenticazione a più fattori.


Inganno informatico basato sull'intelligenza artificiale


I team di sicurezza informatica possono usare l'IA contro gli aggressori implementando tecniche di inganno basate sull'IA, come honeytoken, credenziali false, honeypot e sistemi esca che confondono gli sforzi di ricognizione potenziati dall'IA. Fornendo agli aggressori informazioni false, le organizzazioni possono sprecare tempo e risorse, riducendo l'efficacia degli attacchi automatizzati.


Test di sicurezza automatizzati e red teaming


Proprio come l'intelligenza artificiale viene utilizzata per gli attacchi informatici, i difensori possono implementare test di penetrazione basati sull'intelligenza artificiale e audit di sicurezza automatizzati per identificare le vulnerabilità prima che lo facciano gli aggressori. Il red teaming assistito dall'intelligenza artificiale può simulare strategie di attacco potenziate dall'intelligenza artificiale, aiutando i team di sicurezza a rimanere un passo avanti agli avversari migliorando continuamente le loro difese.


Raccomandazioni normative e politiche per mitigare i crimini informatici basati sull'intelligenza artificiale


I governi e le organizzazioni internazionali devono applicare rigide normative sull'uso dell'IA. Ciò include il divieto di creazione e distribuzione di modelli di IA specificamente progettati per la criminalità informatica, l'obbligo per gli sviluppatori di IA di mantenere la trasparenza e l'applicazione di controlli sulle esportazioni di sistemi di IA in grado di generare codice dannoso o di aggirare le misure di sicurezza.


Le piattaforme AI devono implementare meccanismi di filtraggio robusti per prevenire prompt engineering dannosi e la generazione di codice dannoso. Il monitoraggio continuo degli output generati dall'AI è necessario per rilevare l'uso improprio prima che degeneri.


I governi, le aziende di sicurezza informatica e gli sviluppatori di intelligenza artificiale devono collaborare per creare piattaforme di condivisione di informazioni sulle minacce in tempo reale, in grado di monitorare e neutralizzare le minacce informatiche guidate dall'intelligenza artificiale.


Infine, è fondamentale investire di più nella ricerca sulla sicurezza informatica basata sull'intelligenza artificiale per restare un passo avanti agli aggressori che perfezionano costantemente le loro tecniche basate sull'intelligenza artificiale.


6 principali attacchi informatici e violazioni dei dati a marzo 2025. Gli attacchi informatici e le violazioni dei dati più importanti di marzo 2025



Gli attacchi informatici e le violazioni dei dati stanno creando scompiglio tra le organizzazioni e gli utenti di tutto il mondo.

Dagli attacchi ransomware e DDoS (Distributed Denial-of-Service) alle esposizioni accidentali e di dati di terze parti, le aziende devono affrontare rischi continui e complessi per la sicurezza informatica.

Ecco un'analisi di alcuni degli attacchi informatici e delle violazioni dei dati più importanti che hanno fatto notizia questo mese.

6 milioni di record esfiltrati da Oracle Cloud

Il fornitore di sicurezza CloudSEK ha scoperto una grave violazione che ha preso di mira Oracle Cloud, con 6 milioni di record esfiltrati tramite una sospetta vulnerabilità non divulgata. Sono stati colpiti più di 140.000 tenant, con l'aggressore che ha chiesto un riscatto e ha commercializzato dati sensibili online. I dati includono file JKS, password SSO crittografate, file chiave e chiavi JPS del gestore aziendale.

"Sebbene l'autore della minaccia non abbia precedenti, i suoi metodi indicano un'elevata sofisticatezza, CloudSEK valuta questa minaccia con un livello di sicurezza medio e la classifica come di gravità elevata", ha affermato CloudSEK.

Un'app bancaria falsa prende di mira gli utenti Android tramite Telegram

È stato individuato un sofisticato malware dropper che imitava l'app IndusInd Bank e prendeva di mira gli utenti Android in uno schema di phishing per rubare informazioni finanziarie sensibili. Visualizzando un'interfaccia bancaria falsa, l'app dannosa inganna gli utenti inducendoli a immettere informazioni come i numeri PAN e Aadhaar, nonché le credenziali bancarie.

Dopo che le vittime hanno inviato i dati, questi vengono inviati sia a un server di phishing sia a un canale di comando e controllo (C2) controllato da Telegram.

Attacco informatico colpisce le ferrovie ucraine

Un attacco informatico "su larga scala" alle ferrovie ucraine ha costretto i servizi online offline. Ukrzaliznytsia, la compagnia ferroviaria nazionale del paese, ha descritto l'attacco come "molto sistematico, complesso e multilivello". Ha bloccato il suo portale online, rendendo impossibile la vendita online dei biglietti per un periodo di tempo, sebbene i treni fossero ancora in grado di funzionare.

"L'obiettivo principale del nemico è fallito: il traffico ferroviario rimane stabile, procede secondo programma senza ritardi e tutti i processi operativi sono stati commutati in modalità di backup", si legge nell'ultimo aggiornamento di Ukrzaliznytsia. "La ferrovia continua a funzionare nonostante gli attacchi fisici all'infrastruttura e persino gli attacchi informatici più subdoli non riescono a fermarla. Poiché Ukrzaliznytsia è stata in precedenza un bersaglio di attacchi informatici nemici, sono stati implementati protocolli di backup all'interno dell'azienda".

Siti Web attendibili sfruttati per reindirizzamenti dannosi

Un'altra campagna esposta da ANY.RUN ha visto gli aggressori abusare delle funzioni di reindirizzamento su domini affidabili e di lunga data per reindirizzare gli utenti a pagine di phishing. Sfruttando una debole convalida del reindirizzamento, gli autori della minaccia hanno trasformato URL dall'aspetto sicuro in una rampa di lancio per siti dannosi. Poiché gli utenti credevano di essere ancora su pagine legittime o di spostarsi tra di esse, era molto più probabile che cadessero nella truffa.

L'attacco alla supply chain compromette GitHub Action

Un attacco alla supply chain ha compromesso la popolare GitHub Action tj-actions/changed-files, con un impatto su oltre 23.000 repository. Gli aggressori hanno modificato retroattivamente più tag di versione per fare riferimento a un commit dannoso, esponendo i segreti CI/CD nei log del flusso di lavoro. La vulnerabilità è esistita tra il 14 e il 15 marzo 2025 e da allora è stata mitigata.

L'attacco ha comportato la modifica della GitHub Action tj-actions/changed-files per eseguire uno script Python dannoso. Questo script ha estratto i segreti dalla memoria del processo Runner Worker e li ha stampati nei log di GitHub Actions, rendendoli accessibili al pubblico nei repository con log di workflow pubblici.

"Questo CVE ha un impatto sui repository GitHub pubblici con GitHub Actions abilitate. Tutte le versioni sono state interessate", ha affermato Dimitri Stiliadis, CTO e co-fondatore di Endor Labs. "Per le organizzazioni che creano software, sarà probabile che dovranno riconfigurare le proprie pipeline se utilizzano l'Azione compromessa".

Migliaia di fascicoli giudiziari del Nuovo Galles del Sud trapelati

Circa 9.000 fascicoli giudiziari, tra cui documenti sensibili come ordini di violenza e dichiarazioni giurate, sono trapelati in una violazione dei dati del registro online del sistema giudiziario del Nuovo Galles del Sud (NSW). La polizia è stata avvisata della violazione del sito Web del registro online del NSW con i detective della criminalità informatica del NSW State Crime Command che hanno avviato un'indagine che ha coinvolto il Department of Communities and Justice (DCJ) dello stato.

È stato riferito che i documenti esposti potrebbero contenere nomi e indirizzi di vittime e autori di reati, nonché resoconti di presunti reati.

Il procuratore generale del NSW Michael Daley ha affermato che il dipartimento e la polizia stanno prendendo l'incidente seriamente e stanno lavorando per garantire l'integrità del sistema in seguito alla perdita significativa. "Stanno anche lavorando per identificare e contattare urgentemente gli utenti interessati e il pubblico verrà tenuto aggiornato man mano che saranno disponibili maggiori informazioni", ha aggiunto.

Le 6 principali innovazioni per l'esercito 25 marzo 2025

1. Un Black Hawk modernizzato

Maggiore potenza, carico utile e intelligenza nel dominio aereo di livello inferiore

Mentre l'esercito guarda al futuro, deve essere pronto a operare su distese più grandi di terra e acqua, combattere in un ambiente multi-dominio e contrastare minacce sempre più sofisticate. Nel dominio aereo di livello inferiore, un elicottero offre versatilità, portata e accesso senza pari su terreni diversi per una vasta gamma di missioni, dall'assalto aereo al rifornimento in prima linea e al soccorso umanitario.

Il Black Hawk è essenziale per le operazioni dell'esercito, con oltre 2.100 esemplari nella flotta in tutto il mondo. Dalla risposta alle emergenze della Guardia Nazionale alle operazioni di deterrenza quasi pari, nessuna missione dell'esercito può avere successo senza il supporto di questo cavallo di battaglia, elicottero collaudato in combattimento.

Quindi, cosa porta all'esercito il Black Hawk modernizzato?Più potenza e carico utile a distanza con l' Improved Turbine Engine (ITE). Sikorsky si sta preparando per il primo volo del primo Black Hawk integrato con due di questi motori T901.
Aggiornamenti più rapidi ed efficienti grazie alla nuova struttura portante Modular Open System Approach (MOSA) che garantirà al Black Hawk di stare al passo con le ultime innovazioni.
Capacità autonome che renderanno i piloti del Black Hawk più efficaci, aumenteranno la sicurezza e offriranno ai comandanti a terra ancora più opzioni per missioni critiche in ambienti con scarsa visibilità.
Team di droni pilotati tramite Launched Effects per raccogliere e condividere informazioni vitali in ambienti contesi. I droni LE possono anche dare al Black Hawk migliori difese, rafforzando la sopravvivenza e la letalità in ambienti contesi.



Il Black Hawk è in continua innovazione per essere più resistente, più sicuro e più veloce.


Espansione delle capacità dei UAS

Le missioni dell'esercito come ricerca e soccorso, rifornimento e intelligence, sorveglianza e ricognizione potrebbero trarre vantaggio dai nuovi droni ibridi-elettrici progettati e testati da Sikorsky. Si tratta di una configurazione a doppio proprotore "ala soffiata dal rotore" che si appoggia sulla coda per decollare e atterrare come un elicottero e passa facilmente al volo orizzontale in avanti. Questo sistema aereo senza pilota (UAS) di nuova generazione può essere adattato a una varietà di missioni e operare in modo autonomo da superfici non preparate o persino da navi più lontane e veloci degli elicotteri tradizionali.

In poco più di un anno, Sikorsky ha portato a termine la progettazione preliminare, la simulazione, il volo vincolato e quello svincolato.

Le applicazioni dei futuri aeromobili UAS con rotore soffiato includono ricerca e soccorso, monitoraggio antincendio, risposta umanitaria e sorveglianza di condotte. Le varianti di grandi dimensioni consentiranno missioni di intelligence a lungo raggio, sorveglianza e ricognizione e di teaming con droni pilotati.


2. PrSM fornisce tiri di precisione a lungo raggio e si evolve per il futuro


Il Precision Strike Missile (PrSM) rappresenta un significativo balzo in avanti nei tiri di precisione a lungo raggio, consentendo alle forze di colpire i bersagli con precisione e efficacia millimetriche. Questa capacità rafforza la capacità dell'esercito di dominare il campo di battaglia e mantenere un vantaggio strategico.

PrSM è una componente cruciale della strategia di modernizzazione dell'esercito degli Stati Uniti, progettata per sostituire i vecchi sistemi di artiglieria e migliorare letalità, gittata e mobilità. Questa tecnologia di nuova generazione garantisce che le nostre forze armate rimangano all'avanguardia dell'innovazione militare, pronte ad affrontare le minacce emergenti e a difendere gli interessi della nostra nazione.



Le capacità avanzate del PrSM sono essenziali per l'esecuzione con successo degli incendi per l'esercito statunitense.

In un panorama di sicurezza globale sempre più complesso e imprevedibile, PrSM offre una risposta potente e adattabile alle minacce in evoluzione. Sfruttando tecnologie avanzate, il nostro team presso Lockheed Martin si impegna a fornire soluzioni all'avanguardia, 21st Century Security® che mantengano la nostra nazione al sicuro.

Lo sviluppo e il successo del PrSM sono una testimonianza del potere della partnership e della collaborazione internazionale. Lavorando a stretto contatto con i nostri alleati e partner, possiamo mettere in comune risorse, competenze e conoscenze per creare una rete di difesa più forte e resiliente, in grado di affrontare le sfide del 21° secolo.


3. Difesa anti-UAS più intelligente e scalabile




Cieli sicuri, missione sicura: la soluzione C-UAS all'avanguardia di Lockheed Martin protegge dalle minacce aeree in un ambiente in rapido cambiamento.

Mentre la minaccia di piccoli droni e attacchi a sciame cresce, Lockheed Martin sta fornendo una soluzione flessibile basata sull'intelligenza artificiale per rilevare, tracciare e sconfiggere gli UAS. Una recente dimostrazione ha dimostrato la sua capacità di gestire sia minacce singole che sciami di droni coordinati, preparando il terreno per un rapido dispiegamento.
Cosa lo distingue:Architettura modulare e aperta : progettato per un'integrazione perfetta con i sistemi dell'esercito esistenti, questo approccio consente rapidi aggiornamenti incorporando i migliori sensori, effettori e miglioramenti del comando e controllo (C2).
Rilevamento e risposta basati sull'intelligenza artificiale : algoritmi avanzati, addestrati su scenari reali, forniscono un tracciamento più rapido e accurato, offrendo agli operatori un vantaggio tattico nell'identificazione e nella neutralizzazione delle minacce.
Rapida scalabilità : il sistema si adatta rapidamente alle minacce in continua evoluzione e collabora facilmente con le tecnologie dei partner per garantire un'efficacia continua in ambienti di combattimento dinamici.
Prestazioni comprovate: in un recente evento sul campo, Lockheed Martin è riuscita a rilevare, tracciare e mitigare con successo varie piccole minacce rappresentate da UAS, tra cui sciami coordinati di droni.

Con solo pochi minuti per reagire a un attacco di droni, un approccio di difesa a più livelli è essenziale. La soluzione abilitata dall'intelligenza artificiale di Lockheed Martin garantisce che le forze dell'esercito possano rilevare e rispondere rapidamente alle minacce UAS, proteggendo soldati, equipaggiamenti e infrastrutture critiche in uno spazio di battaglia in rapida evoluzione. Sfruttando la nostra competenza nell'integrazione di sistemi, nell'intelligenza artificiale e nella sicurezza informatica, ci impegniamo ad aiutare l'esercito a rimanere al passo con le minacce emergenti e a mantenere il suo vantaggio operativo.


4. Sviluppo dell'intelligenza artificiale (IA) per un uso futuro nei sensori Apache

Lockheed Martin inizierà presto la produzione della Common Sensor Electronics Unit (CSEU) per mitigare l'obsolescenza del processore per i sensori di puntamento e pilotaggio Apache. Questo processore, progettato per mitigare l'obsolescenza, fornirà anche la potenza di elaborazione per abilitare le funzionalità future. Il nostro team ha lavorato su iniziative di intelligenza artificiale che possono essere implementate sull'Apache, fornendo capacità significative volte a ridurre il carico di lavoro del pilota e ottimizzare le prestazioni nelle condizioni più difficili, come gli ambienti visivi degradati. Queste tecnologie estenderanno la capacità dell'equipaggio di identificare i bersagli (aerei, terrestri e marittimi) più rapidamente e con maggiore precisione e saranno preziose per le operazioni di combattimento su larga scala. Siamo orgogliosi di essere all'avanguardia in questa innovazione. Investendo nell'intelligenza artificiale e conducendo ricerche per integrare le capacità di rilevamento e riconoscimento assistiti dei bersagli sulla piattaforma Apache, il nostro obiettivo è aumentare la letalità e la sopravvivenza degli equipaggi Apache, mitigando al contempo i rischi incontrati durante ogni missione Apache.



I sensori Apache Fire Control forniscono agli equipaggi una maggiore consapevolezza della situazione e maggiori tassi di sopravvivenza.

Questi sforzi evidenziano il nostro impegno nel mantenere l'esercito statunitense al passo con le minacce in continuo progresso per fornire agli equipaggi degli Apache una tecnologia all'avanguardia che ne migliori l'efficacia operativa. Mentre continuiamo a far progredire questa tecnologia, siamo entusiasti del suo potenziale di contribuire all'obiettivo collettivo di abilitare operazioni di combattimento su larga scala. Attraverso la collaborazione con i nostri clienti dell'esercito statunitense e investimenti strategici nell'innovazione dell'intelligenza artificiale, stiamo sviluppando gli strumenti all'avanguardia che consentiranno agli equipaggi degli Apache di rimanere al passo con le minacce emergenti e mantenere il loro vantaggio competitivo.


5. Integrazione di sistemi per fornire capacità di difesa missilistica a più livelli

Nel 2022, Lockheed Martin ha ulteriormente integrato l' intercettore PAC-3 Missile Segment Enhancement (MSE) nel sistema d'arma Terminal High Altitude Area Defense (THAAD) con FTT-21 , un test di volo di successo effettuato presso il White Sands Missile Range.


L'integrazione THAAD MSE (TMI) aggiunge una capacità critica di difesa missilistica a più livelli.

FTT-21 ha dimostrato la capacità di intercettare una minaccia missilistica in arrivo con un PAC-3 MSE organicamente all'interno del sistema d'arma THAAD. L'integrazione della difesa missilistica PAC-3 di livello inferiore nel sistema di difesa missilistica di livello superiore THAAD senza la necessità di collocare insieme i sistemi d'arma THAAD e Patriot significa una significativa riduzione della logistica e dell'equipaggiamento di terra necessario per il combattente.

L'integrazione si traduce in un sistema di difesa missilistica a strati più strettamente integrato, che fornisce una capacità di difesa missilistica multilivello critica per sconfiggere le minacce attuali ed emergenti, ed è un altro contributo di Lockheed Martin alle operazioni congiunte all-domain. La comprovata capacità migliora la sicurezza del 21 ° secolo, offrendo al combattente più opzioni con l'equipaggiamento esistente in modo che possa scegliere il miglior intercettore per qualsiasi minaccia si trovi ad affrontare.

Il sistema d'arma THAAD ha dimostrato un record perfetto di test di volo di 17 per 17 intercettazioni. Sedici di queste intercettazioni sono state con un intercettore THAAD. Il tasso di successo dei test di volo del THAAD e lo stato di comprovata efficacia in combattimento continuano a suscitare interesse in tutto il mondo. Il PAC-3 MSE è stato testato contro una varietà di minacce, tra cui missili da crociera, missili balistici e ipersonici. I combattenti hanno contato sul THAAD e sul PAC-3 MSE per sconfiggere le minacce missilistiche, sia nei test di volo che negli scenari di combattimento.


6. Capacità senza equipaggio con un lanciatore surrogato HIMARS®

Lockheed Martin ha dimostrato con successo la capacità di operare senza equipaggio con un lanciatore surrogato HIMARS ®, segnando un passo fondamentale nello sviluppo di sistemi autonomi che operano in collaborazione con veicoli con equipaggio.

Nel 2024, il surrogato ha lanciato la capacità di navigazione visualizzata senza conducente utilizzando sensori di percezione non emettitori. Questa dimostrazione consente operazioni diurne e notturne senza soluzione di continuità senza equipaggio. Questo risultato segna un sostanziale passo avanti nello sviluppo di una soluzione autonoma che può essere integrata senza soluzione di continuità nella flotta HIMARS esistente di lanciatori e veicoli di rifornimento. Supportando gli sforzi di modernizzazione dell'esercito statunitense per le capacità di artiglieria, questa tecnologia innovativa fornisce una maggiore adattabilità in ambienti complessi e dinamici.

Lo sviluppo di questa capacità di lancio autonoma è in linea con l'impegno di Lockheed Martin nel promuovere la sua visione 21st Century Security ®, sottolineando lo sviluppo di tecnologie all'avanguardia che consentano al nostro esercito di anticipare le minacce emergenti.

Il sistema di combattimento Aegis dimostra la capacità del sistema di contrastare le minacce ipersoniche


Kauai, Hawaii, 25 marzo 2025 – L'USS Pinckney (DDG 91) ha completato con successo il Flight Test Other 40 (FTX-40), noto anche come Stellar Banshee, utilizzando il sistema di combattimento Aegis di Lockheed Martin per rilevare, tracciare ed eseguire uno scontro con un bersaglio vivo di un missile balistico a medio raggio (MRBM) ipersonico avanzato utilizzando un SM-6 Block IAU simulato.

FTX-40, supportato dalla Missile Defense Agency, dalla Marina degli Stati Uniti, da Lockheed Martin e dai partner del settore, ha testato uno scenario ipersonico reale, mostrando diverse capacità. Stellar Banshee ha introdotto un nuovo bersaglio e un missile simulato, segnando l'uso riuscito dell'ultimo software Aegis in una configurazione virtualizzata per una missione di test di volo di difesa missilistica balistica (BMD).

Il momento clou dell'ipersonico

"Il nostro Aegis Combat System ha difeso con successo contro una minaccia ipersonica simulata", ha affermato Chandra Marshall, vicepresidente di Multi-Domain Combat Solutions presso Lockheed Martin. "Il vantaggio di difesa ipersonica di Aegis Baseline 9 contro un bersaglio MRBM offre un'incredibile capacità che consente al nostro combattente di vedere l'invisibile, prima, assicurando che i nostri marinai si trovino di fronte alle minacce rapidamente".

Il test di successo evidenzia anche la capacità dell'Aegis Combat System di adattarsi all'ambiente di difesa in continua evoluzione. Con configurazioni sia marittime che terrestri, Aegis dimostra la flessibilità e la scalabilità del sistema, rendendolo un pilastro fondamentale della difesa missilistica.

Capacità comprovata in corso

Lockheed Martin sta guidando l'innovazione, l'integrazione e il supporto per i test di volo in corso con la Missile Defense Agency, la US Navy e i partner del settore, plasmando il futuro della tecnologia Aegis. L'impegno simulato FTX-40 anticipa le future missioni di intercettazione del fuoco vivo Aegis ed è il terzo test per il sistema Capability Package 24 / Ballistic Missile Defense 5.1.5, incluso il Sea-Based Terminal Increment 3.

L'anno scorso, i team dell'industria e del governo hanno eseguito con successo FTX-23, altrimenti noto come Stellar Sisyphus, dimostrando un test di sviluppo in due parti di capacità di tracciamento dei sensori e di collegamento delle comunicazioni. I team hanno intercettato con successo un bersaglio MRBM utilizzando il missile intercettore SM-6 Dual II Software Upgrade in FTM-32.

Lockheed Martin e Google Cloud annunciano la collaborazione per promuovere l'intelligenza artificiale generativa per la sicurezza nazionale

Lockheed Martin (NYSE: LMT) e Google Public Sector hanno annunciato oggi la loro intenzione di integrare l'intelligenza artificiale generativa avanzata (genAI) di Google nell'ecosistema AI Factory di Lockheed Martin. Questa collaborazione migliorerà la capacità di Lockheed Martin di addestrare, distribuire e sostenere modelli di intelligenza artificiale ad alte prestazioni insieme ad altri fornitori leader, accelerando le capacità basate sull'intelligenza artificiale in applicazioni critiche per la sicurezza nazionale, aerospaziali e scientifiche.


L'AI Factory di Lockheed Martin sfrutta modelli AI sia open source che proprietari, offrendo tracciabilità, affidabilità e monitoraggio per garantire affidabilità, sicurezza e distribuzione ad alta garanzia. Le capacità AI di Google Cloud diventeranno parte di questo ecosistema, integrando l'approccio completo di Lockheed Martin all'AI.




"Utilizzando le tecnologie AI di Google Cloud possiamo esplorare un'ampia gamma di potenti capacità per fornire soluzioni innovative e affidabili che restano all'avanguardia", ha affermato John Clark, vicepresidente senior di Lockheed Martin Technology & Strategic Innovation. "Una relazione duratura con Google Public Sector fa parte del nostro impegno continuo verso una cultura dell'innovazione, che guida il miglioramento continuo e fornisce risultati per i nostri clienti".


"Lockheed Martin e Google Cloud condividono la visione di portare nuova innovazione nel settore con l'intelligenza artificiale", ha affermato Jim Kelly, vicepresidente federale, Google Public Sector. "Le nostre tecnologie Google Cloud AI forniranno a Lockheed Martin un potente set di strumenti per affrontare alcuni dei loro problemi più esigenti più velocemente che mai".


Lockheed Martin applicherà queste funzionalità di intelligenza artificiale integrate per migliorare aree critiche, tra cui analisi di intelligence avanzata, processo decisionale in tempo reale, manutenzione aerospaziale predittiva, progettazione ingegneristica ottimizzata, catene di fornitura solide, sviluppo software sicuro, formazione personalizzata della forza lavoro e scoperte scientifiche accelerate.


La piattaforma Vertex AI di Google Cloud aiuta le organizzazioni a formare, distribuire e personalizzare modelli linguistici di grandi dimensioni (LLM) in modo sicuro e su larga scala, integrando l'impegno di AI Factory di Lockheed Martin per un'intelligenza artificiale sicura e affidabile in tutte le operazioni globali, compresi gli ambienti air gap.


Questa collaborazione riflette l'impegno comune di entrambe le aziende verso un'implementazione dell'intelligenza artificiale affidabile e sicura, nel rispetto dei più elevati standard di sicurezza e affidabilità, tratti distintivi di entrambe le organizzazioni.


Informazioni su Lockheed Martin
Lockheed Martin è un'azienda globale di tecnologia di difesa che guida l'innovazione e promuove la scoperta scientifica. Le nostre soluzioni di missione per tutti i domini e la visione 21st Century Security ® accelerano la fornitura di tecnologie trasformative per garantire che coloro che serviamo siano sempre un passo avanti. Ulteriori informazioni su LockheedMartin.com.


Informazioni su Google Cloud
Google Cloud è il nuovo modo di accedere al cloud, offrendo strumenti di intelligenza artificiale, infrastruttura, sviluppo, dati, sicurezza e collaborazione pensati per oggi e per domani. Google Cloud offre uno stack di intelligenza artificiale potente, completamente integrato e ottimizzato con la propria infrastruttura su scala planetaria, chip personalizzati, modelli di intelligenza artificiale generativa e piattaforma di sviluppo, nonché applicazioni basate sull'intelligenza artificiale, per aiutare le organizzazioni a trasformarsi. I clienti in oltre 200 paesi e territori si rivolgono a Google Cloud come partner tecnologico di fiducia.


Più produttive grazie all’AI: come liberare il potenziale delle aziende

L’intelligenza artificiale rivoluziona la produttività aziendale, liberando il potenziale umano e migliorando l’efficienza. L’adozione strategica dell’AI permette alle aziende di concentrarsi su attività a valore aggiunto, ottimizzando risorse e processi per un ritorno sugli investimenti accelerato


Aumentare la competitività e la produttività delle imprese, contribuendo alla crescita del Paese.

È questa la grande opportunità che si aprirebbe se l’intelligenza artificiale venisse adottata con il giusto approccio strategico dalle imprese e dalla pubblica amministrazione in Italia, grazie anche a una serie di sviluppi tecnologici che la rendono sempre più performante e in grado di sollevare gli umani da compiti ripetitivi o particolarmente impegnativi, mettendoli nelle condizioni ideali per dedicarsi ad attività a maggiore valore aggiunto, sulle quali sfruttare al meglio le proprie conoscenze e le proprie competenze.


Eventi per esplorare il potenziale dell’AI


Proprio a questi temi sono dedicate le tappe del roadshow “IBM AI experience on tour” organizzato da Ibm, con il primo evento realizzato in collaborazione con Red Hat e Università LUISS che si è svolto giovedì 20 marzo nella sede dell’ateneo romano. L’iniziativa proseguirà toccando diverse Regioni Italiane nei prossimi mesi, con l’obiettivo di esplorare le ultime funzionalità e le potenzialità dell’intelligenza artificiale, anche di tipo generativo e agentico.


L’importanza dell’AI open source per il ROI


Nella strategia di investimenti a lungo termine che le aziende stanno implementando sull’intelligenza artificiale assume una particolare rilevanza l’utilizzo di strumenti open source, con l’obiettivo di accelerare sul ROI (Return of Investment) e per rimanere al passo con l’innovazione.


A dimostrarlo è un recente studio realizzato da Morning Consult e lopez Research, secondo cui l’85% del campione nel 2024 ha registrato progressi nell’esecuzione della propria strategia. Il 47%, in particolare, può già contare su un ritorno degli investimenti positivo. La redditività finanziaria, in particolare, risulta, secondo la ricerca, legata all’utilizzo di strumenti open source: il 51% degli intervistati tra chi utilizza strumenti AI open source registra un ROI positivo, contro il 41% di coloro che non lo utilizza.


Predisposizione all’investimento in AI nelle aziende


Aumenta anche la predisposizione a investire sull’AI, tanto che il 62% delle aziende coinvolte nella ricerca afferma di voler incrementare le risorse economiche da destinare all’intelligenza artificiale, e il 48% dice di guardare all’ecosistema open source. Prendendo in considerazione il campione di chi non ha ancora utilizzato l’open source, inoltre, due intervistati su cinque dicono di voler esplorare questa possibilità nell’anno in corso.


Intelligenza artificiale per aziende: l’attenzione al focus strategico


Se in generale quasi nove aziende su dieci manifestano l’intenzione di mantenere o aumentare i propri investimenti sull’intelligenza artificiale nel corso del 2025, è interessante notare come – prendendo in considerazione il 62% che ha in programma di destinare più risorse all’AI – il 39% pensa di spendere dal 25 al 50% in più rispetto al 2024.


La spesa non sarà “a pioggia”, ma indirizzata ad alcuni segmenti specifici, quelli nei quali le aziende hanno individuato la possibilità di ottenere risultati migliori, come le IT operations, la gestione della qualità dei dati e l’innovazione dei propri prodotti o servizi. Le tre priorità, nello specifico, riguardano l’utilizzo di servizi cloud gestiti, l’assunzione di talenti specializzati e l’utilizzo dell’open source.


Lo sviluppo delle soluzioni di intelligenza artificiale nelle aziende


Rispetto a un periodo iniziale in cui era più difficile misurare gli effetti delle strategie di intelligenza artificiale all’interno delle aziende, l’adozione di questa tecnologia sta iniziando a dare segni di maggiore maturità, tanto che l’85% del campione della ricerca afferma di aver registrato progressi nei risultati durante il 2024, con il 58% che riesce ormai a passare in meno di un anno dall’implementazione di progetti pilota alla “piena produzione”.


A guidare le aziende negli investimenti in intelligenza artificiale è prima di tutto la volontà di innovare, citata come motivazione principale dal 31% degli intervistati, contro il 28% che guarda principalmente al ritorno degli investimenti. Un mix delle due motivazioni, inoltre, è l’elemento scatenante per il 41% delle imprese. Quanto al cost saving, a citarlo come elemento principale è il 15% del campione.


Ai generativa e Agentic AI: soluzioni su misura per le aziende


Per dare un impulso decisivo al processo di trasformazione digitale in corso nel Paese, e perché questa possa rispondere al meglio alle esigenze di un ecosistema produttivo che in Italia vede in primo piano – come driver dell’economia nazionale – settori come il turismo, la tradizione agricola e artigianale e un’industria manifatturiera ben radicata in alcune aree del Paese, le evoluzioni più recenti dell’intelligenza artificiale possono giocare un ruolo di primo piano. Parliamo in particolare dell’AI generativa e dell’Agentic AI.


Si tratta, in sostanza, di individuare soluzioni sviluppate “su misura” sulla base delle esigenze specifiche di ogni azienda, che siano scalabili e traggano il massimo del valore dai dati, che si tratti di dare supporto all’HR, di interagire con i clienti sia in ambito B2C sia in ambito B2B, per arrivare fino alla gestione dei processi e al monitoraggio delle infrastrutture.


Cos’è l’AI generativa


Per intelligenza artificiale generativa si intende generalmente la tecnologia basata sull’AI che è in grado, partendo dall’analisi di un data set, di generare nuovi contenuti, che si tratti di testi, immagini, musica, o anche codici di programmazione software.


Uno dei modelli più diffusi è quelle delle cosiddette “reti avversarie”, o “generative adversial networks”, che si basano sulla combinazione di due reti neurali: la prima genera nuovi dati attingendo a un determinato database, e la seconda valuta la loro qualità confrontandola con informazioni “reali”, per assicurare la qualità dell’output.


Un altro modello fondamentale per l’AI generativa è l’approccio “Gpt”, acronimo per “generative pre-trained transformer”, che utilizza modelli di linguaggio avanzati per generare testi coerenti e contestualmente appropriati.


Entrambi i modelli trovano applicazione, soltanto per fare qualche esempio, nella creazione automatica di contenuti e nella traduzione linguistica, fino alla generazione di immagini e video.


Cos’è l’Agentic AI


A differenza dell’Ai generativa, l’Agentic AI, o intelligenza artificiale agentica consente alla tecnologia di compiere un passo in più, agendo autonomamente fino al raggiungimento di un obiettivo prefissato, senza avere il bisogno costante di un’interazione costante con l’uomo.


Si tratta quindi di dotare la tecnologia di una capacità decisionale avanzata che le consenta di assolvere ad alcuni task specifici, anche adattandosi a contesti mutevoli. Il suo utilizzo risulta particolarmente prezioso nel campo dell’automazione dei processi ad esempio nel manifatturiero, ed è uno dei cardini dell’industria 5.0.


Oltre a questo, è possibile vederla come un “potenziamento” della tecnologia alla base degli assistenti virtuali, che grazie all’intelligenza artificiale potranno non soltanto fornire informazioni a chi le chiede, ma anche compiere azioni predefinite, come – soltanto per fare qualche esempio – le prenotazioni per un viaggio o la gestione di alcune attività di pagamento, o ancora la gestione automatica delle flotte.


Il fatto che le macchine possano operare con un certo grado di indipendenza contribuisce a migliorare l’efficienza e l’efficacia quando si affrontano compiti complessi o ripetitivi.


AI e produttività, una rivoluzione culturale


“L’intelligenza artificiale, in particolare quella generativa, rappresenta una rivoluzione culturale che coinvolge tutte le sfere della società, dalle istituzioni alle imprese di ogni dimensione”, spiega Tiziana Tornaghi, General Manager Consulting IBM Italia. “La nuova frontiera del cambiamento si estende ulteriormente con l’avvento degli AI Agentic, nuovi ‘attori aziendali’ in grado di apprendere, adattarsi e interagire in modo autonomo. Tuttavia, come per ogni trasformazione – prosegue – la loro adozione richiede un approccio strategico su come integrarli in funzione degli obiettivi aziendali, nonché un investimento nella formazione di competenze e nella creazione di un ecosistema che governi questo cambiamento”.


Intelligenza artificiale, il nodo delle competenze


Ma le tecnologie, per quanto avanzate, da sole non bastano per compiere il salto della digital transformation e dell’adozione dell’intelligenza artificiale, se da questi processi si vuole trarre il massimo vantaggio. Serve anche che chi è chiamato a utilizzare gli strumenti di ultima generazione abbia competenze adeguate, e l’Italia ha bisogno di accelerare in questo campo.


Lo dimostrano i dati del Digital Decade Report 2024, secondo cui l’Italia è – tra i Paesi europei – tra quelli con i livelli più bassi di competenze digitali di base. Soltanto il 45,8% della popolazione, infatti, può contare in Italia su queste skill, con dieci punti percentuali di ritardo rispetto al valore medio dell’Unione Europea.


Per colmare questo gap anche le aziende stanno facendo la loro parte con iniziative ad hoc. Tra queste la piattaforma di aggiornamento skillsbuild.org, messa a punto da IBM, che ha erogato formazione gratuita su digital skill a oltre 200mila tra studenti, docenti e lavoratori in Italia.


“L’AI agisce come acceleratore dell’efficienza e della produttività. Per coglierne in pieno il potenziale di valore è però necessario concepirlo come strumento per migliorare le potenzialità umane, non per sostituirle – sottolinea Paolo Boccardelli, rettore dell’Università Luiss Guido Carli – In questa prospettiva, le università devono evolversi per trasformarsi da luoghi di riflessione e conoscenza in hub dinamici per lo sviluppo e l’innovazione, dove competenze tecnologiche e solida formazione umanistica si integrano armoniosamente, alimentando costantemente il dialogo e la collaborazione con le imprese”.


Le tecnologie di IBM per l’AI


Come esempio degli use case più promettenti e delle tecnologie trasformative di ultima generazione il roadshow di Ibm ha messo a punto un’area esperienziale, che presenta il portfolio di soluzioni di genAI di watsonx, a partire da watsonx Orchestrate, pensato per creare facilmente assistenti AI e agenti personalizzati per automatizzare e accelerare i flussi di lavoro, aumentando l’efficienza e ottenendo migliori risultati di business.


Tra le soluzioni presentate nel roadshow ci sono anche IBM Hybrid iPaaS, piattaforma ibrida per sviluppare in modo coerente con un unico strumento tutti i pattern di integrazione che coinvolgono applicazioni, API, B2B, file ed eventi, e IBM StreamSets, progettata per potenziare i progetti di AI integrando sorgenti dati eterogenee in maniera agile e veloce. Tra gli stand del percorso esperienziale, infine, quelli dedicati per il supporto dell’attività dei consulenti e dei diversi profili professionali di un’organizzazione, le soluzioni di quantum computinge quelle di security.


Creare una rete DPO per la sanità pubblica: perché è essenziale


Il Garante Privacy invita i DPO della sanità pubblica a creare una rete per affrontare le sfide della protezione dei dati, migliorare la compliance e rafforzare la sicurezza informatica. Un’alleanza strategica per un sistema sanitario più sicuro ed efficace

Nel complesso panorama della sanità pubblica italiana, la gestione della privacy e dei dati personali rappresenta una sfida cruciale.

Il Garante Privacy ha lanciato un chiaro invito: costituire una rete DPO nella sanità pubblica per rafforzare la protezione dei dati e migliorare la compliance normativa. Un’iniziativa strategica che potrebbe offrire numerosi vantaggi ai professionisti del settore e garantire una maggiore sicurezza per i cittadini.

Modelli organizzativi e gestione gerarchica dei dati sanitari

I titolari del trattamento che operano in tale contesto ben sanno, inoltre, che le innovazioni tecnologiche hanno profondamente mutato il processo di trattamento dei dati di salute, passato in pochi decenni da modalità analogiche e gestite in regime quasi del tutto autarchico a modalità automatizzate e digitali, condivise tra più attori, le cui attività devono svolgersi nel rispetto dei principi di privacy by design e privacy by default di cui all’articolo 25 del Regolamento Ue 2016/679.

Riprova di tale nuovo approccio alla gestione dell’informazione di salute sono, in particolare, i modelli organizzativi condivisi gerarchicamente tra i diversi livelli di cui si compone il sistema sanitario, come ad esempio quello dell’anagrafe nazionale vaccini o dell‘importante strumento costituito dal Fascicolo Sanitario Elettronico dove le responsabilità del trattamento dei dati sono suddivise tra livello del produttore, la struttura sanitaria, del coordinatore a livello locale, la regione o la provincia autonoma, e il livello centrale, spesso individuato nel Ministero della Salute.

Il ruolo cruciale del DPO nella sanità pubblica

In questo contesto, il ruolo del Data Protection Officer è divenuto sempre più cruciale, ma anche sempre più impegnativo da svolgere.

E purtroppo sinora, per contro, pochi amministratori se ne sono resi pienamente conto, rischiando così di avviare trattamenti di dati di non completa liceità e compliance al dettato normativo, corpus di regole che spesso non tiene il passo con le occasioni messe a disposizione dall’innovazione tecnologica o non riesce a individuarne pienamente i possibili punti critici.

L‘invito del Garante alla creazione di una rete DPO

Per supportare nel miglior modo tale processo e consentire al sistema sanitario di affrontare con efficacia le sfide attuali e future, è quindi oltremodo opportuno pensare ad avviare una maggiore collaborazione tra i DPO delle diverse strutture sanitarie, professionisti che nel dare seguito ai compiti previsti dall’articolo 39 del Regolamento UE 2016/679 possono trovare estrema utilità nel confronto e collaborazione tra pari.

Ed è proprio l’Autorità Garante che, anche alla luce di esperienze già attive da tempo relativamente al Progetto, messo in campo da Garante e ABI, di costituzione di una “Rete dei Responsabili della protezione dati nel settore bancario”, un gruppo di lavoro permanente, finalizzato al confronto e interscambio informativo tra l’Autorità e i RPD coinvolti nella gestione di trattamenti così complessi” ha nel corso di una importante giornata di studio tenutasi a Trieste a fine novembre 2024 ed organizzata da APIHM e dall’Università di Trieste che ha invitato i DPO del sistema sanitario ad organizzarsi con una propria rete.

Perché creare una rete DPO per la sanità pubblica?

A tal proposito la costituzione di una Rete nazionale dei DPO della sanità pubblica può rappresentare oggi una soluzione strategica per migliorare l’efficacia della funzione di tali professionisti, tale da garantire una gestione più coordinata e una protezione più uniforme dell’enorme e preziosissimo patrimonio di dati dei cittadini che i singoli Enti sanitari hanno in custodia e che sono molto ambiti da svariati soggetti, come i fornitori di servizi e i produttori di farmaci, ma anche dai criminali.

Ma quali sono le principali motivazioni che giustificano questa necessità?

Ridurre la frammentazione e uniformare la compliance

Il sistema sanitario italiano è caratterizzato da una estrema frammentazione, con una serie diversificata di strutture (ospedali, ASL, aziende sanitarie, IRCCS, Aziende sanitarie universitarie, Cliniche Universitarie, Case di cura, Centri diagnostici) con caratteristiche e dimensioni diverse che operano in modo autonomo e sono soggette a regolamentazioni non del tutto omogenee.



Questa frammentazione si riflette anche nella gestione della riservatezza degli utenti dei servizi e della protezione dei loro dati, tematiche che vengono affrontate con approcci disomogenei e, purtroppo, molto spesso di non completa efficacia come vediamo dalla cronaca, con i molti blocchi e danni ai sistemi informativi per attacchi di ransomware o altri tipi di incidenti di sicurezza.

La costituzione di una specifica rete di DPO potrebbe innanzitutto ridurre il rischio di interpretazioni divergenti della vigente normativa nazionale e comunitaria, favorendo senz’altro una maggiore uniformità nell’applicazione delle norme.

Tale uniformità applicativa risulta particolarmente importante in un contesto nel quale i dati sanitari vengono spesso condivisi tra diverse strutture, in particolare per garantire la continuità assistenziale o per la conduzione di attività di ricerca.

La possibilità di condividere conoscenze, esperienze e best practice, tipico effetto di una rete tra professionisti, sarebbe quindi di grande beneficio per il settore sanitario, che è caratterizzato da estremo dinamismo e governato da normative in continua evoluzione ed esposto ai rischi emergenti, come quelli legati alla cybersecurity e all’uso delle nuove tecnologie, come l’intelligenza artificiale e la telemedicina.

Una rete permetterebbe ai DPO di confrontarsi sulle tematiche di carattere comune, sulle soluzioni adottate e sulle criticità riscontrate, e l’esito del dibattito interno alla rete andrebbe così a costituire un patrimonio di conoscenza comune, a beneficio di tutti i suoi componenti.

Inoltre, la possibile analisi e condivisione tra gli attori della rete di taluni modelli operativi e di strumenti standardizzati, come linee guida, checklist, e di metodiche per la valutazione d’impatto dei trattamenti, ecc. potrebbe contribuire a ridurre significativamente i tempi ed i costi legati al raggiungimento della compliance dei titolari del trattamento del contesto sanitario, migliorando al contempo la qualità del lavoro svolto all’interno delle relative strutture.

Rfforzare la sicurezza e la risposta alle emergenze

Nel settore sanitario le violazioni dei dati e gli incidenti di cybersecurity sono in costante aumento, e le statistiche ufficiali su tale problematica evidenziano che tale settore operativo rappresenta uno dei principali bersagli degli attacchi da parte dei criminali informatici, visto anche l’elevato valore economico delle informazioni oggetto di corrente e massivo trattamento.

Ma il tema della sicurezza dei dati è purtroppo di scarso interesse per il management e nel caso purtroppo sempre più frequente di emergenze di sicurezza, i DPO si trovano spesso a dover gestire situazioni complesse, con tempi stretti e pressioni elevate.

Una rete di DPO potrebbe quindi costituire un sistema di allerta che permette di condividere informazioni su potenziali minacce e di coordinare risposte tempestive ed efficaci.

Inoltre, la rete potrebbe facilitare la creazione di protocolli comuni per la gestione delle violazioni dei dati, garantendo una risposta uniforme e conforme alle normative agli enti dove questi operano.

Diffondere la cultura della privacy nella sanità

Uno dei compiti fondamentali del DPO è promuovere una cultura della riservatezza e della protezione dei dati personali all’interno dell’organizzazione dei titolari e dei responsabili del trattamento.

Tuttavia, in un contesto frammentato come quello del sistema sanitario italiano questo obiettivo, che costituisce a ben vedere una vera e propria misura organizzativa di sicurezza, non sempre viene perseguito con metodo e risorse adeguate, rischiando di ottenere risultati disomogenei e di efficacia molto limitata.

Una rete strutturata e coordinata di DPO potrebbe quindi svolgere un ruolo chiave nel promuovere una cultura della privacy condivisa a livello di sistema e una maturazione della percezione della rilevanza della materia della protezione dei dati come asset fondamentale del sistema sanitario.

Attività come campagne di sensibilizzazione, workshop per il top management, corsi di formazione comuni o la creazione di materiali informativi standardizzati, potrebbero aumentare in effetti la consapevolezza di tutti gli operatori sanitari, migliorando l’attenzione alla protezione dei dati e riducendo enormemente i rischi legati agli errori umani, che sappiamo esserne la maggior fonte.

La rete DPO come strumento di rappresentanza e ottimizzazione

I DPO del sistema sanitario si trovano a dover affrontare sfide comuni, legate all’interpretazione delle normative, alla mancanza di risorse e all’estrema complessità tecnica del settore nel quale si trovano ad operare.

Senza un coordinamento a livello nazionale, la loro voce rischia di rimanere frammentata, per nulla incisiva e spesso inascoltata.

Una rete coordinata di DPO potrebbe a tal proposito svolgere un ruolo di rappresentanza di questo importantissimo settore, portando le istanze direttamente all’attenzione delle istituzioni, dell’Autorità Garante per la protezione dei dati personali e degli altri stakeholder, fra i quali anche i rappresentanti della particolare categoria di interessati, i cittadini assistiti dal sistema sanitario.

Questo permetterebbe ai DPO di far sentire la propria voce, di influenzare positivamente le politiche pubbliche, di ottenere chiarimenti normativi e di garantire che le specificità del settore sanitario siano adeguatamente considerate.

Molte strutture sanitarie, soprattutto quelle più piccole, faticano a dotarsi di DPO con competenze adeguate, spesso a causa del limitato impegno di risorse e della scarsa comprensione dell’importanza strategica di questa figura.

Una rete coordinata di DPO potrebbe favorire la condivisione di risorse e competenze, ad esempio attraverso la creazione di pool di esperti disponibili a supportare più strutture o la definizione di modelli di collaborazione tra grandi e piccole aziende sanitarie.

La rete potrebbe anche facilitare l’accesso a finanziamenti o progetti comuni, sfruttando sinergie e riducendo i costi per le singole strutture di titolari e responsabili del trattamento.

Guidare l’innovazione digitale in sanità

La digitalizzazione del settore sanitario rappresenta un’opportunità straordinaria per migliorare l’efficienza e la qualità dei servizi che gli enti devono assolutamente cogliere, ma essa può comportare anche nuovi rischi per la protezione dei dati, ancora non ben compresi e quindi non pienamente valutati.

L’adozione di tecnologie come l’intelligenza artificiale, la blockchain o i big data in ambito sanitario richiede un approccio molto attento e consapevole, che tenga debitamente conto delle conseguenti implicazioni per la protezione dei dati degli interessati.

Una rete coordinata di DPO potrebbe svolgere un ruolo chiave nel guidare l’innovazione, garantendo che le nuove tecnologie siano implementate nel rispetto delle normative e dei diritti dei cittadini.

Inoltre, la rete potrebbe favorire lo sviluppo di soluzioni comuni, come piattaforme sicure per la condivisione dei dati o strumenti per una migliore pseudonimizzazione dei dati, anche a scopo di ricerca.

Perché la rete DPO è una necessità strategica

In conclusione, la costituzione di una rete dei DPO del sistema sanitario nazionale non è più un’opzione, ma è diventata una necessità vera e propria.

In un contesto caratterizzato da complessità normative, rischi crescenti e risorse limitate, la collaborazione tra i DPO rappresenta l’unico modo per garantire una protezione efficace dei dati e, al contempo, migliorare l’efficienza del sistema sanitario.

Una rete di DPO permetterebbe di condividere conoscenze, uniformare gli approcci, rafforzare la capacità di risposta alle emergenze e promuovere una cultura della privacy condivisa.

Inoltre, potrebbe svolgere un ruolo di rappresentanza e favorire l’innovazione, contribuendo a creare un sistema sanitario più sicuro, trasparente e all’avanguardia.

Investire nella creazione di questa rete non significa solo rispondere alle esigenze del presente, ma anche prepararsi alle sfide del futuro, garantendo che la protezione dei dati rimanga al centro della trasformazione digitale del settore sanitario, nel pieno rispetto ed a tutela dei principi fondamentali del Regolamento UE 2016/679.

Gli hacker russi prendono di mira i siti web dello Stato rumeno il giorno delle elezioni

Un gruppo di hacktivisti legato alla Russia, noto come NoName057(16), ha rivendicato la responsabilità degli attacchi informatici su diversi...