Cerca nel blog

Visualizzazione post con etichetta Intelligenza Artificiale: rischi e benefici. Mostra tutti i post
Visualizzazione post con etichetta Intelligenza Artificiale: rischi e benefici. Mostra tutti i post

sabato 26 aprile 2025

L'intelligenza artificiale velocizza il lavoro di analisi degli esseri umani, affermano due funzionari federali della sicurezza informatica


Il Tenente Colonnello dell'Aeronautica Militare Frank Jamerson parla durante l'evento AITalks di AIScoop, sotto gli occhi di Manny Medrano del Dipartimento di Stato. L'evento si è tenuto il 24 aprile 2025 a Washington, DC (Foto di Sergey Kolupaev/EPNAC)

Giovedì due funzionari federali addetti alla sicurezza informatica hanno dichiarato che stanno utilizzando, o stanno valutando di utilizzare, l'intelligenza artificiale per svolgere compiti che velocizzano il lavoro degli analisti umani.

L'intelligenza artificiale è un importante contributore attuale e futuro per una varietà di lavori amministrativi legati alla sicurezza, come l'accreditamento e la conformità, e per il Dipartimento dell'aeronautica militare, che intraprende sforzi di modernizzazione, ha affermato il tenente colonnello Frank Jamerson, vicedirettore del dipartimento per le operazioni informatiche, il comando e il controllo, le comunicazioni e la gestione delle battaglie.

"L'analista della conformità non deve necessariamente leggere ogni documento", ha affermato Jamerson giovedì alla conferenza AITalks, presentata da AIScoop. "Può esaminare l'output dello strumento che dice: 'Sì, sono conformi perché hanno fatto questa cosa' e cliccare sui formati elenco puntato – a tutti piace farlo – e inserirlo in un elenco puntato. Questa è una delle novità più interessanti che stiamo valutando".

Presso l'Ufficio per la Sicurezza Diplomatica del Dipartimento di Stato, "stiamo elaborando molti dati", ha affermato Manny Medrano, direttore del monitoraggio e delle operazioni informatiche dell'ufficio. L'intelligenza artificiale consente agli analisti di analizzarli più velocemente e, a sua volta, "dà loro il tempo di concentrarsi sui compiti più complessi", ha aggiunto.
Annuncio


In senso più ampio, l'IA è considerata un'arma a doppio taglio nella sicurezza informatica, in grado di supportare sia le operazioni difensive che quelle offensive. Il Cyber ​​Command ha recentemente sottolineato come l'IA generativa stia accelerando l'analisi del traffico di rete per individuare attività dannose.

"Chiunque lavori nella sicurezza informatica, se si lavora manualmente, spesso dirà: 'Ehi, ci vorranno ore, giorni, settimane per analizzare un traffico specifico, specifiche righe di codice'", ha affermato Morgan Adamski, Direttore Esecutivo di Cybercom. "Ora siamo riusciti a sfruttare l'intelligenza artificiale per riuscirci in pochi minuti e ore".

lunedì 21 aprile 2025

PwC: Perché l'intelligenza artificiale sta trasformando la sicurezza informatica aziendale



Secondo PwC, il futuro della sicurezza informatica aziendale sarà rimodellato combinando l'intelligenza artificiale e i principi di sicurezza Zero Trust

L'intelligenza artificiale ha trasformato il modo in cui le aziende lavorano, aumentando la creatività e la produttività, aggiungendo valore strategico e rendendo più preziose le enormi quantità di dati aziendali distribuiti in rete.

Questo valore aggiunto, tuttavia, trasforma gran parte dei miglioramenti apportati dall'intelligenza artificiale in un bersaglio primario per hacker e malintenzionati.

In particolare, la rapida adozione di soluzioni di intelligenza artificiale e di intelligenza artificiale di generazione crea preoccupazioni per le aziende in merito alla privacy e alla sicurezza delle informazioni archiviate, all'accesso ai dati aziendali e all'uso improprio della tecnologia.

Viene inoltre sempre più utilizzato per lanciare attacchi molto più sofisticati e complessi, contro i quali le tradizionali soluzioni di sicurezza di rete, come i firewall, non riescono a difendersi.

In questo contesto, le aziende devono concentrarsi sulla comprensione approfondita dei rischi e delle opportunità dell'adozione dell'intelligenza artificiale e assicurarsi di aver adottato misure preventive adeguate per distribuire soluzioni di intelligenza artificiale nella propria rete.

Pouya Koushandehfar, Senior Manager of Cybersecurity & Digital Trust di PwC , afferma che le aziende dovrebbero adottare un approccio Zero Trust nell'implementazione dell'intelligenza artificiale come "strategia indispensabile".

Combinare intelligenza artificiale e Zero Trust

I modelli di lavoro ibridi hanno ampliato il panorama degli attacchi per gli attori che cercano di sfruttare le aziende.

L'adozione di un approccio Zero Trust fornisce una solida base per la protezione di risorse digitali moderne e diversificate, spiega Pouya.

"Nella sua essenza, Zero Trust si sposa bene con l'attenzione che l'intelligenza artificiale pone sui dati e sulla sua capacità di adattamento", scrive.


Pouya Koushandehfar, Senior Manager - Cybersecurity e Privacy presso PwC Australia


“L’intelligenza artificiale funziona meglio quando i dati di alta qualità vengono classificati, crittografati e monitorati costantemente: obiettivi che Zero Trust si propone di raggiungere


La combinazione di IA e Zero Trust offre vantaggi in diversi ambiti. Ad esempio, il livello di automazione offerto dalle moderne soluzioni di IA può contribuire ad accelerare l'adozione dei principi Zero Trust in tutta l'azienda, in particolare per quanto riguarda il rilevamento delle minacce in tempo reale e l'identificazione e l'organizzazione dei dati.

Anche per quanto riguarda i dati, l'intelligenza artificiale è in grado di analizzare e identificare tendenze, indizi e informazioni che possono individuare potenziali violazioni, migliorando così le politiche di sicurezza.

Pouya sottolinea come la verifica continua e le policy adattive alla base di Zero Trust possano evolversi parallelamente all'adozione e all'implementazione dell'intelligenza artificiale, per garantire che entrambe possano affrontare insieme minacce nuove ed emergenti.

Come l'intelligenza artificiale migliora il rilevamento delle minacce

Pouya afferma che implementare l'intelligenza artificiale come parte della strategia di sicurezza di un'azienda consente di garantire un livello di sicurezza continuo e in continua evoluzione.

Afferma: "Con l'evoluzione della sicurezza informatica, dobbiamo assicurarci che l'accesso non sia solo un controllo una tantum, ma un processo continuo.

Integrando l'intelligenza artificiale con l'autenticazione continua degli utenti, le aziende possono monitorare il comportamento degli utenti in tempo reale e adattare le regole di sicurezza in base all'evoluzione dei rischi.

Questo approccio garantisce che ogni richiesta di accesso venga verificata non appena viene inoltrata, riducendo la probabilità di accessi non autorizzati, anche se qualcuno ha rubato le credenziali di accesso.

Gli ambienti di lavoro ibridi rappresentano un rischio particolare per le aziende moderne. I dipendenti che accedono a reti e dati potenzialmente sensibili da luoghi e dispositivi diversi richiedono una maggiore attenzione al monitoraggio del comportamento e dell'attività di rete per garantire un approccio di sicurezza più proattivo.

L'intelligenza artificiale può raggiungere questo obiettivo grazie ai suoi algoritmi avanzati e alle capacità di analisi in tempo reale. Avere questo livello di visibilità garantisce che i team di sicurezza possano identificare e intervenire sulle vulnerabilità in modo rapido ed efficace.

Come implementare l'intelligenza artificiale e Zero Trust

Pouya e PwC affermano che integrare l'intelligenza artificiale e Zero Trust negli ambienti digitali complessi è essenziale.

Le misure chiave per garantire l'efficacia di questo approccio includono l'adozione di un modello di responsabilità condivisa.

"Per proteggere applicazioni e risorse, il lavoro di squadra è essenziale", afferma Pouya.

“Sia l'azienda che i suoi fornitori di tecnologia devono definire e comprendere chiaramente le proprie responsabilità nell'adozione delle tecnologie.

"Ciò garantisce che ogni aspetto della sicurezza, dalla gestione dei dati al mantenimento dell'accuratezza dei modelli nelle app basate sull'intelligenza artificiale, rimanga efficace e adatto allo scopo."

Altre priorità includono la classificazione e la governance dei dati , nonché un'attenzione continua alla formazione e allo sviluppo di una solida cultura della sicurezza.

Per quanto riguarda la classificazione dei dati, Pouya ribadisce che il fondamento di un'intelligenza artificiale efficace si basa su dati sicuri e di buona qualità, raccomandando alle aziende di creare protocolli di classificazione dei dati e controlli efficaci in tutti gli ambienti di dati.

Sebbene ciò possa presentare delle sfide per le organizzazioni nel loro percorso verso l'intelligenza artificiale e Zero Trust, anche in relazione ai sistemi legacy e alle minacce in continua evoluzione, Pouya afferma che "la forte sinergia tra intelligenza artificiale e Zero Trust presenta una visione convincente per il futuro della sicurezza informatica aziendale".

Conclude: "Mentre l'intelligenza artificiale continua a rimodellare le operazioni aziendali e a mitigare i rischi informatici, l'adozione di un approccio Zero Trust con verifica esplicita e threat intelligence basata sull'intelligenza artificiale garantisce che la sicurezza rimanga una priorità, non un aspetto secondario. Anzi, diventa parte integrante della strategia aziendale, anticipando le minacce emergenti."

lunedì 14 aprile 2025

Rilevamento del phishing basato sull'intelligenza artificiale: funziona davvero?


Gli attacchi di phishing continuano a essere una delle minacce più diffuse nel panorama della sicurezza informatica e colpiscono indistintamente sia singoli individui che organizzazioni.

Nel corso del tempo, questi attacchi, che consistono nell'ingannare le vittime inducendole a rivelare informazioni sensibili o a installare software dannosi, sono diventati sempre più sofisticati.

L'ascesa dell'intelligenza artificiale (IA) ha portato nuove speranze nella lotta a queste minacce, con sistemi di rilevamento del phishing basati sull'IA che promettono maggiore accuratezza ed efficienza.


Sfruttando l'apprendimento automatico, l'elaborazione del linguaggio naturale (NLP) e l'analisi comportamentale, questi sistemi mirano a identificare i tentativi di phishing che spesso non vengono rilevati dai metodi tradizionali.

Tuttavia, poiché le organizzazioni investono massicciamente in soluzioni basate sull'intelligenza artificiale, sorge spontanea la domanda critica: il rilevamento del phishing basato sull'intelligenza artificiale mantiene davvero le sue promesse?

Questo articolo esamina l'evoluzione degli attacchi di phishing, il modo in cui l'intelligenza artificiale trasforma le capacità di rilevamento e le considerazioni chiave per i leader che implementano queste tecnologie.

Rilevamento del phishing basato sull'intelligenza artificiale

Gli attacchi di phishing si sono evoluti in modo significativo rispetto ai loro esordi, quando erano email rozze, piene di evidenti errori grammaticali e contenuti generici. Le campagne di phishing odierne sono altamente sofisticate e sfruttano tecniche avanzate di ingegneria sociale per ingannare anche gli utenti più attenti.

I criminali informatici ora personalizzano i loro messaggi per individui o organizzazioni specifici, utilizzando le informazioni personali per creare narrazioni convincenti. Lo spear-phishing, una forma mirata di phishing, è diventato particolarmente efficace, poiché gli aggressori imitano stili di comunicazione legittimi per ottenere fiducia.

L'integrazione dell'intelligenza artificiale generativa nelle campagne di phishing ha ulteriormente amplificato la minaccia. I criminali informatici possono ora utilizzare strumenti di intelligenza artificiale per creare messaggi realistici su larga scala, eliminando i tradizionali segnali di allarme come errori grammaticali o formattazione non corrispondente.

Questi tentativi di phishing potenziati dall'intelligenza artificiale analizzano i dati disponibili al pubblico provenienti da profili di social media, siti web aziendali e altre fonti per creare attacchi personalizzati difficili da rilevare.

Di conseguenza, le misure di sicurezza tradizionali come le blacklist e i sistemi basati su firme faticano a tenere il passo con queste minacce dinamiche. Questa crescente complessità sottolinea la necessità di meccanismi di rilevamento avanzati in grado di identificare anche i più sottili indicatori di intenti malevoli.

Come l'intelligenza artificiale migliora il rilevamento del phishing

L'intelligenza artificiale introduce capacità trasformative nel rilevamento del phishing, andando oltre le regole statiche e le firme predefinite.

A differenza dei metodi tradizionali che si basano sull'identificazione di minacce note, i sistemi basati sull'intelligenza artificiale analizzano modelli e comportamenti per rilevare anomalie indicative di tentativi di phishing. Questi sistemi integrano diverse tecnologie che lavorano insieme per fornire una protezione solida:Modelli di apprendimento automatico : i sistemi di intelligenza artificiale utilizzano algoritmi di apprendimento automatico per analizzare grandi set di dati di e-mail e pagine Web, identificando modelli associati ai tentativi di phishing anche in varianti mai viste prima.
Elaborazione del linguaggio naturale (NLP): l'NLP consente ai sistemi di intelligenza artificiale di comprendere il contesto e il tono dei messaggi, rilevando tattiche di manipolazione quali segnali di urgenza o stimoli emotivi comunemente utilizzati dai phisher.
Analisi comportamentale: gli strumenti di intelligenza artificiale monitorano il comportamento degli utenti per individuare anomalie che potrebbero indicare account compromessi o attacchi di phishing riusciti.
Visione artificiale: alcuni tentativi di phishing simulano visivamente siti web o email legittimi. La tecnologia di visione artificiale aiuta a rilevare queste imitazioni analizzando loghi, layout ed elementi di design.
Intelligence sulle minacce in tempo reale: i sistemi di intelligenza artificiale aggiornano costantemente i propri modelli con i dati provenienti dalle reti globali di intelligence sulle minacce, garantendone l'efficacia contro le tecniche di attacco emergenti.

L'adattabilità delle soluzioni basate sull'intelligenza artificiale è un vantaggio fondamentale. Mentre i metodi tradizionali spesso falliscono contro i nuovi attacchi, i sistemi di intelligenza artificiale apprendono dai nuovi dati e migliorano le loro capacità di rilevamento nel tempo.

Questa capacità di evolversi parallelamente alle minacce informatiche rende l'intelligenza artificiale uno strumento prezioso nella lotta al phishing.

Implementazione del rilevamento del phishing basato sull'intelligenza artificiale

Per i dirigenti aziendali che prendono in considerazione soluzioni di rilevamento del phishing basate sull'intelligenza artificiale, la pianificazione strategica è essenziale per un'implementazione di successo.

Sebbene queste tecnologie offrano vantaggi significativi, la loro efficacia dipende dalla corretta integrazione nel più ampio quadro di sicurezza informatica di un'organizzazione. I leader devono considerare diversi fattori critici nell'adozione di soluzioni basate sull'intelligenza artificiale:
Strategia di sicurezza completa: una protezione efficace dal phishing richiede un approccio multilivello che integri difese tecnologiche e formazione dei dipendenti. La formazione sulla sicurezza informatica rimane fondamentale per affrontare le vulnerabilità umane sfruttate dagli aggressori.
Soluzioni su misura: le organizzazioni dovrebbero selezionare strumenti di intelligenza artificiale in linea con le specifiche esigenze del settore e il panorama delle minacce. Ad esempio, gli istituti finanziari potrebbero dare priorità alle funzionalità di prevenzione delle frodi, mentre gli operatori sanitari si concentrano sulla salvaguardia dei dati dei pazienti.
Integrazione con i sistemi esistenti: un'integrazione perfetta con l'attuale infrastruttura di sicurezza è fondamentale per evitare conflitti o lacune nella protezione.
Metriche di performance: definire metriche chiare per valutare l'efficacia delle soluzioni di intelligenza artificiale è essenziale. Metriche come la riduzione del tasso di successo del phishing e il miglioramento dei tempi di rilevamento forniscono informazioni preziose sulle prestazioni del sistema.
Miglioramento continuo: le minacce informatiche sono in continua evoluzione; pertanto, le organizzazioni devono garantire che i propri sistemi di intelligenza artificiale vengano regolarmente aggiornati e perfezionati per affrontare le sfide emergenti.

La leadership svolge un ruolo fondamentale nel promuovere una cultura di consapevolezza della sicurezza informatica, sfruttando al contempo tecnologie avanzate come l'intelligenza artificiale per la difesa. Dando priorità alla formazione e all'innovazione tecnologica, i leader possono consentire ai dipendenti di riconoscere e segnalare efficacemente le potenziali minacce.

In conclusione, sebbene nessun sistema possa garantire l'immunità totale dagli attacchi di phishing, il rilevamento basato sull'intelligenza artificiale rappresenta un notevole passo avanti nella lotta a questa minaccia persistente.

La sua capacità di adattarsi alle tecniche di attacco in continua evoluzione e di analizzare grandi quantità di dati lo rende una componente fondamentale delle moderne strategie di sicurezza informatica.

Tuttavia, un'implementazione di successo richiede una pianificazione attenta e una gestione continuativa per massimizzare i potenziali benefici riducendo al minimo i rischi quali falsi positivi o interruzioni operative.

Per le organizzazioni disposte a investire sia in tecnologia che in formazione, il rilevamento del phishing basato sull'intelligenza artificiale può rivelarsi un valido alleato per salvaguardare le informazioni sensibili e mantenere la fiducia in un mondo sempre più digitale.

martedì 8 aprile 2025

Il ruolo della sicurezza dell'apprendimento automatico nella protezione di Tesla Optimus dagli attacchi avversari


Con lo sviluppo della robotica e della tecnologia dell'intelligenza artificiale (IA), i robot umanoidi come Optimus di Tesla segnano l'avanguardia dell'automazione. Optimus può svolgere una serie di lavori solitamente svolti dagli esseri umani, tra cui compiti pericolosi e ripetitivi utilizzando l'apprendimento automatico (ML). Tuttavia, gli attacchi avversari potrebbero compromettere le prestazioni, l'affidabilità e la sicurezza di Optimus poiché dipendono in gran parte da...

3 aprile 2025
8 minuti

AI , automazione , apprendimento automatico , robotica , Tesla


Con lo sviluppo della robotica e della tecnologia dell'intelligenza artificiale (IA), i robot umanoidi come Optimus di Tesla segnano l'avanguardia dell'automazione. Optimus può svolgere una varietà di lavori solitamente svolti dagli esseri umani, tra cui compiti pericolosi e ripetitivi utilizzando l'apprendimento automatico (ML). Tuttavia, gli attacchi avversari potrebbero compromettere le prestazioni, l'affidabilità e la sicurezza di Optimus poiché dipende in gran parte dall'intelligenza artificiale. Pertanto, soprattutto nei casi in cui individui disonesti potrebbero tentare di sfruttare le debolezze, la sicurezza dell'apprendimento automatico è essenziale per il funzionamento sicuro ed efficace di Optimus di Tesla. Questo articolo affronterà il modo in cui la sicurezza dell'apprendimento automatico è necessaria per proteggere Optimus di Tesla da attacchi ostili, quali tipi di minacce potrebbe incontrare e come ridurre l'effetto di questi rischi in modo che il robot possa essere distribuito in modo sicuro in molti settori.

Le vulnerabilità dei sistemi basati sull'intelligenza artificiale

I sistemi di intelligenza artificiale basati sull'apprendimento automatico sono particolarmente sensibili a un'ampia gamma di problemi di sicurezza. Questi difetti iniziano con i modi in cui si addestra, implementa e interagisce con i modelli di apprendimento automatico. Fondamentale per i sistemi di intelligenza artificiale come Optimus è la capacità di apprendere dai dati e di trarre giudizi su tale apprendimento. I metodi di apprendimento automatico, basati su grandi volumi di dati, possono ora identificare modelli, categorizzare cose, proiettare risultati e cambiare con i tempi in nuovi ambienti. Sebbene le capacità di apprendimento di Optimus lo aiutino a svolgere compiti impegnativi da solo, rendono anche il sistema vulnerabile ad attacchi avversari che possono ingannare l'intelligenza artificiale modificando i dati o l'ambiente.

Nell'apprendimento automatico, un assalto avversario è qualsiasi tentativo, mediante manipolazione dei dati di input, di ingannare il sistema inducendolo a produrre false previsioni o scelte. Solitamente invisibili a causa del loro carattere complesso, questi assalti sfruttano le debolezze del modello nel processo decisionale. Un avversario può, ad esempio, causare un piccolo disturbo nell'ambiente circostante che l'intelligenza artificiale interpreta male e reagisce in modo errato. Ciò potrebbe far sì che l'Optimus di Tesla funzioni in un modo che compromette o interpreta male il suo ambiente, mette a rischio le persone o entrambi i malfunzionamenti o compromessi.

Garantire la loro sicurezza è di fondamentale importanza, considerando la natura cruciale dei lavori che i modelli di apprendimento automatico di Optimus sono destinati a svolgere , che includono automazione industriale, logistica e forse anche assistenza sanitaria. 
La sicurezza dell'apprendimento automatico deve essere sufficientemente forte da sventare i tentativi avversari in ambienti pericolosi in cui attori ostili potrebbero provare a disabilitare il robot.

Tipi di attacchi avversari su Tesla Optimus

Per comprendere meglio come la sicurezza dell'apprendimento automatico aiuti a mantenere Optimus al sicuro, considerate i numerosi attacchi ostili che possono colpire l'intelligenza sintetica del robot. Gli attacchi di questa natura corrispondono a inferenza, avvelenamento o evasione, una delle tre classi. 
Attacchi di evasione: un attacco di evasione è la capacità di un attore ostile di influenzare i dati di input, ingannando un modello di apprendimento automatico in modo che generi previsioni o giudizi errati. Solitamente includendo piccole modifiche non rilevabili ai dati forniti, questi attacchi cercano di ingannare l'intelligenza artificiale in un modo che gli umani ignorerebbero. Nell'ambiente Optimus di Tesla, ad esempio, un aggressore può alterare un marcatore visivo o una lettura del sensore, portando il robot a identificare erroneamente le cose o a interpretare male l' ambiente circostante. I problemi includono il robot che sbaglia il lavoro assegnato o trascura avvisi di sicurezza cruciali.

Attacchi di avvelenamento: lo scopo delle campagne di avvelenamento è la fase di addestramento di un modello di apprendimento automatico. Gli aggressori utilizzano questo approccio per iniettare dati dannosi nel set di addestramento, con l'obiettivo di influenzare la traiettoria di apprendimento del modello. L'insegnamento dei dati avvelenati di Optimus di Tesla aumenta la probabilità di errori operativi e gli consente di apprendere modelli o comportamenti errati. Se Optimus imparasse a identificare erroneamente le cose dagli eventi controllati nei suoi dati di addestramento, ad esempio, potrebbe non essere in grado di identificare probabili rischi o barriere nei suoi dintorni, aumentando quindi la possibilità di errori operativi o incidenti. Particolarmente preoccupanti sono gli attacchi di avvelenamento, che violano l'integrità di base del modello e potrebbero portare a problemi in tutto il sistema.

Attacchi di inferenza: un attacco di inferenza mira ad accedere a informazioni private mantenute in un modello di apprendimento automatico. Optimus e altri sistemi sono particolarmente inclini a questo tipo di attacco poiché utilizzano informazioni e algoritmi privati. Attraverso input intenzionali al sistema di intelligenza artificiale, un avversario può apprendere informazioni sulla costruzione del modello o sui dati di addestramento. Alcune informazioni sensibili, come metodi di produzione segreti o algoritmi decisionali del robot, potrebbero essere esposte in attacchi di inferenza e quindi aprire bersagli per ulteriori attacchi. Pertanto, è essenziale salvaguardare l'autenticità e la riservatezza dei dati utilizzati per le operazioni e l'addestramento per garantire la sicurezza di Optimus.

Strategie per la sicurezza dell'apprendimento automatico in Optimus

La sicurezza dell'apprendimento automatico per Optimus di Tesla deve essere stratificata più volte per sventare i tentativi ostili. Oltre alla protezione dei modelli di apprendimento automatico stessi, ciò richiede misure di sicurezza più complete che coprano l'integrità dei dati, la resilienza del sistema e il rilevamento delle minacce in tempo reale. Le seguenti tecniche descrivono i principali approcci per proteggere l'apprendimento automatico di Optimus: Addestramento avversario: un modo efficace per proteggersi dagli attacchi avversari è l'addestramento avversario. Includere eventi ostili, ovvero input deliberatamente alterati volti a ingannare il modello AI nel set di dati, aiuterà a migliorare il processo di addestramento. Utilizzando questi ambienti ostili, l'addestramento del modello aumenta la sua resilienza a tali attacchi al momento dell'implementazione. L'addestramento avversario aiuterebbe la capacità di apprendimento automatico di Optimus, consentendo al robot di identificare e compensare gli input ostili man mano che si sviluppano. Se un aggressore cercasse di fuorviare il robot con un marcatore modificato, il modello addestrato in modo avversario identificherebbe sicuramente la manipolazione e resterebbe funzionale.
Integrità e convalida dei dati: proteggere le informazioni necessarie per l'esecuzione e l'addestramento di Optimus aiuterà a fermare i tentativi di avvelenamento. È possibile raggiungere questo obiettivo utilizzando rigidi processi di convalida dei dati che ricercano i dati per validità e accuratezza. Prima di utilizzare qualsiasi dato per equipaggiare Optimus, ad esempio, è fondamentale esaminarli attentamente per individuare eventuali manomissioni o corruzione. L'utilizzo della crittografia e di altri metodi di archiviazione e trasmissione dei dati sicuri aiuta a proteggere ulteriormente i dati da corruzione o accesso illecito. Attraverso un'iniziativa di garanzia della qualità dei dati, Tesla può consentire ai sistemi di intelligenza artificiale di Optimus di essere più coerenti e meno inclini ad attacchi di avvelenamento.

Tecniche di robustezza del modello: oltre all'addestramento avversario, esistono vari metodi tecnologici per aumentare la robustezza contro gli attacchi avversari sui modelli di apprendimento automatico. La distillazione difensiva è una tecnica con cui una variante semplificata del modello ML viene insegnata per ridurre la sensibilità a cambiamenti minimi nei dati di input. Questo metodo aumenta la sfida per un aggressore nell'individuare perturbazioni che fuorviano il modello, evitando così assalti evasivi. Inoltre, il mascheramento del gradiente aiuta a nascondere il processo decisionale del modello, impedendo quindi agli aggressori di accedere alle vulnerabilità basate sul gradiente. Questi metodi ti consentiranno di progettare sistemi di intelligenza artificiale per Optimus più resistenti alle manipolazioni dannose.
Rilevamento e monitoraggio delle minacce in tempo reale : la protezione di sicurezza di Optimus dagli attacchi ostili deve includere l'identificazione e il monitoraggio delle minacce in tempo reale. Ogni volta che Tesla rileva strani schemi nel comportamento o negli input del robot, potrebbe indicare un'aggressione. Se il robot inizia a essere notevolmente diverso dagli input previsti, ad esempio, il sistema può rilevare questo come un possibile assalto e interrompere le operazioni o passare a una modalità di sicurezza per proteggere il robot. Utilizzando passaggi proattivi, Tesla può identificare attività ostili in tempo reale e reagire di conseguenza, riducendo quindi l'impatto di questi attacchi.
Meccanismi di difesa collaborativi: nella sicurezza dell'apprendimento automatico, le tecniche di difesa cooperative sono piuttosto cruciali considerando il carattere spesso mutevole e complicato delle minacce ostili. L'apprendimento federato è un approccio che facilita questo tipo di procedura; consente a diversi sistemi di collaborare per produrre modelli ML senza mai realmente scambiare dati. L'aggiornamento costante dei modelli AI di Optimus con nuovi input da diverse fonti tramite l'apprendimento federato consentirà al robot di essere meglio protetto dagli attacchi ostili. Attraverso partnership con altre aziende e professionisti della sicurezza AI, Tesla può anche anticipare nuovi rischi e creare piani di difesa più solidi.

Considerazioni etiche e sociali

Poiché garantisce l'affidabilità e la sicurezza di Optimus di Tesla, la sicurezza dell'apprendimento automatico pone seri interrogativi etici e sociali. Le violazioni della sicurezza stanno diventando rilevanti poiché robot come Optimus vengono sempre più inclusi nelle aziende e forse anche nelle famiglie. Un assalto aggressivo efficace contro un robot di automazione industriale potrebbe causare perdite finanziarie, tempi di inattività o persino rischi fisici per i lavoratori. Gli utilizzi sensibili come l'assistenza sanitaria e l'assistenza agli anziani presentano pericoli molto più elevati poiché un robot hackerato potrebbe mettere in pericolo individui sensibili. L'utilizzo dell'intelligenza artificiale in Optimus e sistemi simili solleva anche interrogativi su chi ha la responsabilità di cosa in caso di problemi di sicurezza. Se un assalto avversario dovesse fallire Optimus e causare danni, chi è responsabile , ovvero l'originatore, l'operatore o lo sviluppatore del modello di intelligenza artificiale? Dato il numero crescente di robot alimentati dall'intelligenza artificiale nella società, è necessario rispondere a queste domande etiche e legali.

Conclusione

La sicurezza dell'apprendimento automatico essenzialmente consente a Optimus di Tesla di svolgere regolarmente e in sicurezza le sue attività in diversi ambienti. Ciò è essenziale per proteggere il robot da intenzioni malevole. La complessità e l'integrazione dei sistemi basati sull'intelligenza artificiale in settori cruciali definiranno molto probabilmente i pericoli degli attacchi ostili. Le solide funzionalità di sicurezza includono formazione avversaria, regole di integrità dei dati, metodologie di robustezza del modello, monitoraggio in tempo reale e meccanismi di difesa cooperativi che consentono a Tesla di proteggere Optimus da questi attacchi e garantirne il funzionamento a lungo termine. La sicurezza completa dell'apprendimento automatico sta diventando sempre più rilevante poiché l'uso di robot umanoidi come Optimus continua a crescere nel settore per proteggere sia i robot che gli umani che dovrebbero servire come utenti.


sabato 5 aprile 2025

Il sito di immagini AI GenNomis ha esposto 47 GB di deepfake di minorenni


Un grave incidente di fuga di dati presso GenNomis, una piattaforma gestita dall'azienda sudcoreana di intelligenza artificiale AI-NOMIS, ha sollevato serie preoccupazioni sui rischi derivanti da contenuti generati dall'intelligenza artificiale non monitorati.

Per vostra informazione, GenNomis è una piattaforma di generazione di immagini basata sull'intelligenza artificiale che consente agli utenti di creare immagini illimitate da prompt di testo, generare personaggi basati sull'intelligenza artificiale ed eseguire lo scambio di volti, con oltre 45 stili artistici e un mercato per l'acquisto e la vendita di immagini generate dagli utenti.

Quali dati sono stati esposti?

Secondo il rapporto di vpnMentor, condiviso con Hackread.com, il ricercatore di sicurezza informatica Jeremiah Fowler ha scoperto un database accessibile al pubblico e configurato in modo errato, contenente ben 47,8 gigabyte di dati, tra cui 93.485 immagini e file JSON.

Questa miniera di informazioni ha rivelato una preoccupante raccolta di materiale esplicito generato dall'intelligenza artificiale, immagini con volti scambiati e raffigurazioni che coinvolgono quelli che sembrano essere individui minorenni. Un esame limitato dei registri esposti ha mostrato una prevalenza di contenuti vietati ai minori, tra cui immagini generate dall'intelligenza artificiale che hanno sollevato segnali di allarme sullo sfruttamento dei minori.

L'incidente rafforza gli avvertimenti di un organismo di controllo di Internet con sede nel Regno Unito, che ha segnalato che i pedofili del dark web utilizzano strumenti di intelligenza artificiale open source per produrre materiale pedopornografico (CSAM).

Immagini Deepfake di Minori (Fonte: vpnMentor)

Fowler ha riferito di aver visto numerose immagini che sembravano raffigurare minorenni in situazioni esplicite, così come celebrità ritratte come bambini, tra cui personaggi come Ariana Grande e Michelle Obama. Il database conteneva anche file JSON che registravano prompt di comando e link a immagini generate, offrendo uno sguardo al funzionamento interno della piattaforma.

Conseguenze e pericoli

Fowler ha scoperto che il database era privo di misure di sicurezza di base, come la protezione tramite password o la crittografia, ma ha dichiarato esplicitamente di non attribuire alcun illecito a GenNomis o AI-NOMIS per l'incidente.

Ha prontamente inviato un avviso di divulgazione responsabile all'azienda e il database è stato eliminato dopo che i siti web GenNomis e AI-NOMIS sono andati offline. Tuttavia, una cartella nel database etichettata "Face Swap" è scomparsa prima che inviasse l'avviso di divulgazione.

Cartelle elencate (Fonte: vpnMentor)

Questo incidente evidenzia il crescente problema della pornografia "nudify" o Deepfake, in cui l'intelligenza artificiale viene utilizzata per creare immagini esplicite realistiche senza consenso. Fowler ha osservato, elaborando che circa il 96% dei Deepfake online sono pornografici, con il 99% di questi che coinvolgono donne che non hanno dato il consenso.

Il potenziale di uso improprio dei dati esposti in scenari di estorsione, danno alla reputazione e vendetta è sostanziale. Inoltre, questa esposizione contraddice le linee guida dichiarate dalla piattaforma, che proibiscono esplicitamente contenuti espliciti che coinvolgono bambini.

Fowler ha descritto l'esposizione dei dati come una "chiamata di sveglia" in merito al potenziale di abuso nel settore della generazione di immagini AI, evidenziando la necessità di una maggiore responsabilità da parte degli sviluppatori. Sostiene l'implementazione di sistemi di rilevamento per segnalare e bloccare la creazione di Deepfake espliciti, in particolare quelli che coinvolgono minori, e sottolinea l'importanza delle tecnologie di verifica dell'identità e di filigrana per prevenire l'uso improprio e facilitare la responsabilità.

Al momento in cui scrivo, il sito web GenNomis era offline.

lunedì 31 marzo 2025

Come gli esperti di sicurezza informatica combattono le minacce generate dall'intelligenza artificiale

La rapida integrazione dell'intelligenza artificiale (IA) nella sicurezza informatica sta rimodellando il modo in cui le minacce emergono ed evolvono. I criminali informatici non sono più limitati dalle tradizionali tecniche di hacking: ora utilizzano strumenti basati sull'IA per automatizzare gli attacchi , generare codice dannoso e perfezionare le tattiche di ingegneria sociale. Questo cambiamento sta rendendo le minacce informatiche più veloci, più efficaci e più difficili da rilevare, costringendo i professionisti della sicurezza a ripensare le proprie strategie difensive.


L'aspetto più preoccupante degli attacchi informatici generati dall'intelligenza artificiale è che richiedono poca o nessuna competenza tecnica per essere eseguiti. Invece di affidarsi alla scrittura manuale di script, gli aggressori ora utilizzano modelli di linguaggio di grandi dimensioni (LLM) come ChatGPT e Gemini per generare e-mail di phishing, exploit script e payload con solo pochi prompt ben congegnati.


Oltre ai singoli attacchi, la tecnologia AI sta consentendo l'automazione su larga scala delle minacce informatiche. Gli aggressori possono ora implementare campagne di hacking persistenti, guidate dall'AI, in cui il malware si evolve in tempo reale, i messaggi di phishing si adattano dinamicamente e lo spyware raccoglie informazioni in modo autonomo.


Questo potenziale duplice uso, in cui l’intelligenza artificiale può essere utilizzata sia per la difesa che per l’attacco, rappresenta una delle maggiori sfide per la sicurezza informatica.


Attacchi informatici guidati dall'intelligenza artificiale: tecniche utilizzate dai criminali informatici


Ingegneria sociale e phishing


L'intelligenza artificiale generativa consente ora agli aggressori di creare messaggi di phishing altamente personalizzati su larga scala, imitando stili di comunicazione aziendali reali e adattandosi alle risposte delle vittime. Può aiutare a replicare il branding ufficiale, il tono e gli stili di scrittura, rendendoli difficili da distinguere dai messaggi legittimi. In esperimenti controllati, le e-mail di phishing generate dall'intelligenza artificiale hanno ingannato oltre il 75 percento dei destinatari inducendoli a cliccare su link dannosi, dimostrando quanto efficacemente l'intelligenza artificiale possa manipolare la fiducia umana.


Generazione di codice dannoso


Utilizzando tecniche di jailbreak come il metodo di gioco dei personaggi, gli aggressori possono aggirare le misure di sicurezza etiche dell'IA ed estrarre codice dannoso per la generazione di payload, la crittografia e l'offuscamento.
L'IA generativa è particolarmente utile per creare malware polimorfici, ovvero software dannosi che modificano la struttura del codice in tempo reale per eludere il rilevamento. Le soluzioni antivirus tradizionali faticano a tenere il passo con questi rapidi cambiamenti.


L'IA aiuta anche nell'offuscamento di script dannosi. Gli aggressori possono usare modelli di IA per generare script malware altamente complessi, criptati o mascherati. L'inserimento di codice morto, l'offuscamento del flusso di controllo e le tecniche di manipolazione del codice basate sull'IA consentono al malware di mimetizzarsi in applicazioni legittime e di eludere l'analisi statica degli strumenti di sicurezza.


Strategie di hacking automatizzate


L'intelligenza artificiale può automatizzare tecniche di hacking come attacchi brute-force, credential stuffing e scansione delle vulnerabilità, consentendo agli aggressori di compromettere i sistemi in pochi secondi. Inoltre, la ricognizione automatizzata consente all'intelligenza artificiale di analizzare i sistemi alla ricerca di porte aperte, software obsoleti ed errori di configurazione. Con l'assistenza dell'intelligenza artificiale, gli aggressori possono condurre attacchi automatici di SQL injection, cross-site scripting (XSS) e buffer overflow exploit con un intervento umano minimo.
Spyware e minacce persistenti avanzate (APT)


L'intelligenza artificiale generativa alimenta lo spyware di nuova generazione, consentendo l'esfiltrazione furtiva dei dati, il keylogging e le capacità di accesso remoto. Lo spyware generato dall'intelligenza artificiale può monitorare il comportamento degli utenti, rubare credenziali ed eludere il rilevamento tramite tecniche di offuscamento.
Gli aggressori utilizzano l'intelligenza artificiale per automatizzare la ricognizione sui sistemi target, identificando le vulnerabilità che consentono l'infiltrazione a lungo termine e non rilevata. Gli APT basati sull'intelligenza artificiale possono mantenere un accesso persistente alle reti aziendali, esfiltrando i dati in piccoli frammenti non rilevabili nel tempo. L'intelligenza artificiale aiuta anche nell'escalation automatizzata dei privilegi, in cui gli aggressori utilizzano script generati dall'intelligenza artificiale per ottenere livelli di accesso più elevati all'interno di un sistema.


Deepfake e disinformazione generata dall'intelligenza artificiale


Gli aggressori utilizzano audio e video generati dall'intelligenza artificiale per impersonare individui di alto profilo, manipolando la percezione pubblica e conducendo frodi su larga scala. Le truffe finanziarie che utilizzano deepfake hanno già ingannato le aziende inducendole a trasferire milioni di dollari su conti fraudolenti. Le campagne di disinformazione politica sfruttano i video generati dall'intelligenza artificiale per diffondere false narrazioni, influenzare le elezioni e destabilizzare le società. L'aumento dei contenuti generati dall'intelligenza artificiale facilita anche gli attacchi alla reputazione, in cui i deepfake vengono utilizzati per creare falsi scandali, ricattare le vittime o diffondere disinformazione.


Occupy AI: un LLM ottimizzato per gli attacchi informatici


Yusuf Usman, assistente di ricerca laureato in sicurezza informatica presso la Quinnipiac University, studia come l'intelligenza artificiale e l'apprendimento automatico possano migliorare il rilevamento del phishing e automatizzare la difesa informatica. Evidenzia una minaccia crescente: Occupy AI, un LLM personalizzato progettato per migliorare gli attacchi informatici tramite automazione, precisione e adattabilità.


Occupy AI può essere precaricato con ampi set di dati di vulnerabilità di sicurezza, librerie di exploit e metodologie di attacco del mondo reale, consentendo ai criminali informatici di eseguire attacchi informatici complessi con il minimo sforzo. Eccelle nell'automazione della ricognizione, fornendo analisi delle vulnerabilità in tempo reale e generando script di attacco altamente efficaci su misura per obiettivi specifici.


Un vantaggio fondamentale degli LLM malevoli ottimizzati come Occupy AI è la loro capacità di auto-migliorarsi tramite apprendimento per rinforzo. Analizzando continuamente i tassi di successo degli attacchi, questi strumenti basati sull'intelligenza artificiale possono perfezionare le loro tecniche, rendendole più efficaci nel tempo. Possono anche integrare intelligence sulle minacce in tempo reale, adattandosi a nuove patch di sicurezza, regole del firewall e meccanismi di autenticazione.


L'accessibilità di tali strumenti riduce la barriera alla criminalità informatica, consentendo anche a individui inesperti di condurre attacchi altamente efficaci.


Preoccupazioni etiche e implicazioni per la sicurezza dell’intelligenza artificiale


Il rapido sviluppo degli attacchi informatici basati sull'intelligenza artificiale solleva gravi preoccupazioni di carattere etico e di sicurezza, in particolare per quanto riguarda l'accessibilità, la regolamentazione e l'adattabilità degli strumenti di intelligenza artificiale dannosi.


Accesso illimitato agli strumenti di attacco generati dall'intelligenza artificiale


Una volta che un modello di IA è stato messo a punto per gli attacchi informatici, può essere facilmente distribuito su forum underground o venduto come servizio. Questa disponibilità di massa amplifica la portata e la frequenza degli attacchi basati sull'IA, rendendo più facile per gli attori malintenzionati lanciare campagne automatizzate senza richiedere una conoscenza approfondita della sicurezza informatica.


Mancanza di regolamentazione per i modelli di intelligenza artificiale perfezionati


A differenza dei prodotti AI disponibili in commercio che aderiscono a rigide linee guida etiche, i modelli AI addestrati su misura progettati per la criminalità informatica esistono in una zona grigia legale. Non ci sono policy standardizzate per regolamentare la creazione e l'uso di tali modelli, rendendone quasi impossibile l'applicazione.


Evoluzione continua delle minacce basate sull'intelligenza artificiale


Le minacce informatiche guidate dall'intelligenza artificiale si evolvono costantemente, adattandosi alle patch di sicurezza, agli aggiornamenti di intelligence sulle minacce e ai metodi di rilevamento. Gli aggressori perfezionano modelli come Occupy AI per aggirare le difese, eludere il rilevamento delle frodi e migliorare la furtività. Ciò crea un continuo gioco del gatto e del topo tra i difensori della sicurezza informatica e gli aggressori potenziati dall'intelligenza artificiale, in cui le soluzioni di sicurezza devono adattarsi costantemente a un panorama delle minacce in continua evoluzione.


Rafforzare le difese contro le minacce informatiche generate dall'intelligenza artificiale


Man mano che le minacce informatiche basate sull'intelligenza artificiale diventano più sofisticate, i team di sicurezza informatica devono sfruttare l'intelligenza artificiale in modo difensivo e implementare misure di sicurezza proattive per contrastare i rischi emergenti.


Rilevamento e risposta alle minacce basate sull'intelligenza artificiale


I team di sicurezza devono adottare strumenti di sicurezza basati sull'intelligenza artificiale per rilevare e neutralizzare le minacce informatiche generate dall'intelligenza artificiale. Il monitoraggio in tempo reale, combinato con analisi comportamentali avanzate, rilevamento delle anomalie e piattaforme di intelligence sulle minacce basate sull'intelligenza artificiale, può aiutare a identificare modelli di attacco sottili che i sistemi di sicurezza tradizionali potrebbero non rilevare.


Architettura Zero Trust (ZTA)


Data la capacità dell'intelligenza artificiale di automatizzare il furto di credenziali e l'escalation dei privilegi, le organizzazioni devono applicare i principi di fiducia zero, assicurando che ogni richiesta di accesso venga costantemente verificata, indipendentemente dall'origine, implementando una verifica avanzata dell'identità e un'autenticazione a più fattori.


Inganno informatico basato sull'intelligenza artificiale


I team di sicurezza informatica possono usare l'IA contro gli aggressori implementando tecniche di inganno basate sull'IA, come honeytoken, credenziali false, honeypot e sistemi esca che confondono gli sforzi di ricognizione potenziati dall'IA. Fornendo agli aggressori informazioni false, le organizzazioni possono sprecare tempo e risorse, riducendo l'efficacia degli attacchi automatizzati.


Test di sicurezza automatizzati e red teaming


Proprio come l'intelligenza artificiale viene utilizzata per gli attacchi informatici, i difensori possono implementare test di penetrazione basati sull'intelligenza artificiale e audit di sicurezza automatizzati per identificare le vulnerabilità prima che lo facciano gli aggressori. Il red teaming assistito dall'intelligenza artificiale può simulare strategie di attacco potenziate dall'intelligenza artificiale, aiutando i team di sicurezza a rimanere un passo avanti agli avversari migliorando continuamente le loro difese.


Raccomandazioni normative e politiche per mitigare i crimini informatici basati sull'intelligenza artificiale


I governi e le organizzazioni internazionali devono applicare rigide normative sull'uso dell'IA. Ciò include il divieto di creazione e distribuzione di modelli di IA specificamente progettati per la criminalità informatica, l'obbligo per gli sviluppatori di IA di mantenere la trasparenza e l'applicazione di controlli sulle esportazioni di sistemi di IA in grado di generare codice dannoso o di aggirare le misure di sicurezza.


Le piattaforme AI devono implementare meccanismi di filtraggio robusti per prevenire prompt engineering dannosi e la generazione di codice dannoso. Il monitoraggio continuo degli output generati dall'AI è necessario per rilevare l'uso improprio prima che degeneri.


I governi, le aziende di sicurezza informatica e gli sviluppatori di intelligenza artificiale devono collaborare per creare piattaforme di condivisione di informazioni sulle minacce in tempo reale, in grado di monitorare e neutralizzare le minacce informatiche guidate dall'intelligenza artificiale.


Infine, è fondamentale investire di più nella ricerca sulla sicurezza informatica basata sull'intelligenza artificiale per restare un passo avanti agli aggressori che perfezionano costantemente le loro tecniche basate sull'intelligenza artificiale.


Lockheed Martin e Google Cloud annunciano la collaborazione per promuovere l'intelligenza artificiale generativa per la sicurezza nazionale

Lockheed Martin (NYSE: LMT) e Google Public Sector hanno annunciato oggi la loro intenzione di integrare l'intelligenza artificiale generativa avanzata (genAI) di Google nell'ecosistema AI Factory di Lockheed Martin. Questa collaborazione migliorerà la capacità di Lockheed Martin di addestrare, distribuire e sostenere modelli di intelligenza artificiale ad alte prestazioni insieme ad altri fornitori leader, accelerando le capacità basate sull'intelligenza artificiale in applicazioni critiche per la sicurezza nazionale, aerospaziali e scientifiche.


L'AI Factory di Lockheed Martin sfrutta modelli AI sia open source che proprietari, offrendo tracciabilità, affidabilità e monitoraggio per garantire affidabilità, sicurezza e distribuzione ad alta garanzia. Le capacità AI di Google Cloud diventeranno parte di questo ecosistema, integrando l'approccio completo di Lockheed Martin all'AI.




"Utilizzando le tecnologie AI di Google Cloud possiamo esplorare un'ampia gamma di potenti capacità per fornire soluzioni innovative e affidabili che restano all'avanguardia", ha affermato John Clark, vicepresidente senior di Lockheed Martin Technology & Strategic Innovation. "Una relazione duratura con Google Public Sector fa parte del nostro impegno continuo verso una cultura dell'innovazione, che guida il miglioramento continuo e fornisce risultati per i nostri clienti".


"Lockheed Martin e Google Cloud condividono la visione di portare nuova innovazione nel settore con l'intelligenza artificiale", ha affermato Jim Kelly, vicepresidente federale, Google Public Sector. "Le nostre tecnologie Google Cloud AI forniranno a Lockheed Martin un potente set di strumenti per affrontare alcuni dei loro problemi più esigenti più velocemente che mai".


Lockheed Martin applicherà queste funzionalità di intelligenza artificiale integrate per migliorare aree critiche, tra cui analisi di intelligence avanzata, processo decisionale in tempo reale, manutenzione aerospaziale predittiva, progettazione ingegneristica ottimizzata, catene di fornitura solide, sviluppo software sicuro, formazione personalizzata della forza lavoro e scoperte scientifiche accelerate.


La piattaforma Vertex AI di Google Cloud aiuta le organizzazioni a formare, distribuire e personalizzare modelli linguistici di grandi dimensioni (LLM) in modo sicuro e su larga scala, integrando l'impegno di AI Factory di Lockheed Martin per un'intelligenza artificiale sicura e affidabile in tutte le operazioni globali, compresi gli ambienti air gap.


Questa collaborazione riflette l'impegno comune di entrambe le aziende verso un'implementazione dell'intelligenza artificiale affidabile e sicura, nel rispetto dei più elevati standard di sicurezza e affidabilità, tratti distintivi di entrambe le organizzazioni.


Informazioni su Lockheed Martin
Lockheed Martin è un'azienda globale di tecnologia di difesa che guida l'innovazione e promuove la scoperta scientifica. Le nostre soluzioni di missione per tutti i domini e la visione 21st Century Security ® accelerano la fornitura di tecnologie trasformative per garantire che coloro che serviamo siano sempre un passo avanti. Ulteriori informazioni su LockheedMartin.com.


Informazioni su Google Cloud
Google Cloud è il nuovo modo di accedere al cloud, offrendo strumenti di intelligenza artificiale, infrastruttura, sviluppo, dati, sicurezza e collaborazione pensati per oggi e per domani. Google Cloud offre uno stack di intelligenza artificiale potente, completamente integrato e ottimizzato con la propria infrastruttura su scala planetaria, chip personalizzati, modelli di intelligenza artificiale generativa e piattaforma di sviluppo, nonché applicazioni basate sull'intelligenza artificiale, per aiutare le organizzazioni a trasformarsi. I clienti in oltre 200 paesi e territori si rivolgono a Google Cloud come partner tecnologico di fiducia.


Più produttive grazie all’AI: come liberare il potenziale delle aziende

L’intelligenza artificiale rivoluziona la produttività aziendale, liberando il potenziale umano e migliorando l’efficienza. L’adozione strategica dell’AI permette alle aziende di concentrarsi su attività a valore aggiunto, ottimizzando risorse e processi per un ritorno sugli investimenti accelerato


Aumentare la competitività e la produttività delle imprese, contribuendo alla crescita del Paese.

È questa la grande opportunità che si aprirebbe se l’intelligenza artificiale venisse adottata con il giusto approccio strategico dalle imprese e dalla pubblica amministrazione in Italia, grazie anche a una serie di sviluppi tecnologici che la rendono sempre più performante e in grado di sollevare gli umani da compiti ripetitivi o particolarmente impegnativi, mettendoli nelle condizioni ideali per dedicarsi ad attività a maggiore valore aggiunto, sulle quali sfruttare al meglio le proprie conoscenze e le proprie competenze.


Eventi per esplorare il potenziale dell’AI


Proprio a questi temi sono dedicate le tappe del roadshow “IBM AI experience on tour” organizzato da Ibm, con il primo evento realizzato in collaborazione con Red Hat e Università LUISS che si è svolto giovedì 20 marzo nella sede dell’ateneo romano. L’iniziativa proseguirà toccando diverse Regioni Italiane nei prossimi mesi, con l’obiettivo di esplorare le ultime funzionalità e le potenzialità dell’intelligenza artificiale, anche di tipo generativo e agentico.


L’importanza dell’AI open source per il ROI


Nella strategia di investimenti a lungo termine che le aziende stanno implementando sull’intelligenza artificiale assume una particolare rilevanza l’utilizzo di strumenti open source, con l’obiettivo di accelerare sul ROI (Return of Investment) e per rimanere al passo con l’innovazione.


A dimostrarlo è un recente studio realizzato da Morning Consult e lopez Research, secondo cui l’85% del campione nel 2024 ha registrato progressi nell’esecuzione della propria strategia. Il 47%, in particolare, può già contare su un ritorno degli investimenti positivo. La redditività finanziaria, in particolare, risulta, secondo la ricerca, legata all’utilizzo di strumenti open source: il 51% degli intervistati tra chi utilizza strumenti AI open source registra un ROI positivo, contro il 41% di coloro che non lo utilizza.


Predisposizione all’investimento in AI nelle aziende


Aumenta anche la predisposizione a investire sull’AI, tanto che il 62% delle aziende coinvolte nella ricerca afferma di voler incrementare le risorse economiche da destinare all’intelligenza artificiale, e il 48% dice di guardare all’ecosistema open source. Prendendo in considerazione il campione di chi non ha ancora utilizzato l’open source, inoltre, due intervistati su cinque dicono di voler esplorare questa possibilità nell’anno in corso.


Intelligenza artificiale per aziende: l’attenzione al focus strategico


Se in generale quasi nove aziende su dieci manifestano l’intenzione di mantenere o aumentare i propri investimenti sull’intelligenza artificiale nel corso del 2025, è interessante notare come – prendendo in considerazione il 62% che ha in programma di destinare più risorse all’AI – il 39% pensa di spendere dal 25 al 50% in più rispetto al 2024.


La spesa non sarà “a pioggia”, ma indirizzata ad alcuni segmenti specifici, quelli nei quali le aziende hanno individuato la possibilità di ottenere risultati migliori, come le IT operations, la gestione della qualità dei dati e l’innovazione dei propri prodotti o servizi. Le tre priorità, nello specifico, riguardano l’utilizzo di servizi cloud gestiti, l’assunzione di talenti specializzati e l’utilizzo dell’open source.


Lo sviluppo delle soluzioni di intelligenza artificiale nelle aziende


Rispetto a un periodo iniziale in cui era più difficile misurare gli effetti delle strategie di intelligenza artificiale all’interno delle aziende, l’adozione di questa tecnologia sta iniziando a dare segni di maggiore maturità, tanto che l’85% del campione della ricerca afferma di aver registrato progressi nei risultati durante il 2024, con il 58% che riesce ormai a passare in meno di un anno dall’implementazione di progetti pilota alla “piena produzione”.


A guidare le aziende negli investimenti in intelligenza artificiale è prima di tutto la volontà di innovare, citata come motivazione principale dal 31% degli intervistati, contro il 28% che guarda principalmente al ritorno degli investimenti. Un mix delle due motivazioni, inoltre, è l’elemento scatenante per il 41% delle imprese. Quanto al cost saving, a citarlo come elemento principale è il 15% del campione.


Ai generativa e Agentic AI: soluzioni su misura per le aziende


Per dare un impulso decisivo al processo di trasformazione digitale in corso nel Paese, e perché questa possa rispondere al meglio alle esigenze di un ecosistema produttivo che in Italia vede in primo piano – come driver dell’economia nazionale – settori come il turismo, la tradizione agricola e artigianale e un’industria manifatturiera ben radicata in alcune aree del Paese, le evoluzioni più recenti dell’intelligenza artificiale possono giocare un ruolo di primo piano. Parliamo in particolare dell’AI generativa e dell’Agentic AI.


Si tratta, in sostanza, di individuare soluzioni sviluppate “su misura” sulla base delle esigenze specifiche di ogni azienda, che siano scalabili e traggano il massimo del valore dai dati, che si tratti di dare supporto all’HR, di interagire con i clienti sia in ambito B2C sia in ambito B2B, per arrivare fino alla gestione dei processi e al monitoraggio delle infrastrutture.


Cos’è l’AI generativa


Per intelligenza artificiale generativa si intende generalmente la tecnologia basata sull’AI che è in grado, partendo dall’analisi di un data set, di generare nuovi contenuti, che si tratti di testi, immagini, musica, o anche codici di programmazione software.


Uno dei modelli più diffusi è quelle delle cosiddette “reti avversarie”, o “generative adversial networks”, che si basano sulla combinazione di due reti neurali: la prima genera nuovi dati attingendo a un determinato database, e la seconda valuta la loro qualità confrontandola con informazioni “reali”, per assicurare la qualità dell’output.


Un altro modello fondamentale per l’AI generativa è l’approccio “Gpt”, acronimo per “generative pre-trained transformer”, che utilizza modelli di linguaggio avanzati per generare testi coerenti e contestualmente appropriati.


Entrambi i modelli trovano applicazione, soltanto per fare qualche esempio, nella creazione automatica di contenuti e nella traduzione linguistica, fino alla generazione di immagini e video.


Cos’è l’Agentic AI


A differenza dell’Ai generativa, l’Agentic AI, o intelligenza artificiale agentica consente alla tecnologia di compiere un passo in più, agendo autonomamente fino al raggiungimento di un obiettivo prefissato, senza avere il bisogno costante di un’interazione costante con l’uomo.


Si tratta quindi di dotare la tecnologia di una capacità decisionale avanzata che le consenta di assolvere ad alcuni task specifici, anche adattandosi a contesti mutevoli. Il suo utilizzo risulta particolarmente prezioso nel campo dell’automazione dei processi ad esempio nel manifatturiero, ed è uno dei cardini dell’industria 5.0.


Oltre a questo, è possibile vederla come un “potenziamento” della tecnologia alla base degli assistenti virtuali, che grazie all’intelligenza artificiale potranno non soltanto fornire informazioni a chi le chiede, ma anche compiere azioni predefinite, come – soltanto per fare qualche esempio – le prenotazioni per un viaggio o la gestione di alcune attività di pagamento, o ancora la gestione automatica delle flotte.


Il fatto che le macchine possano operare con un certo grado di indipendenza contribuisce a migliorare l’efficienza e l’efficacia quando si affrontano compiti complessi o ripetitivi.


AI e produttività, una rivoluzione culturale


“L’intelligenza artificiale, in particolare quella generativa, rappresenta una rivoluzione culturale che coinvolge tutte le sfere della società, dalle istituzioni alle imprese di ogni dimensione”, spiega Tiziana Tornaghi, General Manager Consulting IBM Italia. “La nuova frontiera del cambiamento si estende ulteriormente con l’avvento degli AI Agentic, nuovi ‘attori aziendali’ in grado di apprendere, adattarsi e interagire in modo autonomo. Tuttavia, come per ogni trasformazione – prosegue – la loro adozione richiede un approccio strategico su come integrarli in funzione degli obiettivi aziendali, nonché un investimento nella formazione di competenze e nella creazione di un ecosistema che governi questo cambiamento”.


Intelligenza artificiale, il nodo delle competenze


Ma le tecnologie, per quanto avanzate, da sole non bastano per compiere il salto della digital transformation e dell’adozione dell’intelligenza artificiale, se da questi processi si vuole trarre il massimo vantaggio. Serve anche che chi è chiamato a utilizzare gli strumenti di ultima generazione abbia competenze adeguate, e l’Italia ha bisogno di accelerare in questo campo.


Lo dimostrano i dati del Digital Decade Report 2024, secondo cui l’Italia è – tra i Paesi europei – tra quelli con i livelli più bassi di competenze digitali di base. Soltanto il 45,8% della popolazione, infatti, può contare in Italia su queste skill, con dieci punti percentuali di ritardo rispetto al valore medio dell’Unione Europea.


Per colmare questo gap anche le aziende stanno facendo la loro parte con iniziative ad hoc. Tra queste la piattaforma di aggiornamento skillsbuild.org, messa a punto da IBM, che ha erogato formazione gratuita su digital skill a oltre 200mila tra studenti, docenti e lavoratori in Italia.


“L’AI agisce come acceleratore dell’efficienza e della produttività. Per coglierne in pieno il potenziale di valore è però necessario concepirlo come strumento per migliorare le potenzialità umane, non per sostituirle – sottolinea Paolo Boccardelli, rettore dell’Università Luiss Guido Carli – In questa prospettiva, le università devono evolversi per trasformarsi da luoghi di riflessione e conoscenza in hub dinamici per lo sviluppo e l’innovazione, dove competenze tecnologiche e solida formazione umanistica si integrano armoniosamente, alimentando costantemente il dialogo e la collaborazione con le imprese”.


Le tecnologie di IBM per l’AI


Come esempio degli use case più promettenti e delle tecnologie trasformative di ultima generazione il roadshow di Ibm ha messo a punto un’area esperienziale, che presenta il portfolio di soluzioni di genAI di watsonx, a partire da watsonx Orchestrate, pensato per creare facilmente assistenti AI e agenti personalizzati per automatizzare e accelerare i flussi di lavoro, aumentando l’efficienza e ottenendo migliori risultati di business.


Tra le soluzioni presentate nel roadshow ci sono anche IBM Hybrid iPaaS, piattaforma ibrida per sviluppare in modo coerente con un unico strumento tutti i pattern di integrazione che coinvolgono applicazioni, API, B2B, file ed eventi, e IBM StreamSets, progettata per potenziare i progetti di AI integrando sorgenti dati eterogenee in maniera agile e veloce. Tra gli stand del percorso esperienziale, infine, quelli dedicati per il supporto dell’attività dei consulenti e dei diversi profili professionali di un’organizzazione, le soluzioni di quantum computinge quelle di security.


sabato 22 marzo 2025

Il machine learning nella cyber security: opportunità e rischi



Il Security Operations Center (Soc) di un’azienda di medie dimensioni, che monitora i dati di rete e degli endpoint in tempo reale per individuare le potenziali minacce, riceve in media circa 200.000 avvisi al giorno.

Solo una piccola parte di questi avvisi può essere elaborata da una persona, perché ogni avviso richiede mediamente 15-20 minuti di attenzione da parte dell’analista per rispondere alla domanda fondamentale, capire cioè se si tratta di un falso positivo o se l’organizzazione è sotto attacco.

Questo fattore rappresenta un limite per quasi tutte le organizzazioni, perché anche le piccole realtà generano un numero di eventi di rete, provenienti dagli endpoint e dai log, di gran lunga superiore a quello che gli esseri umani possono gestire con successo.

Per questo motivo, i Soc devono necessariamente impiegare un software di monitoraggio della sicurezza che consenta di preselezionare e ridurre il numero di eventi che richiedono un intervento umano.

Una tecnologia che potrebbe facilitare questo processo è l’intelligenza artificiale, ma il problema è se possiamo fidarci delle risposte dell’intelligenza artificiale applicata alla sicurezza informatica.

Ecco quali sono i suoi limiti e come superarli.
L’apprendimento automatico per la cyber security

L’apprendimento automatico (machine learning, ML) per la sicurezza informatica è un tema ampiamente studiato[1], perché le attività dei Soc producono una grande quantità di dati e il machine learning è la tecnologia sempre più diffusa nel software di sicurezza.

Tuttavia, il machine learning non gode ancora di una fiducia ampia nei Soc e, in questo senso, un importante ostacolo, affinché ciò avvenga, è rappresentato dal fatto che i metodi di machine learning sono carenti dal punto di vista della “explainability”[2].

L’Explainable AI (XAI) è, infatti, un importante campo di ricerca nell’ambito dell’intelligenza artificiale, focalizzato sulla trasparenza e l’interpretabilità dei sistemi di IA e dei relativi risultati.

Mentre l’AI tradizionale mira principalmente a massimizzare le prestazioni predittive, l’XAI si concentra sulla comprensione del processo decisionale dei modelli, rendendoli comprensibili e interpretabili dagli esseri umani.

In assenza di trasparenza, è comprensibile che gli analisti dei Soc non si fidino del ML.
La richiesta di trasparenza

Oltre al settore della cyber security, c’è un’ampia richiesta di trasparenza nell’utilizzo dei metodi di ML.

Il Regolamento generale europeo sulla protezione dei dati (GDPR) sancisce il “diritto a una spiegazione” nell’ambito dell’utilizzo dei ML nei processi decisionali che riguardano un individuo (articolo 22 e considerando 71).

Pertanto, anche l’analista Soc ha bisogno di verificare il processo logico, perché le decisioni che deve prendere, spesso sotto pressione e con informazioni ambigue, possono avere un impatto significativo sulla sua organizzazione.

Il paradigma del cyber-informed machine learning

Il cyber-informed machine learning è un paradigma elaborato dal Software engineering institute e basato sul concetto di “explainability”, che prevede l’analisi dei tre casi d’uso più comuni nel machine learning applicato alla cyber security:comprensione dei dati da parte dell’uomo;
comprensione del modello da parte dell’uomo;
quella dell’uomo da parte del modello.

In particolare, si tenta di fornire una sintesi di ciascun caso di interpretazione e i suggerimenti di ricerca necessari per raggiungere un livello di trasparenza che possa incoraggiare l’uso dei sistemi basati su ML destinati a supportare le operazioni di cyber security.

Comprensione dei dati da parte dell’uomo

Solitamente, la capacità di fornire una spiegazione dei dati tenta di rispondere alla domanda su cosa mi dicono i dati.

Si tratta della forma più nota di comprensione ed è una delle ragioni principali per cui esistono materie come la statistica, la data science e le discipline ad esse correlate.

Nel contesto dei Soc, il caso d’uso di base è la comprensione del normale profilo del traffico di rete, mentre un caso d’uso più specifico potrebbe prevedere la comprensione della storia di un particolare indirizzo di protocollo Internet (IP) interno che interagisce con un indirizzo IP esterno.

Sebbene questo tipo di dimostrazione possa sembrare semplice, ci sono diverse difficoltà specifiche legate alla sicurezza informatica che è necessario considerare. Si considerino, per esempio, i campi utilizzati dal comando NetFlow per identificare il traffico di rete raccolto (Tabella 1).

I metodi di machine learning possono essere facilmente applicati ai campi numerici, come “packets”, “bytes” e “duration”.

Tuttavia, gli indirizzi IP sorgente e destinazione sono stringhe e, nel contesto dell’apprendimento automatico, sono variabili “categorical”. Una variabile è categorical nel caso in cui la sua gamma di valori possibili è un insieme di livelli (categorie).

Sebbene “source port”, “destination port”, “protocolo” e “type” siano rappresentati come numeri interi, in realtà sono variabili categorial.

Inoltre, non essendo ordinali, non presentano alcun senso di ordine o scala (per esempio, la porta 59528 non è successiva o più grande della porta 53).

Per comprendere l’importanza della distinzione tra variabili numeriche e categoriche, è sufficiente osservare i punti rappresentati nella Figura 1.

La funzione che ha generato i dati è chiaramente lineare. Pertanto, potremmo adattare un modello lineare e utilizzarlo per prevedere i punti futuri. Le variabili di input categorial non ordinali (come gli indirizzi IP, i numeri di port e i protocolli) rappresentano una difficoltà per il machine learning, in quanto manca un senso di ordine o di scala su cui fare leva.

Questa criticità ci costringe a utilizzare le statistiche e gli avvisi di superamento di soglia nelle applicazioni Soc.



Un’altra criticità correlata è rappresentata dal fatto che i dati informatici hanno spesso una notazione debole della distanza.
Come quantificare la distanza tra i due log NetFlow

Per esempio, vediamo come si può quantificare la distanza tra i due log NetFlow della Tabella 2.

Per la variabile numerica “duration”, la distanza tra i due log è data da 19,417 – 7,639, ovvero 11,787 millisecondi.

Tuttavia non esiste una nozione simile di distanza tra le due “port”, così come per le altre variabili categorical.


Come misurare la verosimiglianza tra i logs con variabili categorical

Esistono diverse tecniche per misurare la verosimiglianza tra i logs con variabili categorical.

Per esempio, si potrebbe contare il numero di campi di valore equivalente tra i due logs. I logs che presentano più valori in comune sono in un certo senso più simili tra loro. Grazie a questa regola in grado di misurare quantitativamente la distanza, è possibile creare un clustering non supervisionato per scoprire i cluster naturali di logs all’interno dei dati.

Si spera che questi raggruppamenti siano cyber-significativi, come il raggruppamento in base all’applicazione che ha generato ciascun log, come mostra la Figura 2. Tuttavia, nella pratica, tali raggruppamenti cyber-significativi non si verificano senza un po’ di persuasione.

Un esempio di apprendimento automatico cyber-informato consiste nel trasferire l’esperienza umana nel processo di apprendimento automatico.

Come integrare la conoscenza umana in una pipeline di ML

Nella Figura 3 è rappresentato il modo in cui è possibile integrare la conoscenza umana in una pipeline di ML. Invece di eseguire la clusterizzazione di tutti i log senza alcuna preelaborazione, i data scientist possono richiedere ai cyber-analisti le relazioni e i tipi di cluster che conoscono e che desiderano approfondire.

Per esempio, potrebbero essere interessanti i port, la direzione del flusso e la volumetria dei pacchetti. In questo caso, si potrebbero prepartizionare i log in base a questi campi e poi eseguire un clustering sui bin risultanti per comprenderne la composizione.

Sebbene la comprensibilità dei dati per l’uomo sia il tipo di comprensibilità più noto, ancora oggi sono presenti delle criticità dovute ai dati informatici.


A complicare ulteriormente la situazione, vi è il grande volume di dati generato dai processi informatici. È quindi fondamentale coinvolgere i cyber analisti nel processo di analisi, in modo da integrare le loro competenze e migliorare il processo di apprendimento.

Comprensione del modello da parte dell’uomo

La comprensione del modello da parte dell’uomo cerca di rispondere alle domande: cosa mi sta dicendo il modello e perché?

Un caso d’uso comune nel Soc è comprendere il motivo per cui un rilevatore di anomalie segnala un determinato evento. Per evitare di aumentare il carico di allarmi che già grava sugli analisti del SOoc, è fondamentale che i sistemi di ML implementati nel Soc siano comprensibili all’uomo.

Man mano che un numero sempre maggiore di organizzazioni implementa l’ML negli ambienti di produzione, la necessità che i modelli siano comprensibili per gli esseri umani diventa sempre più impellente.

Il Gdpr e i regolamenti europei e nazionali sottolineano l’importanza di rendere i modelli comprensibili e trasparenti agli esseri umani.

White box o black box

I modelli di ML possono essere classificati come white box o black box, a seconda della facilità con cui è possibile visualizzare, esaminare e interpretare i loro parametri.

I modelli white box sono completamente interpretabili e le loro previsioni possono essere comprese con precisione. Va tuttavia notato che anche i modelli white box potrebbero non essere interpretabili, soprattutto quando diventano molto grandi e complessi.

I modelli white box includono:la regressione lineare;
la regressione logistica;
l’albero decisionale;
i metodi basati sui vicini (per esempio: k-nearest neighbor).

Questi modelli non sono interpretabili e la base delle loro previsioni deve essere dedotta indirettamente attraverso metodi come l’analisi dell’importanza globale e locale delle caratteristiche.

I modelli black box

Essi includono reti neurali, metodi di ensemble (come il random forest, l’isolation forest e l’XGBOOST) e metodi basati su kernel (come il support vector machine).

Un esempio di modello predittivo white box

Un esempio di modello predittivo white box è l’albero decisionale che garantisce un’alta comprensibilità del modello e di ogni sua previsione.

Le regole di un albero decisionale

Dopo la fase di addestramento, le regole di un albero decisionale possono essere implementate direttamente nelle soluzioni software senza dover ricorrere al modello ML.

Queste regole possono essere presentate visivamente sotto forma di albero (Figura 4 – white-box), il che facilita la comunicazione con gli stakeholder non tecnici.
L’ispezione dell’albero fornisce indicazioni rapide e intuitive sulle caratteristiche che il modello stima essere maggiormente predittive della risposta.


Sebbene i modelli complessi come le reti neurali (Figura 4 – “black box”) possano simulare sistemi complessi con maggiore precisione, non è sempre così facile.

L’indagine

Per esempio, una survey accademica [3] ha messo a confronto le prestazioni di varie forme di modello sviluppate da molti ricercatori su numerosi set di dati di riferimento per la sicurezza informatica.

L’indagine ha evidenziato che i modelli più semplici, come gli alberi decisionali, spesso hanno prestazioni simili a quelle dei modelli più complessi, come le reti neurali.

Quando i modelli più complessi superano quelli più interpretabili, si verifica un compromesso: il miglioramento delle prestazioni avviene a scapito di una minore comprensibilità.

Tuttavia, l’indagine di Xin e degli altri ricercatori mostra anche che il miglioramento delle prestazioni è spesso incrementale e, in questi casi, gli architetti di sistema dovrebbero favorire il modello interpretabile per garantire la comprensibilità del modello da parte dell’uomo.

Comprensione dell’uomo da parte del modello

L’obiettivo è consentire agli utenti finali di influenzare un modello addestrato esistente e di comprenderne il funzionamento. Si consideri, per esempio, un analista Soc che voglia dire al modello di rilevamento delle anomalie di non allertare più su un particolare tipo di log perché si tratta di un falso positivo.

Poiché gli utenti finali spesso non hanno competenze specifiche in materia di dati, una parte fondamentale della comprensione “uomo-modello” consiste nell’integrazione di aggiustamenti di un modello predittivo basato sui giudizi espressi dagli analisti Soc.

Questa è la forma meno matura di comprensione e richiede ulteriori studi e approfondimenti.

L’esempio della fase di codifica di una pipeline ML

Un esempio è rappresentato dalla fase di codifica di una pipeline ML. Si ricorda che l’apprendimento automatico richiede caratteristiche numeriche, ma i dati cyber includono molte caratteristiche categorical.

La codifica è una tecnica che consente di trasformare le caratteristiche categorical in caratteristiche numeriche.

Per esempio: la codifica dei numeri interi potrebbe assegnare a ciascun indirizzo IP un numero intero arbitrario. Questo approccio è inappropriato, pertanto è opportuno lavorare con l’analista SOC per sviluppare strategie di codifica cyber-significative.

Per esempio, si potrebbero raggruppare gli indirizzi IP in base a criteri come la provenienza geografica o le informazioni sulle minacce. In questo modo, si fornirebbero competenze informatiche alla pipeline della scienza dei dati e questo rappresenterebbe un esempio di comprensione da modello a uomo.
Il paradigma Physics-Informed machine learning

Per risolvere questa criticità, si prende ispirazione da un paradigma chiamato Physics-Informed machine learning [4], che consente di utilizzare il machine learning (ML) in alcune applicazioni ingegneristiche.

In fisica, le equazioni descrivono leggi naturali come la conservazione della massa e dell’energia. Queste equazioni sono incorporate nei modelli utilizzati per l’analisi ingegneristica.

Se li esercitassimo su un ampio spazio di progettazione, potremmo utilizzare i dati risultanti (gli input mappati sugli output) per addestrare i modelli di apprendimento automatico (ML).

Questo è un esempio di come l’esperienza umana nel campo della fisica possa essere trasferita ai modelli di apprendimento automatico (ML).

La competenza degli esperti

Nel campo della sicurezza informatica non si dispone di modelli matematici che descrivano in modo stabile il comportamento dei sistemi e degli utenti, ma è possibile avvalersi della competenza degli esperti del settore.

Gli analisti informatici basano le proprie conoscenze, i propri ragionamenti e i propri intuiti sull’esperienza maturata. Esistono anche le cyber-analisi, che sono forme codificate dell’esperienza umana.

Come per la comunità della fisica, anche la sicurezza informatica ha bisogno di metodi che consentano di sfruttare l’ampia esperienza umana per influenzare i modelli di apprendimento automatico utilizzati.

Raccomandazioni pratiche per l’uso del machine learning nella cyber security

I metodi di comprensione dei dati per l’uomo sono relativamente maturi. Le organizzazioni che volessero trarre il massimo dai propri dati, potrebbero avvalersi dei metodi e degli strumenti della ricerca già esistenti.

La comprensibilità del modello per gli esseri umani può essere notevolmente migliorata assegnando, almeno nelle prime fasi di adozione, un data scientist che fornisca supporto agli utenti finali dell’ML in caso di dubbi.

Inoltre, è utile che l’azienda sviluppi internamente le proprie competenze in materia di sicurezza informatica. Infine, gli utenti finali possono rivolgersi ai fornitori di software di sicurezza per verificare se i loro strumenti di ML siano spiegabili.

I modelli di ML dovrebbero almeno riportare l’importanza delle caratteristiche, indicando quali dati di input sono più influenti per il modello.

Sebbene la ricerca sui metodi di comprensione human-to-model nella cyber security sia ancora in fase embrionale, è possibile intraprendere alcune azioni immediate.

Gli utenti finali possono richiedere ai loro fornitori di software di sicurezza di calibrare i loro strumenti di ML sulla base dei feedback ricevuti.

I Soc potrebbero anche prendere in considerazione la possibilità di raccogliere gli avvisi benigni smaltiti tramite indagini manuali in un database strutturato per la futura calibrazione del modello.

Infine, la riqualificazione di un modello è una forma di calibrazione e, pertanto, valutare quando e come i modelli Soc vengono riqualificati può aiutare a influenzarne le prestazioni.
Bibliografia


[2] Mellon, J.; Worrel, C.,”Explainability in Cybersecurity Data Science”.


[4] Karniadakis et al., “Physics-informed machine learning”.

Gli hacker russi prendono di mira i siti web dello Stato rumeno il giorno delle elezioni

Un gruppo di hacktivisti legato alla Russia, noto come NoName057(16), ha rivendicato la responsabilità degli attacchi informatici su diversi...