Trace Id is missing

Scoprire le minacce informatiche e rafforzare le difese nell'era dell'IA

Un gruppo di persone in piedi su blocchi

Problema 6 Cyber Signals

Ogni giorno più di 2,5 miliardi di rilevamenti basati sull'intelligenza artificiale e sul cloud proteggono i clienti di Microsoft.

Oggi il mondo della cybersecurity sta attraversando una trasformazione su larga scala. L'intelligenza artificiale (IA) è all'avanguardia in questo cambiamento, rappresentando sia una minaccia che un'opportunità. Mentre l'IA ha il potenziale per aiutare le organizzazioni a sconfiggere i cyberattacchi velocemente e promuovere l'innovazione e l'efficienza nel rilevamento delle minacce, nella ricerca e nella risposta agli incidenti, gli antagonisti possono usare l'IA nei loro exploit. Non è mai stato così necessario per noi progettare, distribuire e usare l'IA in modo sicuro.

Microsoft sta esplorando il potenziale dell'IA per migliorare le nostre misure di sicurezza, rendere disponibili soluzioni di protezione nuove e avanzate e creare software migliori. Con l'intelligenza artificiale, abbiamo il potenziale per adattarci alle minacce in continua evoluzione, rilevare istantaneamente le anomalie, rispondere velocemente per neutralizzare i rischi e personalizzare le difese in base alle esigenze di un'organizzazione.

L'IA può anche aiutarci a superare un'altra delle principali difficoltà del settore. Di fronte alla carenza di personale addetto alla cybersecurity globale, con circa 4 milioni di professionisti di sicurezza informatica necessari a livello mondiale, l'IA ha il potenziale per diventare uno strumento centrale per colmare il divario di talenti e per contribuire all'aumento della produttività dei difensori.

Abbiamo già constatato in uno studio come Copilot per la sicurezza può supportare gli analisti della sicurezza a prescindere dal loro livello di competenze: in tutte le attività, i partecipanti sono stati il 44% più precisi e il 26% più veloci.

Mentre facciamo del nostro meglio per proteggere il futuro, dobbiamo assicurarci di bilanciare la preparazione all'IA in modo sicuro e l'utilizzo dei suoi vantaggi, perché l'IA è in grado di aumentare il potenziale umano e risolvere alcuni dei nostri problemi più gravi.

Un futuro più sicuro con l'IA richiede avanzamenti fondamentali nell'ingegneria del software. Richiede che comprendiamo e contrastiamo le minacce basate sull'IA come componenti essenziali di qualsiasi strategia di sicurezza. E dobbiamo lavorare insieme per creare solide collaborazioni e partnership nei settori pubblico e privato per combattere gli utenti malintenzionati.

Nell'ambito di questo impegno e della nostra Secure Future Initiative, oggi OpenAI e Microsoft pubblicano una nuova intelligenza con informazioni dettagliate sui tentativi degli attori di minacce di testare ed esplorare l'utilità dei modelli linguistici di grandi dimensioni (LLM) nelle tecniche di attacco.

Ci auguriamo che queste informazioni siano utili per vari settori mentre facciamo del nostro meglio per garantire un futuro più sicuro. Perché, alla fine, siamo tutti dei difensori.

Bret Arsenault, 
CVP, Chief Cybersecurity Advisor

Guarda il briefing digitale di Cyber Signals in cui Vasu Jakkal, Corporate Vice President of Microsoft Security Business, intervista i principali esperti di intelligence sulle minacce riguardo gli attacchi informatici nell'era dell'IA, i modi in cui Microsoft sta usando l'IA per una maggiore sicurezza e le azioni che possono compiere le organizzazioni per rafforzare le difese.

Gli utenti malintenzionati esplorano le tecnologie basate sull'IA

Il panorama delle minacce informatiche sta diventando sempre più complesso mentre gli utenti malintenzionati diventano sempre più motivati, più sofisticati e meglio equipaggiati. Gli attori di minacce e i difensori guardano all'IA, compresi i modelli LLM, per migliorare la loro produttività e usufruire di piattaforme accessibili che potrebbero adattarsi ai loro obiettivi e alle loro tecniche di attacco.

Considerando il panorama delle minacce in rapida evoluzione, oggi annunciamo i principi di Microsoft che guidano le nostre azioni per ridurre il rischio di attori di minacce, tra cui minacce persistenti avanzate (APT), manipolatori persistenti avanzati (APM) e gruppi di criminali informatici, usando API e piattaforme basate sull'IA. Questi principi includono l'identificazione e l'azione contro gli attori di minacce che usano l'IA, la notifica ad altri provider di servizi IA, la collaborazione con altri stakeholder e la trasparenza.

Anche se le motivazioni e la sofisticazione degli attori di minacce cambiano, hanno in comune delle attività quando lanciano i loro attacchi. Ad esempio, la ricognizione, come la ricerca dei settori, delle posizioni e delle relazioni delle potenziali vittime; la codifica, compreso il miglioramento dello sviluppo dei malware e degli script software; l'assistenza con l'apprendimento e l'utilizzo di linguaggi umani e informatici.

Gli stati-nazione tentano di sfruttare l'IA

In collaborazione con OpenAI, stiamo condividendo un'intelligence sulle minacce che mostra gli antagonisti affiliati agli stati rilevati (Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon e Salmon Typhoon) che usano i modelli LLM per intensificare le operazioni informatiche.

L'obiettivo della partnership di ricerca tra Microsoft e OpenAI è quello di garantire l'utilizzo sicuro e responsabile delle tecnologie basate sull'IA come ChatGPT, rispettando i più elevati standard in materia di applicazione etica per proteggere la comunità da potenziali usi impropri.

Notifica tramite e-mail: documento da rivedere e firmare il 7 novembre 2023
Forest Blizzard (STRONTIUM), un attore di intelligence militare russo altamente efficace collegato alla Direzione generale dell'Unità GRU 26165 o dello Stato Maggiore Generale delle forze armate russe, ha colpito vittime di interesse tattico e strategico per il governo russo. Le sue attività abbracciano una varietà di settori tra cui difesa, trasporti/logistica, enti pubblici, energia, ONG e IT (information technology).
Emerald Sleet (Velvet Chollima) è un attore di minacce nordcoreano; Microsoft ha scoperto che la sua tattica consiste nello spacciarsi per rispettabili istituzioni accademiche e ONG per indurre le vittime a rispondere con dati analitici e commenti di esperti sulle politiche straniere in relazione alla Corea del Nord.

L'uso di modelli LLM da parte di Emerald Sleet ha implicato la ricerca di think tank ed esperti sulla Corea del Nord, oltre alla creazione di contenuti usati probabilmente in campagne di spear phishing. Inoltre, Emerald Sleet ha interagito con i modelli LLM per comprendere le vulnerabilità pubblicamente note, risolvere problemi tecnici e ottenere assistenza con l'utilizzo di varie tecnologie del Web.

Crimson Sandstorm (CURIUM) è un attore di minacce iraniano che si ritiene sia collegato al Corpo delle guardie della rivoluzione islamica o IRGC (Islamic Revolutionary Guard Corps). I modelli LLM sono stati utilizzati per richieste di supporto in merito all'ingegneria sociale, assistenza nella risoluzione dei problemi, sviluppo .NET e modi con cui un utente malintenzionato potrebbe eludere i sistemi di rilevamento in un computer compromesso.
Charcoal Typhoon (CHROMIUM) è un attore di minacce affiliato alla Cina concentrato principalmente sul monitoraggio di gruppi a Taiwan, in Thailandia, Mongolia, Malesia, Francia, Nepal e singoli individui su scala globale che si oppongono alle politiche della Cina. In operazioni recenti, è stato constatato che Charcoal Typhoon si serve di modelli LLM per ottenere dati analitici sulla ricerca per comprendere tecnologie, piattaforme e vulnerabilità specifiche, che indicano fasi di raccolta delle informazioni preliminari.

Un altro gruppo che si trova in Cina, Salmon Typhoon, ha valutato l'efficacia dell'uso di modelli LLM per tutto il 2023 per procurasi informazioni su argomenti potenzialmente sensibili, personalità di alto profilo, geopolitica regionale, influenza degli Stati Uniti e affari interni. Questo utilizzo preliminare di modelli LLM potrebbe riflettere un ampliamento del suo toolkit per la raccolta di informazioni e una fase sperimentale nella valutazione delle capacità delle tecnologie emergenti.

La nostra ricerca con OpenAI non ha identificato attacchi significativi che impiegano i modelli LLM che monitoriamo attentamente.

Abbiamo adottato misure per interrompere gli asset e gli account associati a questi attori di minacce e plasmare i meccanismi di difesa e sicurezza in base ai nostri modelli.

Nuove minacce basate sull'IA

Le frodi basate su intelligenza artificiale sono un'altra preoccupazione di importanza critica. La sintesi vocale ne è un esempio, dove un campione vocale di tre secondi può eseguire il training di un modello per riprodurre la voce di chiunque. Perfino qualcosa di innocuo come il messaggio vocale della tua segreteria telefonica può essere usato per ottenere un campionamento sufficiente.

Gran parte del modo in cui interagiamo con gli altri e conduciamo le nostre attività si basa sulla verifica dell'identità, come il riconoscimento della voce, del volto, dell'indirizzo e-mail o dello stile di scrittura di una persona.

È fondamentale che comprendiamo come gli attori malintenzionati utilizzano l'IA per indebolire i sistemi di verifica dell'identità di vecchia data affinché possiamo affrontare casi di frodi complessi e altre minacce di ingegneria sociale emergenti che oscurano le identità.

L'IA può essere usata anche per consentire alle aziende di bloccare i tentativi di frode. Anche se Microsoft ha interrotto il nostro impegno con un'azienda in Brasile, i nostri sistemi di IA hanno rilevato i suoi tentativi di ricostituirsi per rientrare nel nostro ecosistema.

Il gruppo ha continuato a provare a offuscare le sue informazioni, nascondere le radici della proprietà e rientrare, ma i nostri sistemi di rilevamento con IA hanno sfruttato quasi una dozzina di segnali di rischio per contrassegnare l'azienda fraudolenta e associarla al comportamento sospetto precedentemente riconosciuto, per poi bloccare i suoi tentativi.

Microsoft si impegna per una IA gestita da persone che garantisce privacy e sicurezza grazie a operatori che forniscono una supervisione, valutano i ricorsi e interpretano politiche e regolamenti.

Istruisci i dipendenti e il pubblico in merito ai rischi informatici:
  • Usa criteri di accesso condizionale: questi criteri forniscono indicazioni chiare e con distribuzione automatica per rafforzare la postura di sicurezza proteggendo automaticamente i tenant in base ai segnali di rischio, alle licenze e all'utilizzo. I criteri di accesso condizionale sono personalizzabili e si adattano al panorama delle minacce informatiche in evoluzione.
  • Istruisci i dipendenti in merito alle tattiche di ingegneria sociale: insegna ai dipendenti e al pubblico a riconoscere e reagire a email di phishing, vishing (segreteria telefonica), smishing, attacchi di ingegneria sociale (SMS/testo), e ad applicare le procedure consigliate di sicurezza per Microsoft Teams.
  • Proteggi rigorosamente i dati: assicurati che i dati siano sempre privati e controllati.
  • Sfrutta strumenti di sicurezza con IA generativa: strumenti come Microsoft Copilot per la sicurezza possono espandere le capacità e migliorare la postura di sicurezza dell'organizzazione.
  • Abilita l'autenticazione a più fattori: abilita l'autenticazione a più fattori per tutti gli utenti, soprattutto per le funzioni amministrative, poiché riduce il rischio di acquisizione degli account di più del 99%.

Difendersi dagli attacchi

Microsoft previene le minacce grazie a una sicurezza completa combinata all'IA generativa

Microsoft rileva un'enorme quantità di traffico dannoso, più di 65 miliardi di segnali di cybersecurity al giorno. L'IA sta migliorando la nostra capacità di analizzare queste informazioni e garantire che i dati analitici più importanti vengano sfruttati per arrestare le minacce. Inoltre, usiamo l'intelligence di tali segnali per alimentare l'IA generativa per la protezione dalle minacce avanzata, la sicurezza dei dati e la sicurezza delle identità per aiutare i difensori a rilevare quello che sfugge agli altri.

Microsoft usa diversi modi per proteggere se stessa e i clienti dalle minacce informatiche, tra cui il rilevamento delle minacce con IA per individuare cambiamenti nella modalità di utilizzo delle risorse o del traffico sulla rete; l'analisi del comportamento per rilevare accessi a rischio e comportamenti anomali; modelli di apprendimento automatico per rilevare accessi a rischio e malware; modelli Zero Trust dove ogni richiesta di accesso deve essere completamente autenticata, autorizzata e crittografata; e la verifica dell'integrità dispositivi prima che un dispositivo possa connettersi a una rete aziendale.

Gli attori di minacce sono consapevoli che Microsoft usa rigorosamente l'autenticazione a più fattori (MFA) per proteggere se stessa (tutti i nostri dipendenti si avvalgono della MFA o della protezione senza password), quindi abbiamo constatato che gli utenti malintenzionati si affidano all'ingegneria sociale per cercare di compromettere i nostri dipendenti.

Le aree di maggior interesse in questo senso includono quelle in cui vengono trasmesse cose di valore, ad esempio versioni di valutazione gratuite o offerte promozionali di servizi o prodotti. In queste aree, agli utenti malintenzionati non fa comodo rubare un abbonamento alla volta, quindi tentano di operazionalizzare e scalare gli attacchi senza essere rilevati.

Naturalmente, creiamo modelli di intelligenza artificiale per rilevare tali attacchi per Microsoft e i nostri clienti. Rileviamo account di istituti di istruzione e studenti falsi, aziende o organizzazioni false che hanno alterato i propri dati firmografici o nascosto le proprie identità reali per eludere le sanzioni, aggirare i controlli o nascondere violazioni passate come condanne per corruzione, tentativi di furto e così via.

L'uso di GitHub Copilot, Microsoft Copilot per la sicurezza e altre funzionalità di chat di Copilot integrate nella nostra infrastruttura interna per ingegneria e operazioni aiuta a prevenire gli incidenti che potrebbero avere un impatto sulle operazioni.

Risultati del sondaggio sui rischi dell'IA generativa: problema principale della privacy dei dati, 42%

Per far fronte alle minacce relative alla posta elettronica, Microsoft sta migliorando le capacità di raccolta dei segnali dietro la composizione di un'email per capire se è dannosa. Con l'IA nelle mani degli attori di minacce, c'è stato un afflusso di email scritte perfettamente con meno errori grammaticali e linguistici ovvi che spesso rivelano i tentativi di phishing, rendendo questi attacchi più difficili da rilevare.

Una formazione continua dei dipendenti e le campagne di sensibilizzazione pubbliche sono necessarie per contrastare l'ingegneria sociale, che è la leva che si appoggia al 100% sull'errore umano. La storia ci ha insegnato che le campagne di sensibilizzazione pubbliche efficaci riescono a cambiare il comportamento.

Microsoft anticipa che l'IA farà evolvere le tattiche di ingegneria sociale, creando attacchi più sofisticati tra cui deepfake e clonazione della voce, soprattutto se gli utenti malintenzionati utilizzeranno tecnologie basate sull'intelligenza artificiale senza procedure responsabili e controlli di sicurezza integrati.

La prevenzione è la chiave per combattere tutte le minacce informatiche, tradizionali o basate sull'IA.

Consigli:

Applica i controlli IA e valuta continuamente la loro idoneità: per qualsiasi IA introdotta nella tua azienda, cerca le funzionalità integrate dei rispettivi fornitori per limitare l'accesso dell'intelligenza artificiale ai dipendenti e ai team che usano la tecnologia e promuovere in questo modo un'adozione dell'IA sicura e conforme. Raccogli gli stakeholder relativi ai rischi informatici in un'organizzazione per essere allineati sui controlli di accesso e sui casi d'uso dei dipendenti definiti dall'IA. I responsabili dei rischi e i CISO devono determinare regolarmente se i casi d'uso e i criteri sono adeguati o se devono essere modificati man mano che obiettivi e informazioni cambiano.
Proteggiti dagli inserimenti di richieste:  implementa procedure rigorose di convalida e bonifica degli input per le richieste fornite dagli utenti. Usa il filtro in base al contesto e la codifica dell'output per prevenire la manipolazione delle richieste. Aggiorna e perfeziona regolarmente i modelli LLM per migliorare la loro comprensione di input dannosi e casi limite. Monitora e registra le interazioni con i modelli LLM per rilevare e analizzare potenziali tentativi di inserimento di richieste.
Richiedi la trasparenza nella catena di approvvigionamento dell'IA: attraverso pratiche chiare e aperte, valuta tutte le aree in cui l'IA può venire in contatto con i dati dell'organizzazione, anche tramite fornitori e partner di terze parti. Usa i team addetti ai rischi informatici interfunzionali e alle relazioni con i partner per consultare le informazioni e colmare eventuali lacune individuate. Mantenere programmi di governance dei dati e Zero Trust regolari è più importante che mai nell'era dell'IA.
Concentrati sulle comunicazioni: i responsabili dei rischi informatici devono riconoscere che i dipendenti stanno vedendo l'impatto e i benefici dell'IA nelle proprie vite personali e naturalmente vogliono considerare l'applicazione di tecnologie simili in ambienti di lavoro ibrido. I CISO e altri dirigenti che gestiscono i rischi informatici possono condividere e amplificare in modo proattivo le politiche delle loro organizzazioni in merito all'uso e ai rischi dell'IA, compreso quali strumenti di IA designati sono approvati per l'azienda e i punti di contatto per l'accesso e le informazioni. Le comunicazioni proattive fanno sì che i dipendenti siano sempre aggiornati e supportati, riducendo il rischio che un'IA non gestita entri in contatto con le risorse IT aziendali.

Gli strumenti tradizionali non tengono più il passo delle minacce dei criminali informatici. La velocità, la scalabilità e la sofisticazione sempre maggiori dei recenti cyberattacchi richiedono un nuovo approccio alla sicurezza. Inoltre, data la carenza di personale nella cybersecurity, e con minacce informatiche sempre più frequenti e gravi, colmare questa lacuna di competenze è una priorità assoluta.

L'IA può far pendere l'ago della bilancia in favore dei difensori. Uno studio recente di Microsoft Copilot per la sicurezza (attualmente in fase di test in anteprima per i clienti) ha mostrato un incremento della velocità e della precisione degli analisti della sicurezza, a prescindere dal loro livello di competenze, in attività comuni come l'identificazione di script usati dagli utenti malintenzionati, la creazione di report sugli incidenti e l'identificazione di procedure di rimedio appropriate.1

  • 44% di precisione in più in tutte le attività per gli utenti di Copilot per la sicurezza1
  • 26% di velocità in più in tutte le attività per gli utenti di Copilot per la sicurezza1
  • Il 90% degli intervistati ha dichiarato di volere Copilot la prossima volta in cui si occuperanno della stessa attività1
  1. [1]

    Metodologia:1 I dati dell'istantanea rappresentano una versione di valutazione controllata casuale (RCT), dove abbiamo testato 149 persone per misurare l'impatto sulla produttività con l'uso di Microsoft Copilot per la sicurezza. In questa RCT, abbiamo dato casualmente Copilot solo ad alcuni analisti e poi abbiamo sottratto le loro prestazioni e sentiment per ottenere l'effetto di Copilot, separato da qualsiasi effetto di base. I soggetti del test avevano competenze IT di base, ma non avevano alcuna esperienza nella sicurezza, quindi abbiamo potuto testare come Copilot aiuta gli analisti "novizi". La RCT di Microsoft Copilot per la sicurezza è stata condotta da Microsoft Office of the Chief Economist, novembre 2023. Inoltre, Microsoft Entra ID ha fornito dati anonimizzati sull'attività delle minacce, come account e-mail dannosi, e-mail di phishing e il movimento degli utenti malintenzionati nelle reti. Ulteriori informazioni derivano dai 65 bilioni di segnali di sicurezza quotidiani ottenuti tramite Microsoft, tra cui il cloud, gli endpoint, la rete perimetrale intelligente, i nostri team addetti alle pratiche di recupero in caso di violazioni della sicurezza e addetti al rilevamento e alla risposta alle minacce, la telemetria di piattaforme e servizi Microsoft tra cui Microsoft Defender e il Report sulla difesa digitale Microsoft del 2023.

Articoli correlati

Tenere il passo degli attori di minaccia nell'era dell'IA

Microsoft, in collaborazione con OpenAI, pubblica la ricerca sulle minacce emergenti nell'era dell'IA, concentrandosi sulle attività identificate associate a noti attori di minacce come Forest Blizzard, Emerald Sleet e Crimson Sandstorm. Le attività osservate includono inserimenti di richieste, tentativi di uso improprio di modelli linguistici di grandi dimensioni (LLM) e frode.

Profilo dell'esperto: Homa Hayatyfar

Homa Hayatyfar, Principal Data & Applied Science Manager, descrive l’uso dei modelli di Machine Learning per rinforzare le difese come solo uno dei molti modi in cui l’intelligenza artificiale sta cambiando la sicurezza come la conosciamo.

La sicurezza è valida solo quanto l'intelligence sulle minacce

Sono arrivati i rinforzi. John Lambert, esperto di intelligence sulle minacce spiega come l'IA aiuti la community delle intelligence sulle minacce.