Contatti
Opinioni

Uniti nel nome della cyberdifesa

, di Greta Nasi - direttrice del MSc in Cyber risk strategy and corporate governance
Le nuove tecnologie basate sull'apprendimento automatico consentono vantaggi in attivita' che richiedono tempo, come l'analisi di grandi quantita' di log. Poiche' impiegano moltissimi dati, pero', e' assolutamente necessario garantirne la sicurezza e la privacy

La sicurezza informatica richiede la gestione di diversi processi, tra cui la scansione, l'analisi dei log, la risposta agli incidenti e il rilevamento delle minacce. Questi processi possono richiedere molto tempo e lavoro, in quanto gli analisti della sicurezza devono dedicare molto tempo alla revisione e all'analisi dei dati. L'automazione può contribuire a snellire questi processi riducendo la necessità di interventi manuali, consentendo ai team di sicurezza di rispondere in modo più rapido ed efficiente agli incidenti di sicurezza. Con l'aumento della diffusione e della potenza delle tecnologie di intelligenza artificiale (AI), che favoriscono la trasformazione digitale grazie a capacità decisionali automatizzate, la loro applicazione è in rapida crescita.

Se da un lato i vantaggi di questa tecnologia emergente sono significativi, dall'altro ci sono anche delle preoccupazioni da tenere presenti. Le tecniche e i sistemi di IA possono produrre risultati inaspettati ed essere soggetti a manomissioni che potrebbero manipolare i risultati attesi. Di conseguenza, la cybersicurezza e l'intelligenza artificiale sono sempre più intrecciate. Da un lato, l'IA può migliorare la cybersecurity identificando e mitigando le minacce in modo più efficace. Dall'altro, l'IA stessa può essere vulnerabile agli attacchi informatici che potrebbero compromettere dati e sistemi (Li, 2018).

I vantaggi dell'IA nella cybersecurity sono numerosi (Floridi e Taddeo, 2018). L'IA può aiutare ad automatizzare le attività, a identificare le anomalie in tempo reale e a rispondere alle minacce informatiche con maggiore velocità ed efficienza. Un processo critico nella cybersecurity è il rilevamento e la risposta alle minacce, che comporta l'identificazione e la risposta a potenziali minacce e attacchi informatici. L'obiettivo è rilevare attività sospette o comportamenti anomali su una rete di computer, un sistema o un'applicazione e rispondere rapidamente per ridurre il rischio, minimizzare i possibili danni e prevenire ulteriori danni. Si tratta di un monitoraggio ripetitivo e continuo di sistemi e reti per identificare comportamenti insoliti che minacciano la continuità aziendale. Le tecnologie avanzate di rilevamento delle minacce includono algoritmi di apprendimento automatico e AI. Questi possono aiutare ad automatizzare le attività di rilevamento delle minacce e di analisi comportamentale ed essere addestrati a identificare modelli e anomalie nel traffico di rete, rispondendo alle minacce informatiche in modo accurato e rapido.

Le tecnologie AI sono attualmente impiegate anche nella gestione delle vulnerabilità per identificare i rischi tecnici nei sistemi hardware e software, consentendo alle organizzazioni di applicare patch e aggiornamenti prima che gli aggressori possano sfruttarli. Le organizzazioni che impiegano reti informatiche complesse, come l'operatore di un'infrastruttura critica che governa una centrale elettrica, possono beneficiare in modo significativo di queste tecnologie, poiché la scansione manuale delle vulnerabilità non sarebbe fattibile.

Nel complesso, l'IA può potenzialmente trasformare le operazioni di cybersecurity in futuro. Tuttavia, la sua implementazione presenta delle sfide. Queste includono la necessità di professionisti più qualificati, l'importanza di una solida governance dei dati organizzativi e il potenziale di violazione o manipolazione dell'IA. Le tecnologie AI offrono molti vantaggi nel migliorare la cybersecurity e altri compiti e processi che di solito richiedono l'intelligenza umana in termini di automazione, miglioramento del processo decisionale, esperienza personalizzata in base alle preferenze degli utenti e aumento della sicurezza in diversi settori come la politica alimentare, i trasporti e l'assistenza sanitaria. Tuttavia, esse pongono anche alcune sfide in termini di sicurezza.

In primo luogo, le tecnologie AI si basano fortemente sui dati per apprendere e prendere decisioni. La sicurezza e la privacy dei dati sono fondamentali (Zhang et al, 2019). Supponiamo che i dati sensibili siano compromessi o accessibili da parti non autorizzate. In tal caso, possono essere utilizzati per avviare violazioni dei dati che possono avere diversi scopi, come attacchi informatici, spionaggio industriale, lancio di campagne di disinformazione e altri incidenti di sicurezza. Inoltre, può essere difficile capire come alcuni sistemi di IA prendono le decisioni. Ciò richiede una maggiore trasparenza per garantire l'identificazione dei potenziali rischi per la privacy e la sicurezza.

In secondo luogo, i modelli di IA possono essere parziali, portando a risultati non voluti o addirittura discriminatori. I problemi di parzialità e di equità possono portare gli algoritmi di IA a prendere decisioni errate, che diventano dannose nel caso di attacchi avversari che prendono di mira i modelli di IA per manipolare i dati che utilizzano per apprendere e prendere decisioni.

Per affrontare queste sfide, è essenziale implementare misure rigorose di privacy e sicurezza per gestire i dati in modo appropriato e garantire l'equità e la trasparenza dei sistemi di IA, assicurando al contempo la supervisione e l'intervento umano. Tutte le organizzazioni che utilizzano le tecnologie di IA devono adottare politiche e procedure di sicurezza adeguate e specifiche per l'IA, investire nella formazione e nella sensibilizzazione dei professionisti dell'IA in materia di sicurezza e sottoporre regolarmente i propri sistemi di IA a verifiche e test per identificare le vulnerabilità e affrontare i problemi.