AI e sicurezza dei dati: le corrette tassonomie dei rischi

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Carta di credito con fido

Procedura celere

 


Per tassonomia del rischio si intende, generalmente, un insieme completo, compreso e condiviso di categorie di rischio utilizzate all’interno di una comunità, o anche di un’organizzazione, che supporta la classificazione e l’identificazione dei rischi, intesi quali combinazione degli effetti di eventi incerti che potrebbero influire sugli obiettivi.

I vantaggi del risk based approach

Individuare i rischi specifici in un certo contesto, infatti, non è affatto semplice, e adottare un processo di ricognizione partendo da categorie a più alto livello, per gradi, riesce ad aiutare a svolgere meglio i necessari passaggi.

Una tassonomia del rischio, meglio se standardizzata, può quindi migliorare la comunicazione fornendo una terminologia comune, migliorare l’identificazione e l’analisi del rischio, snellire i processi della più ampia gestione del rischio, e aumentare in molti casi la conformità a normative, regolamentazioni, supportando un processo decisionale informato attraverso la categorizzazione e l’analisi strutturata del rischio.

Finanziamenti personali e aziendali

Prestiti immediati

 

Le organizzazioni, dunque, possono trarre benefici nel raggiungimento dei propri obiettivi mediante strategie di riduzione dei rischi, tanto più che da un po’ di anni ogni strumento regolatorio, o standard di riferimento, fa del risk based approach una pietra miliare del proprio programma; una classificazione sistematica dei rischi è dunque importante perché consente alle organizzazioni di individuare e documentare correttamente l’intero spettro dei rischi che devono affrontare, con una visione completa che riesce a supportare un’analisi approfondita, garantendo che nessun rischio potenziale venga trascurato.

Le principali tassonomie dei rischi per le organizzazioni

Alcuni esempi di tassonomie del rischio comunemente utilizzate dalle organizzazioni includono:

• Tassonomia dei rischi strategici – che ruotano principalmente attorno ai fattori esterni, in quanto ogni organizzazione è un’entità che deve relazionarsi con il mondo esterno, ma non solo, che possono avere un impatto sugli obiettivi strategici di un’organizzazione, correlati alla mission istituzionale o imprenditoriale.

• Tassonomia dei rischi operativi – legati sia ai processi interni, alle persone e ai sistemi di un’organizzazione, sia alla catena di approvvigionamento, e che includono ad esempio i rischi tecnologici, che si riferiscono alle minacce associate al danneggiamento delle infrastrutture digitali, e i rischi del capitale umano, che coprono gli aspetti legati alla gestione del personale, dei servizi, e alla produttività.

• Tassonomia dei rischi finanziari – associati agli aspetti economici del mercato di riferimento in cui opera un’organizzazione, compresi il rischio di credito e i problemi di liquidità.

• Tassonomia dei rischi di conformità (compliance) – derivanti dalla necessità di aderire a leggi, regolamenti e standard e correlati all’esigenza di evitare sanzioni legali, confische finanziarie, perdite materiali, operatività e danni alla reputazione.

• Tassonomia dei rischi reputazionali – inerenti l’impatto sulla reputazione e sulla percezione pubblica di un’organizzazione, le crisi di pubbliche relazioni, le violazioni etiche, la preservazione della fiducia degli stakeholder.

• Tassonomia dei rischi ambientali – sempre più rilevanti in quanto le organizzazioni riconoscono sempre più il loro ruolo nello sviluppo sostenibile, e che comprendono i rischi legati ai danni ambientali, alle pratiche di sostenibilità e agli impatti dei cambiamenti climatici.

Dilazione debiti

Saldo e stralcio

 

In realtà comunque, visto che i rischi possono essere valutati a diversi livelli, la scelta di una certa tassonomia dipende poi spesso dal contesto specifico e dalla natura dell’Organizzazione, pubblica o privata; ad esempio sappiamo tutti che esistono il rischio clinico, i rischi sociali, etc.

Nelle prossime sezioni approfondiamo esclusivamente le diverse tassonomie dei rischi nella sicurezza delle informazioni, nella protezione dati personali, e nell’impiego di tecnologie di intelligenza artificiale.

I rischi nella sicurezza delle informazioni

La sicurezza delle informazioni non va confusa con la Cybersecurity, con la sicurezza informatica, o con la sicurezza IOT o con la sicurezza dei dati personali; tutti questi domini, sebbene esistano numerose intersezioni, sono differenti.

Preservare le caratteristiche di riservatezza, integrità, disponibilità delle informazioni, intese come conoscenza o dati che hanno valore per un’Organizzazione, siano esse elaborate e gestite per proprio conto o per conto di altri, è sempre più importante in un contesto di datificazione della società che vede per ogni soggetto, pubblico o privato, la necessità di maggior consapevolezza di dover integrare la tutela del patrimonio informativo nello sforzo di raggiungere gli obiettivi specifici, di business nel caso di soggetti privati, ovvero istituzionali e/o di pubblica utilità.

Di conseguenza, gli obiettivi di sicurezza delle informazioni andrebbero integrati negli scenari di rischio per l’Organizzazione, a differenza di obiettivi più specifici di sicurezza dei dati, intesi come asset da proteggere, per i quali vanno individuate le vulnerabilità e le potenziali minacce.

Analizzando il contesto della sicurezza delle informazioni potremmo dunque ipotizzare uno schema del genere:

Fig. 1 – Esempio di rappresentazione grafica di una possibile tassonomia delle categorie di rischi per la sicurezza delle informazioni

Che prevede quindi, per ogni scenario di rischio che si individua, una classificazione per i 2 livelli di categorie di rischio, descritte nell’immagine seguente.

Contributi e agevolazioni

per le imprese

 

Fig. 2 – Esempio di rappresentazione tabellare con le descrizioni per la stessa tassonomia delle categorie di rischi per la sicurezza delle informazioni

Ovviamente gli scenari di rischio, come del resto i processi, sono correlati; quindi l’impatto delle conseguenze di un certo scenario di rischio può configurare un ulteriore scenario, che ne può far scaturire un altro, in una sorta di reazione a catena detta in gergo risk chain.

Ad esempio, l’indisponibilità di un certo sistema informativo gestito da un’organizzazione per istituzioni pubbliche, categorizzata come Rischio Operativo / Sistemi ICT / può comportare, ad un certo livello di impatto non mitigato, che il rischio di Continuità Operativa inneschi un meccanismo per cui si innalzano i rischi Legali – Contrattuali e potenzialmente i rischi di Conformità; e le relative conseguenze, come penali, e sanzioni, hanno effetto su altri scenari come quello Strategico / Reputazionale e potenzialmente su quello Finanziario / Liquidità.

Se l’Organizzazione adotta un sistema di gestione per la sicurezza delle informazioni, ad esempio implementato per la certificazione secondo lo standard ISO/IEC 27001:2022, la metodologia di valutazione dei rischi dovrebbe cercare di chiarire e differenziare gli obiettivi di sicurezza delle informazioni da quelli di cybersecurity e da quelli di tutela della privacy;

In un modello di valutazione ispirato alle Linee guida ISO/IEC 27005:2022, ad esempio, potremmo trovare un record del genere, che va immaginato su una unica riga anche se per chiarezza lo riportiamo qui con 2 immagini distinte.

Non riportiamo qui criteri e metriche utilizzate nella valutazione presa ad esempio, il cui scopo è quello di evidenziare come una categorizzazione dei rischi possa aiutare a fare ordine.

Tuttavia, la tassonomia proposta non è assolutamente obbligatoria; molte Organizzazioni preferiscono usare l’approccio basato su asset, vulnerabilità e minacce per la definizione dei rischi, perché più concreta e operativa.

Dilazione debiti

Saldo e stralcio

 

In tal caso, si parte dunque ad esempio dalla suddivisione in Fattori di rischio umani / non umani, categorizzando i possibili eventi dannosi in Danni fisici, Eventi Naturali, Indisponibilità di servizi essenziali o problemi tecnici, Azioni non autorizzate, Compromissione di dati/informazioni/servizi per azioni deliberate, Compromissione di dati/informazioni/servizi per azioni involontarie, Eventi non governati per mancanza di controllo dell’operato dei Fornitori Digitali, Rapporto con Clienti, Violazioni Modello Organizzativo 231, etc.

Questo tipo di approccio è più granulare, in particolar modo per i rischi Cyber; le tassonomie dei rischi per la Cybersecurity sono ovviamente altrettanto importanti, perché riguardano l’applicazione in valutazioni di rischio più specifiche; e sono davvero tante le modalità di definizione dei domini utilizzabili per creare Tassonomie, che possono essere ricercate o progettate partendo da documentazione standard ISO/IEC, ETSI, NiST,MITRE, ENISA, etc. ; anche in Italia abbiamo l’ottima TASSONOMIA CYBER dell’ACN – l’Agenzia per la cybersicurezza nazionale, ma anche a livello europeo il Joint Research Centre (JRC) della Commissione UE ha prodotto una “Cybersecurity Taxonomy”, e la stessa ENISA ha diverse pubblicazioni riguardanti tassonomie (delle quali la più preziosa è forse quella relativa alla prevenzione degli incidenti di sicurezza.

Partire da standard e pubblicazioni scientifiche, oltre che dagli obiettivi, contribuisce sempre a supportare la definizione di una tassonomia, ovviamente.

I rischi per le persone che derivano da trattamenti di dati personali

Nella valutazione dei rischi “privacy” la definizione di tassonomie può essere a più livelli, e si trovano diverse scelte di rappresentazione, più o meno semplici.

Spesso si fa anche confusione, considerando il dato personale esclusivamente come asset informativo da proteggere e quindi inglobando la valutazione dei rischi per le persone all’interno dei domini di sicurezza delle informazioni o della cybersecurity, con focus esclusivo sul paradigma “RID” (riservatezza, integrità e disponibilità), e tralasciando invece gli aspetti più “etici”, basati sul rispetto della dignità della persona che ha diritto a conoscere come i trattamenti posti in essere, sebbene sicuri, siano proporzionali e non configurino conseguenze discriminatorie o altri potenziali danni fisici, materiali o immateriali.

Infatti, va chiarito innanzitutto che la valutazione dei rischi per i diritti e le libertà degli interessati è di carattere altruistico – ossia considera il punto di vista delle persone interessate al trattamento; sebbene tale valutazione sia prevista anche in ambito sicurezza delle informazioni, perché all’interno del rischio legale e di compliance (in quanto l’organizzazione, se vogliamo in maniera più egoistica, ha l’obiettivo di rispettare le norme ed evitare sanzioni), il fatto che per gli adempimenti il Titolare o il Responsabile del trattamento debbano tener conto dei rischi per i diritti e le libertà degli interessati significa dover predisporre un tipo di valutazione diversa.

Il GDPR, come ogni altro strumento regolatorio per la protezione dei dati personali, è nato appunto per regolamentare con dei principi questo “innaturale” sforzo altruistico.

Mutuo 100% per acquisto in asta

assistenza e consulenza per acquisto immobili in asta

 

I principi fondamentali dell’Art. 5 del GDPR, ad esempio, elevano il trattamento di dati personali sia dal punto di vista etico che dal punto di vista della sicurezza del dato, consentendo al diritto alla protezione dei dati personali di tutelare trasversalmente, nell’era moderna, gli altri diritti e libertà fondamentali.

La fiducia nell’uso dei dati personali è infatti, insieme all’autodeterminazione informativa, l’obiettivo principale del GDPR, ma anche quello di altre normative a quest’ultimo ispirate che sono nate successivamente al di fuori dell’Unione Europea.

Come definire dunque i rischi “privacy”? sulla base della categorizzazione dell’impatto, che può essere fisico, materiale e immateriale? Sulla base della natura, finalità, ambito di applicazione e contesto del trattamento, che secondo il considerando 76 del GDPR determinano la possibilità / verosimiglianza e la gravità di impatto? Sicuramente le diverse tipologie di impatto e l’indicazione del considerando 76 del GDPR non possono essere ignorati nell’approccio metodologico.

Ma l’obiettivo del quale non dobbiamo perdere il focus è la tutela dei diritti e libertà delle persone, per cui, ad esempio, ogni esperto che si cimenta nella valutazione dei rischi di una certa attività di trattamento utilizza generalmente, per prima cosa, uno schema del genere:

Fig. 5 – Esempio – non esaustivo – di rappresentazione di diritti e libertà potenzialmente ledibili a seguito di un’attività di trattamento di dati personali

Nel quale si selezionano quali diritti e libertà fondamentali possono essere, anche parzialmente, lesi a seguito di una certa attività di trattamento; ciò aiuta a definire con chiarezza gli obiettivi, affinché il termine “diritti e libertà degli interessati” non risulti vago.

Anche effettuare un pre-assessment, una sorta di “prevalutazione di rischiosità” dell’attività di trattamento, soprattutto in fase di progettazione, in base a natura, abito di applicazione, finalità e contesto è doveroso.

Per la tassonomia, utile ad individuare gli scenari di rischio da valutare, può essere utilizzata una versione semplice come quella rappresentata di seguito, oppure altre più articolate, sempre secondo la necessità, la profondità che si vuole ottenere, etc.

Prestito personale

Delibera veloce

 

Fig. 5 – Esempio di una possibile tassonomia dei rischi per la protezione dati personali

Tale rappresentazione distingue il principio di integrità e riservatezza di cui all’Art. 5 p.1 f) dagli altri principi (liceità, correttezza e trasparenza, minimizzazione, esattezza e aggiornamento, limitazione della conservazione) di cui ai precedenti punti a) – e) del paragrafo 1. E integra anche, quando necessario, l’obiettivo di centralità umana nei processi decisionali automatizzati, principale categoria dei rischi derivanti dall’IA (relativamente ai soli trattamenti di dati personali).

Anche qui, il fine è quello di fare ordine per evitare di non analizzare scenari di rischio presenti sia nella progettazione di un certo trattamento, sia nell’esecuzione dello stesso, e nella valutazione della severità degli impatti a violazione di dati personali avvenuta (personal data breach); e ogni scenario può a sua volta innescare con le conseguenze, ad esempio discriminatorie, nuovi rischi, in un escalation di impatti che possono davvero creare un danno sempre maggiore per l’essere umano.

I rischi dell’intelligenza artificiale

Gli scenari di rischio derivanti dalla progettazione, dallo sviluppo e dall’impiego di tecnologie di intelligenza artificiale sono prepotentemente al centro dell’attenzione a livello mondiale; secondo un rapporto della Global Challenges Foundation, l’AI, alla stregua del cambiamento climatico estremo, conflitti nucleari, pandemie, collasso economico-sociale su scala globale e altri, è presente fra i 12 scenari di rischio che minacciano la sopravvivenza della civiltà umana.

E sono molteplici, dunque, i progetti di ricerca che mirano a definire in modo sistematico le tassonomie necessarie a definire e supportare l’identificazione dei rischi e le metodologie di valutazione, e altrettante le pubblicazioni e Standard internazionali che affrontano il tema.

L’obiettivo principale è assicurare i principi di trustworthiness dell’AI, termine tradotto spesso con “affidabilità” ma che implica anche fiducia e attendibilità; in sostanza la società, per accettare pienamente l’AI, dovrebbe poter essere sicura della centralità della supervisione umana mediante il rispetto di caratteristiche proprie dell’AI che dovrebbe essere sicura, protetta e resiliente, spiegabile e interpretabile, potenziata per la privacy, equa e corretta, con pregiudizi dannosi gestiti, responsabilizzata e trasparente, e costantemente validata per l’affidabilità.

Una “tassonomia” ad alto livello, dedudicibile dall’AI Framework del NiST, suddivide ad esempio i rischi, ed i relativi danni, in tre macrocategorie:

per le persone, per le organizzazioni, e per l’ecosistema; individua però non tanto una categorizzazione per ulteriori livelli di rischio, ma preferisce descrivere i processi necessari nelle diverse fasi del ciclo di vita dell’AI, vista la crescente complessità, con un approccio flessibile ed ancora non sistemico, in quanto in piena evoluzione. Categorizza tuttavia i danni, con lo schema sotto riportato.

Carta di credito con fido

Procedura celere

 

Il NiST Framework per l’AI (per maggiori dettagli, si può leggere questo articolo) comunque contiene controlli idonei ad essere estrapolati in “Profiles” (sottoinsiemi di controlli per specifici scenari di rischio), e ci sono comunque pubblicazioni del NiST (più specifiche per la sicurezza dei sistemi AI), che hanno invece un taglio molto più sistemico, come la recentissima NIST AI 100-2 E2023Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations, disponibile qui.

In Europa, la classificazione dei sistemi AI dell’AI Act sarà con ogni probabilmente presto integrata da tassonomie di rischio ufficiali, anche per gli obblighi di FRIA e DPIA imposti a sviluppatori e deployer.

La Linea guida internazionale ISO/IEC 23894:2023

Uno standard di riferimento molto interessante è la Linea guida internazionale ISO/IEC 23894:2023 – Tecnologie Informatiche – Intelligenza artificiale – Guida alla gestione del rischio, in quanto ben strutturata e soprattutto perché dotata di tre Annex, di cui il primo, l’Annex A – Objectives definisce una lista di possibili obiettivi da considerare nell’approccio risk based, il secondo l’Annex B – Risk sources, elenca delle possibili fonti di rischio (qui si poteva fare sicuramente meglio) e il terzo, l’Annex C – Risk management and AI system life cycle, categorizza in modo molto preciso i processi di gestione nelle diverse fasi del ciclo di vita dell’AI.

Infine, il riferimento che si propone come centrale per l’approccio alla gestione dei rischi AI, essendo nato estrapolando oltre 56 diverse proposte di tassonomie e oltre 1000 tipologie di rischi, è l’AI Risk Repository del MIT (Massachusetts Institute of Technology).

Con database online, liberamente accessibile e costantemente aggiornato, lo strumento (che può essere navigato dal link https://airisk.mit.edu/ ) propone due diverse tassonomie, di cui una concepita sugli elementi causali, ossia per classificare come, quando e perché si configurano i rischi, e categorizzata in Entità (l’essere umano, l’AI e altra fonte di rischio incerta), Intenti (intenzionali, non intenzionali e altra tipologia) e Tempistiche (pre-deployment, post-deployment, timing incerto); l’altra, invece, basata su 7 domini e 23 sottodomini, che sono:

  • Discriminazione e tossicità

1.1 Discriminazione ingiusta e false dichiarazioni

1.2 Esposizione a contenuti tossici

1.3 Disparità di prestazioni tra i gruppi

2.1 Compromissione della privacy attraverso l’ottenimento, la divulgazione o la corretta deduzione di informazioni sensibili

2.2 Vulnerabilità e attacchi alla sicurezza dei sistemi di intelligenza artificiale

3.1 Informazioni false o fuorvianti

3.2 Inquinamento dell’ecosistema informativo e perdita della realtà del consenso

  • Attori malevoli e uso improprio

4.1 Disinformazione, sorveglianza e influenza su scala

4.2 Cyberattacchi, sviluppo o uso di armi e danni di massa

4.3 Frodi, truffe e manipolazioni mirate

  • Interazione uomo-macchina

5.1 Eccessiva dipendenza e uso non sicuro

5.2 Perdita di capacità di azione e autonomia umana

  • Danni socio-economici e ambientali

6.1 Centralizzazione del potere e distribuzione iniqua dei benefici

6.2 Aumento della disuguaglianza e declino della qualità dell’occupazione

6.3 Svalutazione economica e culturale dello sforzo umano

6.4 Dinamiche competitive

6.5 Fallimento della governance

6.6 Danno ambientale

  • Sicurezza, fallimenti e limiti dei sistemi di IA

7.1 AI che persegue i propri obiettivi in conflitto con gli obiettivi o i valori umani

7.2 AI in possesso di capacità pericolose

7.3 Mancanza di capacità o robustezza

7.4 Mancanza di trasparenza o interpretabilità

7.5 Benessere e diritti correlati all’AI

Oltre allo strumento navigabile in modalità web, che offre una ricca panoramica di esempi, è presente un Foglio di calcolo condiviso liberamente scaricabile, che costituisce quindi una risorsa preziosa per il risk assessment.

La complessità degli scenari di rischio

La complessità degli scenari di rischio, nel contesto della sicurezza delle informazioni, della protezione dati personali e dello sviluppo e impiego delle tecnologie di intelligenza artificiale, in continua evoluzione, impone una piena comprensione delle necessità di perimetrare gli ambiti di assessment di valutazione, e di conseguenza saper mettere a punto criteri di definizione dei rischi da individuare, anche grazie alle tassonomie, rende i delicati processi più agevoli e meno “rischiosi”.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link