GDPR la nuova normativa Europea sulla Privacy    

Per adeguarsi mancano solo

Che cosa si intende per dati personali: natura, tipologie e qualità

 Cosa possiamo fare per voi?    
Al fine di facilitare ai propri Clienti l’adeguamento ai nuovi regolamenti, INFOR ha stretto una collaborazione con una Primaria Società di Consulenza specializzata in materia, che unita alle nostre conoscenze del Vostro sistema informatico, consentono una rapida ed economica esecuzione di tutto l'iter burocratico, fornendo una PERIZIA CERTIFICATA da un Legale specializzato e protetta da una COPERTURA ASSICURATIVA. 

  Per maggiori informazioni clicca qui

Capitolo 4

Capire cosa si intente per “Dati Personali” assume un aspetto molto importante e necessario chiarire in modo inequivocabile la problematica facendo chiarezza tra le innumerevoli valutazioni espresse a vario titolo e a volte in modo fuorviante.
I contenuti qui espressi sono abbastanza complessi da interpretare, ma necessari all’adeguamento alla normativa sul GDPR, motivo per cui suggeriamo di interpellare professionisti di comprovata esperienza e serietà evitando realtà improvvisate senza rischiare di incorrere in pesanti sanzioni.
Alla luce dell’entrata in vigore del GDPR, è utile passare in rassegna le differenti tipologie di dati e informazioni che possono essere rese o meno disponibili non solo ai proprietari, ma anche a soggetti che con loro comunicano
Una delle maggiori trasformazioni realizzata negli ultimi anni nell’Unione Europea (UE) è stata la recente adozione del Regolamento Europeo 679/2016 per la Protezione dei Dati Personali (nella versione inglese noto come GDPR – General Data Protection Regulation) che troverà piena applicazione a decorrere dal 25 maggio 2018.
Esso tenta di dare pari dignità ai diritti degli individui che intendano proteggere i propri Dati Personali in tutta l’UE in modo omogeneo. In questa direzione dispone anche la realizzazione del Principio dello Sportello Unico (One Stop Shop), secondo cui, quando l’elaborazione dei dati personali avviene in più di un Paese membro dell’UE, la competenza del controllo delle attività dell’organizzazione che elabora e gestisce (controller e processor) i dati dell’utente in tutta l’UE spetta a una singola Autorità di supervisione (non a caso definita Leading Authority), che ha il potere di prendere le eventuali decisioni correlate. Vale la pena sottolineare che in Italia, come in altri Paesi, si è provveduto a ridefinire il ruolo del Garante Privacy rafforzandone la struttura, identificandone i poteri ed i controlli da realizzare all’interno di quella che è stata poi rinominata Autorità Garante per la Protezione dei Dati Personali.
Quest’ultima, tra le altre cose, ha realizzato anche una guida[1] in grado di tener presente, da un lato, dell’evoluzione della riflessione a livello nazionale ed europeo e, dall’altro, di offrire opportune raccomandazioni specifiche suggerendole azioni che possono essere intraprese immediatamente in quanto fondate su disposizioni precise del regolamento che non lasciano spazi a interventi del legislatore nazionale (come invece avviene per altre norme del regolamento, in particolare quelle che disciplinano i trattamenti per finalità di interesse pubblico ovvero in ottemperanza a obblighi di legge)in rapporto a uno specifico titolare o responsabile del trattamento[2].Non a caso è stata prevista la figura del “Responsabile della protezione dei dati” (Data Protection Officer o DPO), incaricato di assicurare una gestione corretta dei dati personali nelle imprese e negli enti e individuato in funzione delle qualità professionali e della conoscenza specialistica della normativa e della prassi in materia di protezione dati.


·       Natura, caratteristiche e tipologie dei dati
 
A fronte della sua prossima applicazione il Regolamento produrrà effetti in molti settori. Per questo vale la pena chiarire, prima di esaminare la definizione offerta dal Regolamento all’art.4, cosa si intende in genere quando di parla di dati e perché essi assumono un’accezione particolare quando si fa riferimento a quelli personali. Ed in questa direzione si può riprendere l’equivalente latino datum che significa letteralmente fatto. Questo vocabolo esprime la descrizione elementare, più o meno codificata, di un elemento, di un’entità fisica o astratta, oppure della manifestazione di un evento, di un accadimento, di un fenomeno, di un’azione, di una interazione fra due entità, o altra situazione simile che è individuata attraverso una caratteristica che identifica univocamente il dato medesimo in modo da non generarne ambiguità. La descrizione e rilevazione della caratteristica può essere quantitativa o qualitativa. Infatti i dati possono presentarsi sotto diverse forme: numeri e lettere dell’alfabeto (testo), immagini statiche (grafici, disegni, tratti) o in movimento (video), formati sonori (audio) o altro. Tali dati possono essere rilevati e poi conservati su diversi mezzi o supporti fisici (cartaceo, magnetico, ottico, etc) e/o veicolati (trasmessi) attraverso una rete di comunicazione tra più utenti che possono avere finalità differenti.
Tra questi bisogna attentamente analizzare il ruolo svolto dalle pubbliche amministrazioni poiché esse raccolgono, organizzano e gestiscono un’enorme quantità di dati che fino a poco tempo fa avevano un mero ruolo strumentale finalizzato al perseguimento dei compiti istituzionali a loro assegnati. L’autonomia delle singole amministrazioni e le modalità di gestione dei loro processi amministrativi hanno contribuito tuttavia a creare frammenti o isole di contenuti, con scarsa visione sistemica, nonostante alcuni significativi interventi normativi che si sono succeduti tendessero a favorire un maggior livello di integrazione e condivisione dei dati. Per superare tali ostacoli, si è ritenuto necessario intraprendere un percorso volto a diffondere la cultura del dato nel tessuto sociale e amministrativo del Paese per aumentare la consapevolezza sul suo ruolo di elemento sistemico infrastrutturale. Volendo perseguire il medesimo obbiettivo, possiamo sostenere[3] che è possibile:
• rilevare i dati singolarmente (in questo caso si parla anche di dati elementari) su cui non sia stata fatte alcuna elaborazione (si parla anche di dati atomici o dati grezzi, raw data, per indicare che sono disaggregati e disorganizzati, di difficile lettura ed interpretazione);
• organizzare i dati in insiemi (dataset), affinché si possano rappresentare in modo aggregato (aggregated data) o strutturato (structured data) a seconda delle regole o relazioni definite o meno a priori (si parla in questo senso anche di metadati). Quando si fa riferimento ad aggregazioni di entità o eventi con caratteristiche simili o omogenee si raccolgono i dati in archivi costruendo le cosiddette basi di dati (database) che possono essere collegate tra loro (per questo di parla anche di linked data);
• interrogare attraverso interrogazioni semantiche i dati all’interno di elementi ottenuti in passato (dati storici, historycal data);
• rilevare i dati all’interno di elementi ottenuti al momento, ovvero contemporaneamente, in cui si manifestano (dati in tempo reale, real data);
• prevedere i dati attesi o previsti (expected o previsional data) nel tempo sulla base di ipotesi statistiche e di calcolo combinatorio (possibile replicabilità di eventi futuri basati sulla conoscenza del passato);
• scegliere la forma o la caratteristica da rilevare, ad esempio testuale, numerica, sonora, fotografica, video, biologica, di posizionamento geografico, di status di attività, etc.;
• distinguere quelli con accesso libero (open access) e aperto (dati aperti o open data) o di libero utilizzo (open use) da quelli con accesso limitato a chi ne è proprietario (si parla infatti di dati proprietari chiusi o semplicemente closed data) o da quelli condivisi con altri soggetti (infatti si parla di dati condivisi o shared data) con un accesso più o meno crittografato, reso sicuro (secured data) come avviene quando si effettua, verificandone la sicurezza, un pagamento elettronico o semplicemente il collegamento di accesso o di uscita a particolari tipi di reti di comunicazione (telefono, fax, rete internet, wifi, radiofrequenza, etc.) oppure preservati, per la componente informativa, su appositi archivi di massa per essere poi elaborati o trasmessi attraverso appositi algoritmi o istruzioni ad esempio per calcoli complessi o per invio di messaggistica istantanea di testi o formati media brevi (sms o mms);
• distinguere quelli personali (sul punto si torna in seguito) da quelli costruiti su misura a fini commerciali (customized data).
Risulta evidente la necessità di stabilire una particolare codifica dei formati attribuiti ai dati per favorire o una eventuale standardizzazione (uguaglianza o similitudine delle codifiche adottate) o una interoperabilità (ovvero fare interagire dati con formati diversi).
L’uso appropriato di standard nell’era digitale contribuisce a determinare la compatibilità delle risorse, che ne consente l’interoperabilità. Un alto livello di compatibilità tra le risorse digitali messe a disposizione da molteplici fornitori fa sì che uno strumento o un servizio che operi con queste risorse si trovi a gestire un numero limitato di formati, interfacce e protocolli chiaramente definiti. Per contro, un numero sempre più elevato di formati e protocolli differenti renderebbe un tale sviluppo complesso, costoso e nella migliore delle ipotesi inaffidabile.
Inoltre, il procedimento stesso attraverso il quale gli standard vengono sviluppati implica che essi riescano a cogliere buone pratiche basate su esperienze passate e a imporre il rigore nelle prassi d’uso corrente per garantire la migliore qualità dei dati. Volendo schematizzare potremmo dire che gli standard possono essere:
• de jure – formalmente riconosciuti da un organismo responsabile della definizione e diffusione di standard, di solito sviluppati attraverso il comune accordo di un certo numero di parti interessate. Tra questi abbiamo gli standard emessi dall’ISO o l’insieme dei protocolli TCP/IP dell’Internet Engineering Task Force (IETF);
• de facto – standard industriali, privi di riconoscimento formale da parte di un organismo di standardizzazione, tuttavia largamente diffusi, utilizzati e riconosciuti come standard dagli utenti. Per fare un esempio, può trattarsi di un formato di documento generato da un software che possiede una quota ampia del mercato in un determinato settore, come l’Adobe Portable Document Format (PDF).
La scelta di uno standard aperto (non proprietario) si rivela particolarmente consigliabile, se si prendono in considerazione caratteristiche fondamentali quali:
• l’accesso aperto (open access) allo standard medesimo e alla documentazione prodotta nel corso del suo sviluppo;
• la libera utilizzazione (open use): l’implementazione dello standard comporta costi esigui o nulli per i diritti di proprietà intellettuale, per esempio tramite licenze d’uso;
• la costante assistenza orientata ai bisogni degli utenti piuttosto che agli interessi del produttore dello standard.
Nello scenario fin qui descritto, poiché le specifiche di formati, interfacce e protocolli impiegati dai produttori delle risorse sono liberamente disponibili, più sviluppatori possono produrre strumenti e servizi similari evitando la dipendenza da un unico strumento o da un’unica piattaforma. In generale, le procedure formali connesse allo sviluppo di standard de jure sono ritenute la garanzia che tali standard siano davvero “aperti”. Vi sono dei vantaggi e benefici degli standard che si possono prendere in considerazione, tra cui si è solito citare i seguenti:
• interoperabilità. È importante che gli utenti possano accedere direttamente alla più ampia gamma di contenuti, indipendentemente dal fatto che questi siano stati realizzati con modalità di finanziamento diversi. Dovrebbe essere possibile: reperire i contenuti digitali e interagire con essi in maniera agile e intuitiva, usarli con facilità senza l’esigenza di strumenti specializzati, gestirli efficacemente;
• accessibilità. È importante che i materiali siano accessibili al più vasto pubblico e che vengano messi a disposizione attraverso l’impiego di standard aperti e formati non proprietari. Se si intende procedere in tale direzione, si deve prevedere un accesso multilingue e garantire l’accessibilità a cittadini con varie disabilità;
• conservazione a lungo termine. La costante manutenzione degli standard aiuta a garantire il futuro a lungo termine dei dati, in modo tale da mantenere la risorsa nella sua continuità storica e diversità di formato ed elevare al massimo la rendita dell’investimento;
• sicurezza. Nell’era digitale, è importante poter stabilire con certezza l’identità dei contenuti e dei progetti (e, quando necessario, degli utenti); riuscire a proteggere i diritti di proprietà intellettuale e il diritto alla riservatezza; poter determinare l’integrità e l’autenticità delle risorse.
Se questi aspetti non vengono affrontati in modo efficace si può incorrere in gravi conseguenze, come lo spreco di risorse da parte di diversi attori, quali ad esempio:
• i possibili utenti, tra cui i cittadini, i ricercatori, gli studenti, etc. Costoro si ritroverebbero a sprecare tempo ed energie non potendo trovare o utilizzare prontamente quanto corrisponde alle loro esigenze, perché non descritto adeguatamente o perché disponibile solo attraverso un protocollo o in un formato particolare o perché richiede strumenti specializzati per potere essere utilizzato, oppure perché non è stato digitalizzato in modo tale da risultare usabile;
• gli eventuali fornitori, gestori dei dati. I loro investimenti potrebbero rivelarsi sproporzionati e andare sprecati se, investendo in prassi non standardizzate o sorpassate, le risorse non si dimostrassero valide per l’uso cui sono destinate o i loro prodotti raggiungessero solo una parte del pubblico potenziale;
• i potenziali finanziatori, che finirebbero con pagare per lavori ridondanti e frammentari, per una reiterazione dei processi d’apprendimento altrimenti superflua, per progetti che operano meno efficacemente di quanto dovrebbero o perché adotterebbero tecnologie non ottimali, per contenuti che non corrispondono alle esigenze degli utenti o del mercato;
• i creatori, autori dei dati poiché il loro lascito per il futuro potrebbe andare perduto.
A fronte di queste distinzioni e definizioni appare opportuno interrogarsi anche sulla natura e caratteristiche delle informazioni..
·       Natura, caratteristiche e tipologie delle informazioni
L’informazione è oggetto di studio e applicazione in vari settori della conoscenza e dell’agire umano. Ad esempio sul fronte tecnico è oggetto dell’ingegneria dell’informazione, sul fronte delle scienze sociali si analizzano i temi della comunicazione di massa e in generale della sociologia con particolare riguardo agli aspetti legati alla diffusione dei nuovi strumenti offerti dalle ICT e dalle reti sociali (social network).
Ma cosa intendiamo quando parliamo di informazione? Quando ci riferiamo a questo termine proponiamo la sostituzione del noto all’ignoto, ovvero il significato che le persone coinvolte attribuiscono a tale conoscenza. In altri termini per un osservatore o un recettore posto in una situazione in cui si hanno almeno due occorrenze possibili, l’informazione consente di superare l’incertezza sottostante e risolve un’alternativa, sostituendo appunto il noto all’ignoto, il certo all’incerto. Un esempio di informazione è quella generata dai metadati. Essi rappresentano un metodo sistematico per la descrizione delle risorse informative e per migliorarne l’accesso e la gestione attraverso una opportuna organizzazione. Se vale la pena rendere disponibile una risorsa, vale anche la pena garantire che i metadati idonei possano aumentare la possibilità di identificarla, localizzarla e riusarla. Per questo motivo si sostiene che i metadati sono così importanti nel World Wide Web, sempre più fatto di risorse usabili e condivise. Essi potrebbero essere divisi nelle seguenti categorie:
· metadati descrittivi, che consentono l’identificazione dell’oggetto, della risorsa, che, se di formato digitale, può essere basata su una certa fonte e ottenuta utilizzando i sistemi di recupero (Information Retrieval) delle basi di dati o procedendo all’esterno dell’archivio digitale, in quanto a quest’ultimo collegati tramite appositi collegamenti;
· metadati strutturali, che collegano le varie componenti delle risorse complesse, come ad esempio le diverse sezioni di una legge nel caso in cui siano articolati in più archivi informatici, per un’adeguata e completa fruizione. Questi metadati inoltre forniscono dati di identificazione e localizzazione del documento, come il codice identificativo, l’indirizzo del file sul server, il deposito digitale di appartenenza, il suo indirizzo Internet, etc.;
· metadati amministrativi e gestionali, ovvero le informazioni tecniche sulle risorse, che evidenziano le modalità di gestione degli oggetti digitali nel sistema del deposito digitale. Essi, nel mondo digitale, data la labilità dell’informazione elettronica, assumono un’importanza preponderante ai fini della conservazione permanente degli oggetti digitali, documentando i processi tecnici associati alla conservazione permanente, fornendo informazioni sulle condizioni e i diritti di accesso agli oggetti digitali, certificando l’autenticità e l’integrità del contenuto, documentando la catena di custodia e identificandoli in maniera univoca.
Tutto ciò detto sui metadati possiamo tornare al concetto di informazione ed operare anche per questa una distinzione a seconda:
· del contesto in cui i dati sono raccolti;
· della loro codifica in forma intelligibile;
· del significato attribuito a tali dati;
· della relazione in cui due o più dati sono posti in essere.

Diviene fondamentale da questo punto di vista la distinzione tra dato (un numero, una data, una parola…) ed il significato che si può dare a tale dato, mettendolo in relazione con uno o più dati o rappresentazioni di concetti. In informatica, ad esempio, si usa il termine informazione al plurale, ovvero informazioni, mutuando il termine inglese information, dove, appunto, è considerato un sostantivo plurale. In questa particolare scienza le informazioni possono essere numerabili, e a seconda del sistema di interpretazione e della rappresentazione, consentono di distinguere tra
· informazioni esplicite, relativamente semplici da quantificare (come la data di nascita di un individuo);
· informazioni dedotte e certe, il cui numero dipende dalle capacità di calcolo delle informazioni fornite al sistema (ad esempio l’età del precedente individuo, ottenibile mediante sottrazione della data odierna e la sua data di nascita);
· informazioni dedotte, ma non certe: ad esempio un servizio di rete sociale può stabilire con una certa precisione che due persone che hanno vissuto nello stesso condominio nel medesimo anno ed hanno conoscenze in comune si conoscono, ma non può dare la certezza matematica di ciò.

Sovente i software ed i motori di ricerca più evoluti si basano su modalità di elaborazione che consentono di estrarre ed inserire in un database che viene poi interrogato dagli utenti finali. Ad esempio un motore di ricerca come Google individua i dati appropriati, soprattutto se vi sono particolari elementi da cercare. In alcuni casi è l’utente stesso che ha posizionato un apposito etichetta o marcatore nella descrizione del sito (in questo caso si antepone l’etichetta Meta) o nel suo elenco di dati presenti nel database ed il browser restituisce i risultati. Tramite i metadati descrittivi possono rendere le pagine più facilmente localizzabili fornendo agli strumenti di ricerca informazioni di indicizzazione dettagliate a singoli o categorie di dati. Ad esempio per:
· specificare il set di caratteri usati (es. UNICODE, UTF8, etc.);
· identificare le risorse (identificativo, URL, titolo, lingua, etc.);
· definire le finalità di gestione e di amministrazione (la data di creazione e di scadenza, l’autore, i diritti correlati, versione del documento, etc.);
·  riportare la classificazione (descrizione, parole chiave, soggetto, copertura informativa, etc.).
Tuttavia, quando affronteremo il tema della sicurezza delle informazioni non ci riferiremo ad esse pensando solo a quelle conservate su supporti digitali, come avviene in informatica, ma piuttosto esamineremo tutte le soluzioni utilizzate (materiali o immateriali) per raccogliere, modificare, conservare, trasmettere e distruggere sia i dati che le informazioni. Ed in questa direzione affermeremo la necessità di considerare le seguenti tre proprietà indicate anche come CIA, dall’iniziale di ognuna per sostenerne la sicurezza:
· confidentiality, ovvero riservatezza, vale a dire la capacità delle informazioni di non essere disponibili ad individui, entità e processi non autorizzati;
· integrity, ovvero integrità, vale a dire la protezione delle informazioni sia per quanto riguarda l’accuratezza che la completezza;
· availability, ovvero disponibilità, ossia la proprietà delle informazioni che le rende accessibili ed utilizzabili entro i tempi previsti su richiesta di un’entità autorizzata.
Talvolta a queste ne sono aggiunte altre:
· autenticità,
· completezza,
· non ripudiabilità.

Le informazioni sono autentiche quando attestano la verità. Questa proprietà è un caso particolare di integrità poiché quando le informazioni non sono veritiere vuol dire che sono state modificate senza autorizzazione.
La proprietà di completezza richiede che le informazioni non abbiano avuto carenze di contenuto o caratteristica. Una carenza e equivalente ad una cancellazione, totale o parziale, non autorizzata di dati e quindi rappresentano un caso particolare di integrità.
Informazioni corrette, ma successivamente smentite dal suo autore sono dette ripudiate. Informazioni non ripudiabili, per esempio, sono quelle riportate da un documento firmato dal suo autore. In altre parole, le informazioni sono non ripudiabili se sono complete di firma o di un suo equivalente (un timbro, una marcatura, un identificativo digitale). Sulla base di tali considerazioni questa proprietà può essere vista come caso particolare dell’integrità
·       La qualità dei dati
I progetti di digitalizzazione rendono necessario il controllo dei livelli di qualità dei dati per favorire l’interscambio, l’integrazione, l’interoperabilità, la condivisone, l’ottimizzazione di servizi con il minimo livello di tassi di errore. In questa direzione l’ISO ha emesso lo standard l’ISO/IEC 25024, frutto dell’attività svolta da esperti nazionali e internazionali che partecipano alla Commissione ISO/SC7 dell’Ingegneria del software.
Lo standard, rivolto a tutti gli Enti che producono o gestiscono dati e servizi e alle persone che li utilizzano, è l’estensione dell’ISO/IEC 25012 “Data quality model” del 2008 già referenziato dall’AgID con riferimento ai dati della PA.
La norma prevede misurazioni sui vari prodotti del ciclo di vita dei dati: dai modelli contestuali e concettuali al dizionario dati, dai documenti contenenti dati ai formati e alle interfacce, dai supporti cartacei di raccolta dati fino ai file, ai data base, alle banche dati.
Per questo nello standard ISO si definiscono:
• cinque caratteristiche “inerenti” il dato, cioè connesse al valore intrinseco del dato stesso a prescindere dal “sistema” che lo elabora;
• sette caratteristiche che dipendono sia dal dato stesso che dal sistema; ed infine
• tre caratteristiche esclusive del sistema che trattano il dato senza entrare nel merito del suo contenuto.
In particolare quando si analizzano le caratteristiche “inerenti” il dato si prendono in considerazione:
• l’accuratezza, intesa come perfetta rispondenza con il mondo reale che rappresenta;
• l’attualità, cioè del giusto tempo in cui il dato è utilizzato;
• la coerenza, quindi un dato non contraddittorio con altri dati;
• la completezza, presente per tutti gli attributi necessari;
• la credibilità, proveniente da fonte certa.
Quando si analizzano le caratteristiche “inerenti e dipendenti dal sistema” si prendono in considerazione:
• l’accessibilità: il dato è accessibile a tutti, anche da parte di eventuali soggetti che abbiano qualche forma di disabilità;
• la comprensibilità: il significato del dato è chiaro ed immediato;
• la conformità: il dato risponde a regolamentazioni specifiche, anche locali;
• l’efficienza: il dato è utilizzabile con risorse accettabili e tempi adeguati allo scopo;
• la precisione: il dato è del livello di misura necessario;
• la riservatezza: il dato può essere utilizzato solo da utenti autorizzati;
• la tracciabilità: gli accessi al dato sono registrati;
Infine, quando si analizzano le caratteristiche “dipendenti dal sistema” si prendono in considerazione:
• la disponibilità, il dato necessario è disponibile e reinterrogabile;
• la portabilità, il dato può migrare da un ambiente all’altro;
• la ripristinabilità, il dato è salvato in un ambiente sicuro ed è recuperabile
Lo standard non definisce una priorità delle caratteristiche, che dipende propriamente dal contesto d’uso. Anche se lo standard è stato concepito con particolare riguardo al mondo del software, è applicabile anche a molti ambiti amministrativi, organizzativi, sociali, psicologici. Proprio per questo è utile considerare cosa è stato previsto dalla cosiddetta Agenda Digitale.

Segue nella prossima newsletter...
 
INFOR Via San Martino del Carso n° 6 25025 Manerbio (BS) tel: 030 99 37 107 mail: infor@infor.it  www.infor.it