SEC07-BP04 Definire una gestione scalabile del ciclo di vita dei dati - AWS Well-Architected Framework

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

SEC07-BP04 Definire una gestione scalabile del ciclo di vita dei dati

Esamina i requisiti del ciclo di vita dei dati in relazione ai loro diversi livelli di classificazione e gestione.  Ciò può includere le modalità di gestione dei dati quando entrano per la prima volta nell'ambiente, il modo in cui i dati si trasformano e le regole per la loro distruzione. Prendi in considerazione fattori come periodi di conservazione, accesso, audit e monitoraggio della provenienza.

Risultato desiderato: classificazione dei dati il più vicino possibile al momento e all'ora dell'importazione. Quando la classificazione dei dati richiede il mascheramento, la tokenizzazione o altri processi che riducono il livello di sensibilità, si eseguono queste azioni il più vicino possibile al punto e al momento dell'importazione.

Elimini i dati in conformità con la policy in uso quando non è più opportuno conservarli, in base alla loro classificazione.

Anti-pattern comuni:

  • Implementazione di un one-size-fits-all approccio alla gestione del ciclo di vita dei dati, senza considerare i diversi livelli di sensibilità e i requisiti di accesso.

  • Valutazione della gestione del ciclo di vita solo dal punto di vista dei dati utilizzabili o dei dati di cui si esegue il backup, ma non di entrambi.

  • Si presume che i dati immessi nel carico di lavoro siano validi, senza stabilirne il valore o la provenienza.

  • Affidamento alla durabilità dei dati come sostituti dei backup e della protezione dei dati.

  • Mantenimento dei dati oltre la loro utilità e il periodo di conservazione richiesto.

Vantaggi dell'adozione di questa best practice: una strategia di gestione del ciclo di vita dei dati ben definita e scalabile aiuta a mantenere la conformità normativa, migliora la sicurezza dei dati, ottimizza i costi di archiviazione e consente l'accesso e la condivisione efficienti dei dati mantenendo i controlli opportuni.

Livello di rischio associato se questa best practice non fosse adottata: elevato

Guida all'implementazione

I dati all'interno di un carico di lavoro sono spesso dinamici.  La forma che assumono quando entrano nell'ambiente del carico di lavoro può essere diversa da quella che assumono quando vengono archiviati o utilizzati nella logica aziendale, nel reporting, nell'analisi o nel machine learning.  Inoltre, il valore dei dati può cambiare nel tempo. Alcuni dati sono di natura temporale e perdono valore con il passare del tempo.  Considera l'impatto di queste modifiche ai dati sulla valutazione del tuo schema di classificazione dei dati e dei controlli associati.  Laddove possibile, utilizza un meccanismo automatizzato del ciclo di vita, come le policy del ciclo di vita di Amazon S3 e Amazon Data Lifecycle Manager, per configurare i processi di scadenza, archiviazione e conservazione dei dati.  

Distingui tra i dati disponibili per l'uso e quelli archiviati come backup.  Prendi in considerazione l'utilizzo AWS Backupper automatizzare il backup dei dati tra i servizi. AWS  EBSLe istantanee di Amazon forniscono un modo per copiare un EBS volume e archiviarlo utilizzando le funzionalità di S3, tra cui ciclo di vita, protezione dei dati e accesso ai meccanismi di protezione. Due di questi meccanismi sono S3 Object Lock e AWS Backup Vault Lock, in grado di garantire sicurezza e controllo aggiuntivi ai backup. Gestisci una chiara separazione dei compiti e dell'accesso per i backup. Isola i backup a livello di account per mantenere la separazione dall'ambiente interessato durante un evento.

Un altro aspetto della gestione del ciclo di vita consiste nella registrazione della cronologia dei dati mentre avanzano nel carico di lavoro, chiamato tracciamento della provenienza dei dati. In questo modo hai la certezza di conoscere la provenienza dei dati, le trasformazioni effettuate, il proprietario o il processo che ha apportato le modifiche e la data.  Questa cronologia è utile per la risoluzione dei problemi e le analisi in caso di potenziali eventi di sicurezza.  Ad esempio, puoi creare log sui metadati relativi alle trasformazioni in una tabella Amazon DynamoDB.  All'interno di un data lake, puoi conservare copie dei dati trasformati in diversi bucket S3 per ciascuna fase della pipeline di dati. Archivia le informazioni su schema e timestamp in un AWS Glue Data Catalog.  Indipendentemente dalla tua soluzione, considera i requisiti degli utenti finali per determinare gli strumenti appropriati di cui hai bisogno per segnalare la provenienza dei tuoi dati.  In questo modo potrai determinare come tracciare al meglio la tua provenienza.

Passaggi dell'implementazione

  1. Analizza i tipi di dati, i livelli di sensibilità e i requisiti di accesso del carico di lavoro per classificare i dati e definire strategie di gestione del ciclo di vita appropriate.

  2. Progetta e implementa policy di conservazione dei dati e processi di distruzione automatizzata in linea con i requisiti legali, normativi e organizzativi.

  3. Stabilisci processi e automazione per il monitoraggio continuo, la verifica e l'adeguamento delle strategie, dei controlli e delle policy di gestione del ciclo di vita dei dati in base all'evoluzione dei requisiti del carico di lavoro e delle normative.

Risorse

Best practice correlate:

Documenti correlati:

Esempi correlati:

Strumenti correlati: