

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# HealthOmics operazioni del flusso di lavoro
<a name="creating-private-workflows"></a>

Per creare un flusso di lavoro privato, devi:
+  **Workflow definition file:**Un file di definizione del flusso di lavoro scritto in WDLNextflow, oCWL. La definizione del flusso di lavoro specifica gli input e gli output per le esecuzioni che utilizzano il flusso di lavoro. Include inoltre le specifiche per le attività di esecuzione ed esecuzione del flusso di lavoro, inclusi i requisiti di calcolo e memoria. Il file di definizione del flusso di lavoro deve essere in `.zip` formato. Per ulteriori informazioni, vedere [File di definizione del flusso](workflow-definition-files.md) di lavoro in HealthOmics.
  + Puoi utilizzare [Amazon Q CLI per creare e convalidare i](https://docs.aws.amazon.com/amazonq/latest/qdeveloper-ug/what-is.html) file di definizione del flusso di lavoro in WDL, Nextflow e CWL. Per ulteriori informazioni, consulta le [istruzioni di esempio per la CLI di Amazon Q](getting-started.md#omics-q-prompts) e il tutorial sull'intelligenza artificiale generativa [HealthOmics Agentic](https://github.com/aws-samples/aws-healthomics-tutorials/tree/main/generative-ai) su. GitHub
+  **(Optional) Parameter template file:**Un file modello di parametro scritto in. JSON Crea il file per definire i parametri di esecuzione o HealthOmics genera automaticamente il modello dei parametri. Per ulteriori informazioni, consultate [File modello di parametri per i HealthOmics flussi di lavoro](parameter-templates.md). 
+ **Amazon ECR container images:**Crea repository Amazon ECR privati per ogni contenitore utilizzato nel flusso di lavoro. Crea immagini di container per il flusso di lavoro e memorizzale in un repository privato oppure sincronizza il contenuto di un registro upstream supportato con il tuo repository privato ECR. 
+  **(Optional) Sentieon licenses:**Richiedi una Sentieon licenza per utilizzare il software in flussi di lavoro privatiSentieon.

Per i file di definizione del flusso di lavoro più grandi di 4 MiB (compressi), scegli una di queste opzioni durante la creazione del flusso di lavoro:
+ Carica in una cartella Amazon Simple Storage Service e specifica la posizione.
+ Carica su un repository esterno (dimensione massima 1 GiB) e specifica i dettagli del repository.

Dopo aver creato un flusso di lavoro, è possibile aggiornare le seguenti informazioni sul flusso di lavoro con l'operazione: `UpdateWorkflow`
+ Nome
+ Description
+ Tipo di archiviazione predefinito
+ Capacità di archiviazione predefinita (con ID del flusso di lavoro)
+ File README.md

Per modificare altre informazioni nel flusso di lavoro, crea un nuovo flusso di lavoro o una nuova versione del flusso di lavoro.

Utilizza il controllo delle versioni del flusso di lavoro per organizzare e strutturare i flussi di lavoro. Le versioni consentono inoltre di gestire l'introduzione di aggiornamenti iterativi del flusso di lavoro. Per ulteriori informazioni sulle versioni, consulta [Creare una versione del flusso di lavoro](workflows-version-create.md).

**Topics**
+ [Creare un flusso di lavoro privato](create-private-workflow.md)
+ [Aggiornare un flusso di lavoro privato](update-private-workflow.md)
+ [Eliminare un flusso di lavoro privato](delete-private-workflow.md)
+ [Verifica lo stato del flusso di lavoro](using-get-workflow.md)
+ [Riferimento ai file del genoma da una definizione di workflow](create-ref-files.md)

# Creare un flusso di lavoro privato
<a name="create-private-workflow"></a>

Crea un flusso di lavoro utilizzando la HealthOmics console, i comandi AWS CLI o uno dei. AWS SDKs

**Nota**  
Non includere informazioni di identificazione personale (PII) nei nomi dei flussi di lavoro. Questi nomi sono visibili nei CloudWatch registri.

Quando crei un flusso di lavoro, HealthOmics assegna un identificatore univoco universale (UUID) al flusso di lavoro. L'UUID del flusso di lavoro è un identificatore univoco globale (GUID) unico per i flussi di lavoro e le versioni del flusso di lavoro. Ai fini della provenienza dei dati, si consiglia di utilizzare l'UUID del flusso di lavoro per identificare in modo univoco i flussi di lavoro.

Se le attività del flusso di lavoro utilizzano strumenti esterni (eseguibili, librerie o script), questi strumenti vengono incorporati in un'immagine contenitore. Sono disponibili le seguenti opzioni per ospitare l'immagine del contenitore:
+ Ospita l'immagine del contenitore nel registro privato ECR. Prerequisiti per questa opzione:
  + Crea un archivio privato ECR o scegli un repository esistente.
  + Configurare la politica delle risorse ECR come descritto in. [Autorizzazioni Amazon ECR](permissions-ecr.md)
  + Carica l'immagine del contenitore nell'archivio privato. 
+ Sincronizza l'immagine del contenitore con il contenuto di un registro di terze parti supportato. Prerequisiti per questa opzione:
  + Nel registro privato ECR, configura una regola pull through cache per ogni registro upstream. Per ulteriori informazioni, consulta [Mappature delle immagini](workflows-ecr.md#ecr-pull-through-mapping-format).
  + Configura la politica delle risorse ECR come descritto in. [Autorizzazioni Amazon ECR](permissions-ecr.md)
  + Crea modelli per la creazione di repository. Il modello definisce le impostazioni per quando Amazon ECR crea l'archivio privato per un registro upstream.
  + Crea mappature di prefissi per rimappare i riferimenti alle immagini dei contenitori nella definizione del flusso di lavoro ai namespace della cache ECR.

Quando si crea un flusso di lavoro, si fornisce una definizione del flusso di lavoro che contiene informazioni sul flusso di lavoro, sulle esecuzioni e sulle attività. HealthOmics può recuperare la definizione del flusso di lavoro come archivio.zip archiviato localmente o in un bucket Amazon S3 o da un repository basato su Git supportato. 

**Topics**
+ [Creare un flusso di lavoro utilizzando la console](#console-create-workflows)
+ [Creazione di un flusso di lavoro utilizzando la CLI](#api-create-workflows)
+ [Creazione di un flusso di lavoro utilizzando un SDK](#sdk-create-workflows)

## Creare un flusso di lavoro utilizzando la console
<a name="console-create-workflows"></a>

**Passaggi per creare un flusso di lavoro**

1. Apri la [HealthOmics console](https://console.aws.amazon.com/omics/).

1.  Se necessario, apri il riquadro di navigazione a sinistra (≡). Scegli **Flussi di lavoro privati**.

1. Nella pagina **Flussi di lavoro privati**, scegli **Crea** flusso di lavoro.

1. Nella pagina **Definisci flusso di lavoro**, fornisci le seguenti informazioni:

   1. **Nome del flusso di lavoro**: un nome distintivo per questo flusso di lavoro. Ti consigliamo di impostare i nomi dei flussi di lavoro per organizzare le esecuzioni nella AWS HealthOmics console e nei CloudWatch registri.

   1. **Descrizione** (opzionale): una descrizione di questo flusso di lavoro.

1. Nel pannello **di definizione del flusso** di lavoro, fornite le seguenti informazioni:

   1. **Lingua del flusso** di lavoro (opzionale): seleziona la lingua specifica del flusso di lavoro. Altrimenti, HealthOmics determina la lingua dalla definizione del flusso di lavoro.

   1. Per l'**origine delle definizioni di Workflow**, scegli di importare la cartella delle definizioni da un repository basato su Git, una posizione Amazon S3 o da un'unità locale.

      1. Per l'**importazione da** un servizio di repository:
**Nota**  
HealthOmics supporta repository pubblici e privati perGitHub,,, GitLabBitbucket,GitHub self-managed. GitLab self-managed

         1. Scegli una **connessione** per connettere AWS le tue risorse al repository esterno. Per creare una connessione, consulta[Connect con repository di codice esterni](setting-up-new.md#setting-up-omics-repository).
**Nota**  
I clienti della TLV regione devono creare una connessione nella regione IAD (us-east-1) per creare un flusso di lavoro. 

         1. In **Full repository ID, inserisci l'ID del repository** come nome utente/nome del repository. Verifica di avere accesso ai file in questo repository.

         1. In **Riferimento alla fonte** (opzionale), inserisci un riferimento alla fonte del repository (branch, tag o ID di commit). HealthOmics utilizza il ramo predefinito se non viene specificato alcun riferimento alla fonte.

         1. In **Escludi modelli** di file, inserisci i modelli di file per escludere cartelle, file o estensioni specifici. Questo aiuta a gestire le dimensioni dei dati durante l'importazione dei file del repository. Esistono un massimo di 50 pattern e i pattern devono seguire la sintassi del modello [glob](https://fossil-scm.org/home/doc/tip/www/globs.md). Esempio: 

            1. `tests/`

            1. `*.jpeg`

            1. `large_data.zip`

      1. Per **Seleziona la cartella di definizione** da S3:

         1. Inserisci la posizione Amazon S3 che contiene la cartella di definizione del flusso di lavoro compressa. Il bucket Amazon S3 deve trovarsi nella stessa regione del flusso di lavoro.

         1. Se il tuo account non possiede il bucket Amazon S3, inserisci l'ID dell'account del proprietario del bucket nell'ID dell' AWS account del proprietario del **bucket S3**. Queste informazioni sono necessarie per verificare la proprietà del HealthOmics bucket.

      1. Per **Seleziona la cartella di definizione da una fonte locale:**

         1. Immettete la posizione sull'unità locale della cartella di definizione del flusso di lavoro compressa.

   1. **Percorso principale del file di definizione del flusso** di lavoro (opzionale): immettete il percorso del file dalla cartella o dall'archivio di definizione del flusso di lavoro compresso al file. `main` Questo parametro non è richiesto se è presente un solo file nella cartella di definizione del flusso di lavoro o se il file principale è denominato «principale».

1. Nel pannello del **file README** (opzionale), selezionate l'**origine del file README** e fornite le seguenti informazioni:
   + Per **Importazione da un servizio di repository**, nel **percorso del file README, inserisci il percorso** del file README all'interno del repository.
   + Per **Seleziona file da S3**, nel file **README in S3, inserisci l'URI Amazon S3 per il file** README.
   + Per **Seleziona file da una fonte locale**: in **README - opzionale**, **scegli Scegli file per selezionare il file** markdown (.md) da caricare.

1. Nel pannello di **configurazione dell'archiviazione di esecuzione predefinita**, fornisci il tipo e la capacità di archiviazione di esecuzione predefiniti per le esecuzioni che utilizzano questo flusso di lavoro:

   1. **Tipo di archiviazione di esecuzione**: scegli se utilizzare l'archiviazione statica o dinamica come impostazione predefinita per l'archiviazione di esecuzione temporanea. L'impostazione predefinita è l'archiviazione statica.

   1. **Capacità di archiviazione di esecuzione** (opzionale): per il tipo di storage di esecuzione statico, è possibile inserire la quantità predefinita di storage di esecuzione richiesta per questo flusso di lavoro. Il valore predefinito per questo parametro è 1200 GiB. È possibile sovrascrivere questi valori predefiniti quando si avvia un'esecuzione.

1. **Tag** (opzionale): puoi associare fino a 50 tag a questo flusso di lavoro.

1. Scegli **Next (Successivo)**.

1. Nella pagina **Aggiungi parametri del flusso** di lavoro (opzionale), seleziona l'**origine dei parametri**:

   1. Per **Analizza dal file di definizione del flusso di lavoro**, HealthOmics analizzerà automaticamente i parametri del flusso di lavoro dal file di definizione del flusso di lavoro.

   1. Per **Fornire un modello di parametro dal repository Git**, usa il percorso del file del modello di parametro dal tuo repository.

   1. Per **Seleziona il file JSON dalla fonte locale**, carica un JSON file da una fonte locale che specifichi i parametri.

   1. In **Inserisci manualmente i parametri del flusso di lavoro**, inserisci manualmente i nomi e le descrizioni dei parametri.

1. Nel pannello di **anteprima dei parametri**, è possibile rivedere o modificare i parametri per questa versione del flusso di lavoro. Se ripristinate il JSON file, perderete tutte le modifiche locali apportate.

1. Scegli **Next (Successivo)**.

1. Nella pagina di **rimappatura dell'URI del contenitore**, nel pannello **Regole di mappatura, puoi definire le regole** di mappatura URI per il tuo flusso di lavoro.

   Per **Origine del file di mappatura**, selezionate una delle seguenti opzioni:
   + **Nessuna**: non è richiesta alcuna regola di mappatura.
   + **Seleziona il file JSON da S3**: specifica la posizione S3 per il file di mappatura. 
   + **Seleziona il file JSON da una fonte locale**: specifica la posizione del file di mappatura sul tuo dispositivo locale.
   + **Inserisci manualmente le mappature: inserisci le mappature** **del registro e le mappature delle immagini nel pannello Mappature.**

1.  La console **visualizza** il pannello Mappature. Se avete scelto un file sorgente di mappatura, la console visualizza i valori del file.

   1. Nelle **mappature del registro**, è possibile modificare le mappature o aggiungere mappature (massimo 20 mappature del registro).

      Ogni mappatura del registro contiene i seguenti campi:
      + **URL del registro upstream**: l'URI del registro upstream.
      + Prefisso del **repository ECR: il prefisso** del repository da utilizzare nell'archivio privato Amazon ECR.
      + (Facoltativo) Prefisso del repository **upstream: il prefisso del repository** nel registro upstream.
      + (Facoltativo) ID account **ECR: ID account** dell'account proprietario dell'immagine del contenitore upstream.

   1. Nelle **mappature delle immagini**, è possibile modificare le mappature delle immagini o aggiungere mappature (massimo 100 mappature di immagini).

      Ogni mappatura di immagini contiene i seguenti campi:
      + **Immagine di origine**: specifica l'URI dell'immagine di origine nel registro upstream.
      + **Immagine di destinazione**: specifica l'URI dell'immagine corrispondente nel registro privato di Amazon ECR.

1. Scegli **Next (Successivo)**.

1. Controlla la configurazione del flusso di lavoro, quindi scegli **Crea** flusso di lavoro.

## Creazione di un flusso di lavoro utilizzando la CLI
<a name="api-create-workflows"></a>

Se i file del flusso di lavoro e il file del modello dei parametri si trovano sul computer locale, è possibile creare un flusso di lavoro utilizzando il seguente comando CLI. 

```
aws omics create-workflow  \
  --name "my_workflow"   \
  --definition-zip fileb://my-definition.zip \
  --parameter-template file://my-parameter-template.json
```

L'`create-workflow`operazione restituisce la seguente risposta:

```
{
  "arn": "arn:aws:omics:us-west-2:....",
  "id": "1234567",
  "status": "CREATING",
  "tags": {
      "resourceArn": "arn:aws:omics:us-west-2:...."
  },
  "uuid": "64c9a39e-8302-cc45-0262-2ea7116d854f"
}
```

### Parametri opzionali da utilizzare durante la creazione di un flusso di lavoro
<a name="other-create-parameters"></a>

È possibile specificare uno qualsiasi dei parametri opzionali quando si crea un flusso di lavoro. Per i dettagli sulla sintassi, [CreateWorkflow](https://docs.aws.amazon.com/omics/latest/api/API_CreateWorkflow.html)consulta AWS HealthOmics API Reference. 

**Topics**
+ [Specificare la definizione del flusso di lavoro (posizione Amazon S3)](#create-defn-uri-parameter)
+ [Usa la definizione del flusso di lavoro da un repository basato su Git](#create-defn-uri-git)
+ [Specificare un file Readme](#specify-readme-file)
+ [Specificare il file di definizione **main**](#create-main-parameter)
+ [Specificate il tipo di archiviazione di esecuzione](#create-run-storage-parameter)
+ [Specificare la configurazione della GPU](#create-accelerator-parameter)
+ [Configura i parametri di mappatura pull through cache](#create-prefix-mapping-parameters)

#### Specificare la definizione del flusso di lavoro (posizione Amazon S3)
<a name="create-defn-uri-parameter"></a>

Se il file di definizione del flusso di lavoro si trova in una cartella Amazon S3, specifica la posizione utilizzando il `definition-uri` parametro, come mostrato nell'esempio seguente. Se il tuo account non possiede il bucket Amazon S3, fornisci l'ID del proprietario. Account AWS 

```
aws omics create-workflow  \
  --name Test  \
  --definition-uri s3://omics-bucket/workflow-definition/  \
  --owner-id  123456789012 
    ...
```

#### Usa la definizione del flusso di lavoro da un repository basato su Git
<a name="create-defn-uri-git"></a>

Per utilizzare la definizione del flusso di lavoro da un repository basato su Git supportato, usa il `definition-repository` parametro nella richiesta. Non fornire nessun altro `definition` parametro, poiché una richiesta ha esito negativo se include più di una fonte di input.

Il `definition-respository` parametro contiene i seguenti campi:
+ **connectionArn**— ARN della Code Connection che collega le risorse AWS al repository esterno.
+ **fullRepositoryId**— Inserisci l'ID del repository come. `owner-name/repo-name` Verifica di avere accesso ai file in questo repository.
+ **sourceReference**(Facoltativo): immettete un tipo di riferimento del repository (BRANCH, TAG o COMMIT) e un valore.

  HealthOmics utilizza il commit più recente sul ramo predefinito se non specificate un riferimento alla fonte.
+ **excludeFilePatterns**(Facoltativo): immettete i modelli di file per escludere cartelle, file o estensioni specifiche. Questo aiuta a gestire le dimensioni dei dati durante l'importazione dei file del repository. [Fornisci un massimo di 50 pattern. I pattern devono seguire la sintassi del modello glob.](https://fossil-scm.org/home/doc/tip/www/globs.md) Esempio:
  + `tests/`
  + `*.jpeg`
  + `large_data.zip`

Quando specifichi la definizione del flusso di lavoro da un repository basato su Git, usa `parameter-template-path` per specificare il file modello dei parametri. Se non fornite questo parametro, HealthOmics crea il flusso di lavoro senza un modello di parametro.

L'esempio seguente mostra i parametri relativi al contenuto di un repository privato basato su Git: 

```
aws omics create-workflow \
    --name custom-variant \
    --description "Custom variant calling pipeline" \
    --engine "WDL" \
    --definition-repository '{
            "connectionArn": "arn:aws:codeconnections:us-east-1:123456789012:connection/abcd1234-5678-90ab-cdef-1234567890ab",
            "fullRepositoryId": "myorg/my-genomics-workflows",
            "sourceReference": {
                "type": "BRANCH",            
                "value": "main"        
            },        
            "excludeFilePatterns": ["tests/**", "*.log"]   
      }' \
    --main "workflows/variant-calling/main.wdl" \
    --parameter-template-path "parameters/variant-calling-params.json" \
    --readme-path "docs/variant-calling-README.md" \
    --storage-type "DYNAMIC" \
```

Per altri esempi, consulta il post sul blog [How To Create an AWS HealthOmics Workflows from Content in Git](https://repost.aws/articles/ARCEN7AjhaRSmteczRoc_QsA/how-to-create-an-aws-healthomics-workflows-from-content-in-git).

#### Specificare un file Readme
<a name="specify-readme-file"></a>

È possibile specificare la posizione del file README utilizzando uno dei seguenti parametri:
+ **readme-markdown**— Inserimento di una stringa o di un file sul computer locale. 
+ **readme-uri**— L'URI di un file archiviato su S3. 
+ **readme-path **— Il percorso del file README nel repository. 

**Utilizza readme-path solo insieme a definition-repository.** Se non specificate alcun parametro README, HealthOmics importa il file README.md di livello root nel repository (se esiste).

Gli esempi seguenti mostrano come specificare la posizione del file README utilizzando readme-path e readme-uri.

```
# Using README from repository
aws omics create-workflow \
    --name "documented-workflow" \
    --definition-repository '...' \
    --readme-path "docs/workflow-guide.md"

# Using README from S3
aws omics create-workflow \
    --name "s3-readme-workflow" \
    --definition-repository '...' \
    --readme-uri "s3://my-bucket/workflow-docs/readme.md"
```

Per ulteriori informazioni, consulta [HealthOmics File README del flusso di lavoro](workflows-readme.md).

#### Specificare il file di definizione **main**
<a name="create-main-parameter"></a>

Se state includendo più file di definizione del flusso di lavoro, utilizzate il `main` parametro per specificare il file di definizione principale per il flusso di lavoro.

```
aws omics create-workflow  \
  --name Test  \
  --main multi_workflow/workflow2.wdl  \
    ...
```

#### Specificate il tipo di archiviazione di esecuzione
<a name="create-run-storage-parameter"></a>

È possibile specificare il tipo di run storage predefinito (DYNAMIC o STATIC) e la capacità di storage di esecuzione (richiesta per lo storage statico). Per ulteriori informazioni sui tipi di run storage, consulta[Esegui tipi di storage nei flussi HealthOmics di lavoro](workflows-run-types.md).

```
aws omics create-workflow  \
  --name my_workflow   \
  --definition-zip fileb://my-definition.zip \
  --parameter-template file://my-parameter-template.json   \
  --storage-type 'STATIC'  \
  --storage-capacity 1200  \
```

#### Specificare la configurazione della GPU
<a name="create-accelerator-parameter"></a>

Utilizza il parametro accelerators per creare un flusso di lavoro che viene eseguito su un'istanza di calcolo accelerato. L'esempio seguente mostra come utilizzare il parametro. `accelerators` La configurazione della GPU viene specificata nella definizione del flusso di lavoro. Per informazioni, consulta [Istanze di elaborazione accelerata](memory-and-compute-tasks.md#workflow-task-accelerated-computing-instances).

```
aws omics create-workflow --name workflow name \
   --definition-uri s3://amzn-s3-demo-bucket1/GPUWorkflow.zip \
   --accelerators GPU
```

#### Configura i parametri di mappatura pull through cache
<a name="create-prefix-mapping-parameters"></a>

Se utilizzi la funzionalità di mappatura pull through della cache di Amazon ECR, puoi sostituire le mappature predefinite. Per ulteriori informazioni sui parametri di configurazione del contenitore, consulta. [Immagini di container per flussi di lavoro privati](workflows-ecr.md)

Nell'esempio seguente, il file `mappings.json` contiene questo contenuto:

```
{
    "registryMappings": [
        {
            "upstreamRegistryUrl": "registry-1.docker.io",
            "ecrRepositoryPrefix": "docker-hub"
        },
        {
            "upstreamRegistryUrl": "quay.io",
            "ecrRepositoryPrefix": "quay",
            "accountId": "123412341234"
        },
        {

            "upstreamRegistryUrl": "public.ecr.aws",
            "ecrRepositoryPrefix": "ecr-public"
        }
    ],
    "imageMappings": [{
            "sourceImage": "docker.io/library/ubuntu:latest",
            "destinationImage": "healthomics-docker-2/custom/ubuntu:latest",
            "accountId": "123412341234"
        },
        {
            "sourceImage": "nvcr.io/nvidia/k8s/dcgm-exporter",
            "destinationImage": "healthomics-nvidia/k8s/dcgm-exporter"
        }
    ]
}
```

Specificate i parametri di mappatura nel comando create-workflow:

```
aws omics create-workflow  \
     ...
--container-registry-map-file file://mappings.json
    ...
```

È inoltre possibile specificare la posizione S3 del file dei parametri di mappatura:

```
aws omics create-workflow  \
     ...
--container-registry-map-uri s3://amzn-s3-demo-bucket1/test.zip
    ...
```

## Creazione di un flusso di lavoro utilizzando un SDK
<a name="sdk-create-workflows"></a>

Puoi creare un flusso di lavoro utilizzando uno dei SDKs. L'esempio seguente mostra come creare un flusso di lavoro utilizzando Python SDK.

```
import boto3

omics = boto3.client('omics')

with open('definition.zip', 'rb') as f:
   definition = f.read()

response = omics.create_workflow(
   name='my_workflow',
   definitionZip=definition,
   parameterTemplate={ ... }
)
```

# Aggiornare un flusso di lavoro privato
<a name="update-private-workflow"></a>

È possibile aggiornare un flusso di lavoro utilizzando la HealthOmics console, i comandi AWS CLI o uno dei. AWS SDKs

**Nota**  
Non includere informazioni di identificazione personale (PII) nei nomi dei flussi di lavoro. Questi nomi sono visibili nei CloudWatch registri.

**Topics**
+ [Aggiornamento di un flusso di lavoro tramite la console](#console-update-workflows)
+ [Aggiornamento di un flusso di lavoro tramite la CLI](#api-update-workflows)
+ [Aggiornamento di un flusso di lavoro tramite un SDK](#sdk-update-workflows)

## Aggiornamento di un flusso di lavoro tramite la console
<a name="console-update-workflows"></a>

**Passaggi per aggiornare un flusso di lavoro**

1. Apri la [HealthOmics console](https://console.aws.amazon.com/omics/).

1.  Se necessario, apri il riquadro di navigazione a sinistra (≡). Scegli **Flussi di lavoro privati**.

1. Nella pagina **Flussi di lavoro privati**, scegli il flusso di lavoro da aggiornare.

1. Nella pagina **Workflow**:
   + Se il flusso di lavoro ha delle versioni, assicurati di selezionare la **versione predefinita**.
   + Scegli **Modifica selezionato** dall'elenco **Azioni**. 

1. Nella pagina **Modifica flusso di lavoro**, puoi modificare uno qualsiasi dei seguenti valori:
   + **Nome del flusso** di lavoro.
   + **Descrizione del flusso** di lavoro.
   + Il **tipo di archiviazione Run** predefinito per il flusso di lavoro.
   + La **capacità di archiviazione Run** predefinita (se il tipo di archiviazione di esecuzione è statica). Per ulteriori informazioni sulla configurazione predefinita di Run Storage, consulta[Creare un flusso di lavoro utilizzando la console](create-private-workflow.md#console-create-workflows).

1. Scegli **Salva modifiche** per applicare le modifiche.

## Aggiornamento di un flusso di lavoro tramite la CLI
<a name="api-update-workflows"></a>

Come illustrato nell'esempio seguente, è possibile aggiornare il nome e la descrizione del flusso di lavoro. È inoltre possibile modificare il tipo di archiviazione di esecuzione (STATIC o DYNAMIC) e la capacità di archiviazione di esecuzione (per il tipo di archiviazione statica). Per ulteriori informazioni sui tipi di run storage, consulta[Esegui tipi di storage nei flussi HealthOmics di lavoro](workflows-run-types.md).

```
aws omics update-workflow    \
  --id 1234567    \
  --name my_workflow      \
  --description "updated workflow"    \
  --storage-type 'STATIC'    \
  --storage-capacity 1200
```

Non ricevi una risposta alla `update-workflow` richiesta.

## Aggiornamento di un flusso di lavoro tramite un SDK
<a name="sdk-update-workflows"></a>

Puoi aggiornare un flusso di lavoro utilizzando uno dei SDKs.

L'esempio seguente mostra come aggiornare un flusso di lavoro utilizzando Python SDK

```
import boto3

omics = boto3.client('omics')

response = omics.update_workflow(
   name='my_workflow',
   description='updated workflow'
)
```

# Eliminare un flusso di lavoro privato
<a name="delete-private-workflow"></a>

Quando non è più necessario un flusso di lavoro, è possibile eliminarlo utilizzando la HealthOmics console, i comandi AWS CLI o uno dei. AWS SDKs È possibile eliminare un flusso di lavoro che soddisfa i seguenti criteri:
+ Il suo stato è ATTIVO o FALLITO.
+ Non ha condivisioni attive. 
+ Hai eliminato tutte le versioni del flusso di lavoro.

L'eliminazione di un flusso di lavoro non influisce sulle esecuzioni in corso che utilizzano il flusso di lavoro.

**Topics**
+ [Eliminazione di un flusso di lavoro tramite la console](#console-delete-workflows)
+ [Eliminazione di un flusso di lavoro utilizzando la CLI](#api-delete-workflows)
+ [Eliminazione di un flusso di lavoro utilizzando un SDK](#sdk-delete-workflows)

## Eliminazione di un flusso di lavoro tramite la console
<a name="console-delete-workflows"></a>

**Per eliminare un flusso di lavoro**

1. Apri la [HealthOmics console](https://console.aws.amazon.com/omics/).

1.  Se necessario, apri il riquadro di navigazione a sinistra (≡). Scegli **Flussi di lavoro privati**.

1. Nella pagina **Flussi di lavoro privati**, scegli il flusso di lavoro da eliminare.

1. Nella pagina **Workflow**, scegli **Elimina selezionato** dall'elenco **Azioni**.

1. Nella modalità **Elimina flusso di lavoro**, inserisci «conferma» per confermare l'eliminazione.

1. Scegli **Elimina**.

## Eliminazione di un flusso di lavoro utilizzando la CLI
<a name="api-delete-workflows"></a>

L'esempio seguente mostra come utilizzare il AWS CLI comando per eliminare un flusso di lavoro. Per eseguire l'esempio, sostituisci il `workflow id` con l'ID del flusso di lavoro che desideri eliminare. 

```
aws omics delete-workflow 
  --id workflow id
```

HealthOmics non invia una risposta alla `delete-workflow` richiesta. 

## Eliminazione di un flusso di lavoro utilizzando un SDK
<a name="sdk-delete-workflows"></a>

Puoi eliminare un flusso di lavoro utilizzando uno dei. SDKs

L'esempio seguente mostra come eliminare un flusso di lavoro utilizzando Python SDK.

```
import boto3

omics = boto3.client('omics')

response = omics.delete_workflow(
   id='1234567'
)
```

# Verifica lo stato del flusso di lavoro
<a name="using-get-workflow"></a>

Dopo aver creato il flusso di lavoro, puoi verificare lo stato e visualizzare altri dettagli del flusso di lavoro utilizzando **get-workflow**, come illustrato.

```
aws omics get-workflow --id 1234567 
```

La risposta include i dettagli del flusso di lavoro, incluso lo stato, come mostrato.

```
{
    "arn": "arn:aws:omics:us-west-2:....",
    "creationTime": "2022-07-06T00:27:05.542459" 
    "id": "1234567",
    "engine": "WDL",
    "status": "ACTIVE",
    "type": "PRIVATE",
    "main": "workflow-crambam.wdl",
    "name": "workflow_name",
    "storageType": "STATIC",
    "storageCapacity": "1200",
    "uuid": "64c9a39e-8302-cc45-0262-2ea7116d854f"   
  }
```

È possibile avviare un'esecuzione utilizzando questo flusso di lavoro dopo la transizione dello stato a`ACTIVE`.

# Riferimento ai file del genoma da una definizione di workflow
<a name="create-ref-files"></a>

È possibile HealthOmics fare riferimento a un oggetto dell'archivio di riferimento con un URI come il seguente. Usa il tuo `account ID` `reference store ID` e `reference ID` dove indicato.

```
omics://account ID.storage.us-west-2.amazonaws.com/reference store id/reference/id            
```

Alcuni flussi di lavoro richiederanno sia `SOURCE` i `INDEX` file che per il genoma di riferimento. L'URI precedente è il formato abbreviato predefinito e per impostazione predefinita sarà il file SOURCE. Per specificare uno dei due file, è possibile utilizzare il formato URI lungo, come segue.

```
omics://account ID.storage.us-west-2.amazonaws.com/reference store id/reference/id/source
omics://account ID.storage.us-west-2.amazonaws.com/reference store id/reference/id/index
```

L'utilizzo di un set di lettura della sequenza avrebbe uno schema simile, come mostrato.

```
aws omics create-workflow \
     --name workflow name \
     --main sample workflow.wdl \
     --definition-uri omics://account ID.storage.us-west-2.amazonaws.com/sequence_store_id/readSet/id \
     --parameter-template file://parameters_sample_description.json
```

Alcuni set di lettura, come quelli basati su FASTQ, possono contenere letture accoppiate. Negli esempi seguenti, vengono denominati e. SOURCE1 SOURCE2 I formati come BAM e CRAM avranno solo un SOURCE1 file. Alcuni set di lettura conterranno file INDEX come i file `bai` or`crai`. L'URI precedente è il formato abbreviato predefinito e per impostazione predefinita sarà il SOURCE1 file. Per specificare il file o l'indice esatto, è possibile utilizzare il formato URI lungo, come segue.

```
omics://123456789012.storage.us-west-2.amazonaws.com/<sequence_store_id>/readSet/<id>/source1
omics://123456789012.storage.us-west-2.amazonaws.com/<sequence_store_id>/readSet/<id>/source2
omics://123456789012.storage.us-west-2.amazonaws.com/<sequence_store_id>/readSet/<id>/index
```

Di seguito è riportato un esempio di file JSON di input che utilizza due Omics Storage. URIs

```
{
   "input_fasta": "omics://123456789012.storage.us-west-2.amazonaws.com/<reference_store_id>/reference/<id>",
   "input_cram": "omics://123456789012.storage.us-west-2.amazonaws.com/<sequence_store_id>/readSet/<id>"
}
```

**Fai riferimento al file JSON di input in AWS CLI aggiungendolo `--inputs file://<input_file.json>` alla tua richiesta start-run.** 