Como usar o TensorFlow algoritmo de Classificação de SageMaker Texto - Amazon SageMaker

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Como usar o TensorFlow algoritmo de Classificação de SageMaker Texto

Você pode usar a Classificação de Texto - TensorFlow como um algoritmo SageMaker integrado da Amazon. A seção a seguir descreve como usar a Classificação de Texto - TensorFlow com o SageMaker PythonSDK. Para obter informações sobre como usar a classificação de texto na interface TensorFlow do usuário do Amazon SageMaker Studio Classic, consulteSageMaker JumpStart modelos pré-treinados.

O TensorFlow algoritmo de Classificação de Texto suporta o aprendizado por transferência usando qualquer um dos TensorFlow modelos pré-treinados compatíveis. Para obter uma lista de todos os modelos pré-treinados disponíveis, consulte TensorFlow Modelos de hub. Cada modelo pré-treinado tem um model_id exclusivo. O exemplo a seguir usa BERT Base Uncased (model_id:tensorflow-tc-bert-en-uncased-L-12-H-768-A-12-2) para ajustar um conjunto de dados personalizado. Os modelos pré-treinados são todos pré-baixados do TensorFlow Hub e armazenados em buckets do Amazon S3 para que os trabalhos de treinamento possam ser executados isoladamente na rede. Use esses artefatos de treinamento de modelo pré-gerados para construir um SageMaker Estimador.

Primeiro, recupere a imagem do DockerURI, o script URI de treinamento e o modelo pré-treinado. URI Em seguida, altere os hiperparâmetros conforme desejar. Você pode ver um dicionário Python de todos os hiperparâmetros disponíveis e seus valores padrão com hyperparameters.retrieve_default. Para obter mais informações, consulte Classificação de texto - TensorFlow Hiperparâmetros. Use esses valores para construir um SageMaker estimador.

nota

Os valores padrão dos hiperparâmetros são diferentes para modelos diferentes. Por exemplo, para modelos maiores, o tamanho padrão do lote é menor.

Este exemplo usa o conjunto de dados SST2, que contém resenhas de filmes positivas e negativas. Nós pré-baixamos o conjunto de dados e o disponibilizamos com o Amazon S3. Para ajustar seu modelo, chame .fit usando a localização do Amazon S3 do seu conjunto de dados de treinamento. Qualquer bucket do S3 usado em um notebook deve estar na mesma AWS região da instância do notebook que o acessa.

from sagemaker import image_uris, model_uris, script_uris, hyperparameters from sagemaker.estimator import Estimator model_id, model_version = "tensorflow-tc-bert-en-uncased-L-12-H-768-A-12-2", "*" training_instance_type = "ml.p3.2xlarge" # Retrieve the Docker image train_image_uri = image_uris.retrieve(model_id=model_id,model_version=model_version,image_scope="training",instance_type=training_instance_type,region=None,framework=None) # Retrieve the training script train_source_uri = script_uris.retrieve(model_id=model_id, model_version=model_version, script_scope="training") # Retrieve the pretrained model tarball for transfer learning train_model_uri = model_uris.retrieve(model_id=model_id, model_version=model_version, model_scope="training") # Retrieve the default hyperparameters for fine-tuning the model hyperparameters = hyperparameters.retrieve_default(model_id=model_id, model_version=model_version) # [Optional] Override default hyperparameters with custom values hyperparameters["epochs"] = "5" # Sample training data is available in this bucket training_data_bucket = f"jumpstart-cache-prod-{aws_region}" training_data_prefix = "training-datasets/SST2/" training_dataset_s3_path = f"s3://{training_data_bucket}/{training_data_prefix}" output_bucket = sess.default_bucket() output_prefix = "jumpstart-example-tc-training" s3_output_location = f"s3://{output_bucket}/{output_prefix}/output" # Create an Estimator instance tf_tc_estimator = Estimator( role=aws_role, image_uri=train_image_uri, source_dir=train_source_uri, model_uri=train_model_uri, entry_point="transfer_learning.py", instance_count=1, instance_type=training_instance_type, max_run=360000, hyperparameters=hyperparameters, output_path=s3_output_location, ) # Launch a training job tf_tc_estimator.fit({"training": training_dataset_s3_path}, logs=True)

Para obter mais informações sobre como usar o TensorFlow algoritmo de Classificação de SageMaker Texto para transferir o aprendizado em um conjunto de dados personalizado, consulte o caderno Introdução à JumpStart Classificação de Texto.