기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
Neptune ML Gremlin 추론 쿼리의 예외 목록
이는 Neptune ML Gremlin 추론 쿼리를 실행할 때 발생할 수 있는 포괄적인 예외 목록입니다. 이러한 예외는 지정된 IAM 역할 또는 엔드포인트의 문제부터 지원되지 않는 Gremlin 단계 및 쿼리당 ML 추론 쿼리 수 제한에 이르기까지 다양한 문제를 다룹니다. 각 항목에는 문제를 설명하는 자세한 메시지가 포함되어 있습니다.
-
BadRequestException
– 제공된 역할의 보안 인증 정보를 로드할 수 없습니다.Message:
Unable to load credentials for role:
the specified IAM Role ARN
. -
BadRequestException
- 지정된 IAM 역할은 SageMaker 엔드포인트를 호출할 권한이 없습니다.Message:
User:
the specified IAM Role ARN
is not authorized to perform: sagemaker:InvokeEndpoint on resource:the specified endpoint
. -
BadRequestException
– 지정된 엔드포인트가 존재하지 않습니다.Message:
Endpoint
the specified endpoint
not found. -
InternalFailureException
– Amazon S3에서 Neptune ML 실시간 유도 추론 메타데이터를 가져올 수 없습니다.Message:
Unable to fetch Neptune ML - Real-Time Inductive Inference metadata from S3. Check the permissions of the S3 bucket or if the Neptune instance can connect to S3.
-
InternalFailureException
– Neptune ML은 Amazon S3에서의 실시간 유도 추론을 위한 메타데이터 파일을 찾을 수 없습니다.Message:
Neptune ML cannot find the metadata file for Real-Time Inductive Inference in S3.
-
InvalidParameterException
– 지정된 엔드포인트가 구문상 유효하지 않습니다.Message:
Invalid endpoint provided for external service query.
-
InvalidParameterException
- 지정된 SageMaker 실행 IAM 역할ARN이 구문적으로 유효하지 않습니다.Message:
Invalid IAM role ARN provided for external service query.
-
InvalidParameterException
– 쿼리의properties()
단계에서 여러 속성 키가 지정됩니다.Message:
ML inference queries are currently supported for one property key.
-
InvalidParameterException
– 쿼리에 여러 개의 엣지 레이블이 지정됩니다.Message:
ML inference are currently supported only with one edge label.
-
InvalidParameterException
– 쿼리에 버텍스 레이블 제약 조건이 여러 개 지정됩니다.Message:
ML inference are currently supported only with one vertex label constraint.
-
InvalidParameterException
–Neptune#ml.classification
조건자와Neptune#ml.regression
조건자가 모두 동일한 쿼리에 있습니다.Message:
Both regression and classification ML predicates cannot be specified in the query.
-
InvalidParameterException
– 연결 예측 쿼리의in()
또는out()
단계에서 둘 이상의 엣지 레이블이 지정되었습니다.Message:
ML inference are currently supported only with one edge label.
-
InvalidParameterException
– Neptune#ml.score에 둘 이상의 속성 키가 지정되었습니다.Message:
Neptune ML inference queries are currently supported for one property key and one Neptune#ml.score property key.
-
MissingParameterException
– 엔드포인트가 쿼리에 지정되지 않았거나 DB 클러스터 파라미터로 지정되지 않았습니다.Message:
No endpoint provided for external service query.
-
MissingParameterException - SageMaker 실행 IAM 역할이 쿼리에 지정되지 않았거나 DB 클러스터 파라미터로 지정되지 않았습니다.
Message:
No IAM role ARN provided for external service query.
-
MissingParameterException
– 쿼리의properties()
단계에서 속성 키가 누락되었습니다.Message:
Property key needs to be specified using properties() step for ML inference queries.
-
MissingParameterException
– 연결 예측 쿼리의in()
또는out()
단계에서 엣지 레이블이 지정되지 않았습니다.Message:
Edge label needs to be specified while using in() or out() step for ML inference queries.
-
MissingParameterException
– Neptune#ml.score에는 속성 키가 지정되지 않았습니다.Message:
Property key needs to be specified along with Neptune#ml.score property key while using the properties() step for Neptune ML inference queries.
-
UnsupportedOperationException
– 이both()
단계는 연결 예측 쿼리에 사용됩니다.Message:
ML inference queries are currently not supported with both() step.
-
UnsupportedOperationException
– 연결 예측 쿼리의in()
또는out()
단계와 함께has()
단계에서 예측된 버텍스 레이블이 지정되지 않았습니다.Message:
Predicted vertex label needs to be specified using has() step for ML inference queries.
-
UnsupportedOperationException
– Gremlin ML 유도 추론 쿼리는 현재 최적화되지 않은 단계에서 지원되지 않습니다.Message:
Neptune ML - Real-Time Inductive Inference queries are currently not supported with Gremlin steps which are not optimized for Neptune. Check the Neptune User Guide for a list of Neptune-optimized steps.
-
UnsupportedOperationException
– Neptune ML 추론 쿼리는 현재repeat
단계 내에서 지원되지 않습니다.Message:
Neptune ML inference queries are currently not supported inside a repeat step.
-
UnsupportedOperationException
– 현재 Gremlin 쿼리당 지원되는 Neptune ML 추론 쿼리는 하나뿐입니다.Message:
Neptune ML inference queries are currently supported only with one ML inference query per gremlin query.