기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
현재 지원되는 추론 유형은 노드 분류, 노드 회귀, 엣지 분류, 엣지 회귀 및 연결 예측입니다(Neptune ML 기능 참조).
-
Neptune ML이 지원할 수 있는 최대 그래프 크기는 데이터 준비, 모델 훈련 및 추론 중에 필요한 메모리 및 스토리지의 양에 따라 달라집니다.
SageMaker AI 데이터 처리 인스턴스의 최대 메모리 크기는 768GB입니다. 따라서 768GB 이상의 메모리가 필요한 경우 데이터 처리 단계가 실패합니다.
SageMaker AI 훈련 인스턴스의 최대 메모리 크기는 732GB입니다. 따라서 732GB 이상의 메모리가 필요한 경우 훈련 단계가 실패합니다.
SageMaker AI 엔드포인트에 대한 추론 페이로드의 최대 크기는 6MiB입니다. 따라서 하위 그래프 페이로드가 해당 크기를 초과하면 유도 추론이 실패합니다.
-
Neptune ML은 현재 Neptune 및 Neptune이 의존하는 다른 서비스(예: AWS Lambda Amazon API Gateway 및 Amazon SageMaker AI)가 모두 지원되는 리전에서만 사용할 수 있습니다.
다른 차이점과 함께 여기에 설명된
것처럼 중국(베이징)과 중국(닝샤)에서는 IAM 인증의 기본 사용과 관련된 차이점이 있습니다. -
Neptune ML에서 출시한 연결 예측 추론 엔드포인트는 현재 훈련 중에 그래프에 나타난 노드와의 가능한 연결만 예측할 수 있습니다.
User
및Movie
버텍스와Rated
엣지가 있는 그래프를 예로 들어 보겠습니다. 해당하는 Neptune ML 연결 예측 추천 모델을 사용하여 그래프에 새 사용자를 추가하고 모델이 사용자를 대신하여 영화를 예측하도록 할 수 있습니다. 하지만 모델은 모델 훈련 중에 존재한 영화만 추천할 수 있습니다.User
노드 임베딩은 로컬 하위 그래프와 GNN 모델을 사용하여 실시간으로 계산되므로 사용자가 영화를 평가하면서 시간이 지남에 따라 변경될 수 있으나, 최종 추천을 위해 미리 계산된 정적 영화 임베딩과 비교됩니다. -
Neptune ML에서 지원하는 KGE 모델은 연결 예측 작업에만 사용할 수 있으며, 표현은 훈련 중 그래프에 나타나는 버텍스 및 엣지 유형에만 적용됩니다. 즉, 추론 쿼리에서 참조되는 모든 버텍스 및 엣지 유형은 훈련 중에 그래프에 존재해야 합니다. 모델을 재훈련하지 않으면 새로운 엣지 유형이나 버텍스를 예측할 수 없습니다.
SageMaker AI 리소스 제한 사항
시간 경과에 따른 활동 및 리소스 사용량에 따라 할당량을 초과했다는 오류 메시지(ResourceLimitExceeded
SageMaker AI 리소스 이름은 다음과 같이 Neptune ML 단계에 해당합니다.
SageMaker AI
ProcessingJob
는 Neptune 데이터 처리, 모델 훈련 및 모델 변환 작업에서 사용됩니다.SageMaker AI
HyperParameterTuningJob
는 Neptune 모델 훈련 작업에서 사용됩니다.SageMaker AI
TrainingJob
는 Neptune 모델 훈련 작업에서 사용됩니다.SageMaker AI는 Neptune 추론 엔드포인트에서
Endpoint
사용됩니다.