기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
Machine Learning(ML) 및 인공 지능(AI)
AWS 는 가장 포괄적인 ML 서비스 세트와 특별히 구축된 인프라를 통해 ML 채택 여정의 모든 단계에서 도움을 줍니다. 사전 훈련된 AI 서비스는 애플리케이션 및 워크플로를 위한 미리 준비된 인텔리전스를 제공합니다.
각 서비스는 다이어그램 뒤에 설명되어 있습니다. 필요에 가장 적합한 서비스를 결정하는 데 도움이 되도록 AWS 기계 학습 서비스 선택, 생성형 AI 서비스 선택, Amazon Bedrock 또는 Amazon SageMaker AI?를 참조하세요. 일반 정보는 AI 혁신의 다음 물결 구축 및 확장을 참조하세요 AWS.
로 돌아갑니다AWS 서비스.
Amazon Augmented AI
Amazon Augmented AI(Amazon A2I)는 인적 검토에 필요한 워크플로를 쉽게 구축할 수 있는 ML 서비스입니다. Amazon A2I는 모든 개발자에게 인적 검토를 제공하여 인적 검토 시스템 구축 또는 실행 AWS 여부에 관계없이 많은 수의 인적 검토자 관리와 관련된 차별화되지 않은 과중함을 제거합니다.
Amazon Bedrock
Amazon Bedrock은 Amazon 및 주요 AI 스타트업의 기본 모델(FMs)을를 통해 사용할 수 있도록 하는 완전 관리형 서비스입니다API. Amazon Bedrock 서버리스 환경을 사용하면 빠르게 시작하고,를 실험하고FMs, 자체 데이터로 비공개로 사용자 지정하고, AWS 애플리케이션에 원활하게 통합 및 배포할 수 FMs 있습니다.
Amazon Titan, Anthropic의 Claude 2, Cohere의 Command and Embed, AI21 Studio의 Jurassic-2, Stability AI의 Stable Diffusion 등 다양한 파운데이션 모델 중에서 선택할 수 있습니다.
Amazon CodeGuru
Amazon CodeGuru은 코드 품질을 개선하고 애플리케이션의 가장 비싼 코드 라인을 식별하기 위한 지능형 권장 사항을 제공하는 개발자 도구입니다. 기존 소프트웨어 개발 워크플로 CodeGuru 에 통합하여 애플리케이션 개발 중에 코드 검토를 자동화하고, 애플리케이션의 프로덕션 성능을 지속적으로 모니터링하고, 코드 품질, 애플리케이션 성능을 개선하고, 전체 비용을 절감하는 방법에 대한 권장 사항과 시각적 단서를 제공합니다.
Amazon CodeGuru Reviewer는 ML 및 자동 추론을 사용하여 애플리케이션 개발 중에 중요한 문제, 보안 취약성 및 hard-to-find 버그를 식별하고 코드 품질을 개선하기 위한 권장 사항을 제공합니다.
Amazon CodeGuru Profiler는 개발자가 애플리케이션의 런타임 동작을 이해하고, 코드 비효율성을 식별 및 제거하고, 성능을 개선하고, 컴퓨팅 비용을 크게 절감할 수 있도록 지원하여 애플리케이션에서 가장 비용이 많이 드는 코드 라인을 찾을 수 있도록 지원합니다.
Amazon Comprehend
Amazon Comprehend는 ML 및 자연어 처리(NLP)를 사용하여 비정형 데이터에서 인사이트와 관계를 발견하는 데 도움이 됩니다. 이 서비스는 텍스트의 언어를 식별하고, 키 문구, 장소, 사람, 브랜드 또는 이벤트를 추출하고, 텍스트가 얼마나 긍정적이거나 부정적인지 이해하고, 토큰화 및 스피치 부분을 사용하여 텍스트를 분석하고, 주제별로 텍스트 파일 모음을 자동으로 구성합니다. 또한 Amazon Comprehend에서 AutoML 기능을 사용하여 조직의 요구 사항에 맞게 고유하게 조정된 사용자 지정 엔터티 또는 텍스트 분류 모델 세트를 구축할 수 있습니다.
구조화되지 않은 텍스트에서 복잡한 의료 정보를 추출하는 경우 Amazon Comprehend Medical을 사용할 수 있습니다. 이 서비스는 의사 기록, 임상시험 보고서, 환자 건강 기록과 같은 다양한 출처에서 의학적 상태, 약물, 용량, 강도 및 빈도와 같은 의료 정보를 식별할 수 있습니다. 또한 Amazon Comprehend Medical은 추출된 약물 및 테스트, 치료 및 절차 정보 간의 관계를 식별하여 더 쉽게 분석할 수 있습니다. 예를 들어 서비스는 비정형 임상 정보에서 특정 약물과 관련된 특정 용량, 강도 및 빈도를 식별합니다.
DevOpsAmazonGuru
DevOpsAmazonGuru는 애플리케이션의 운영 성능과 가용성을 쉽게 개선할 수 있는 ML 기반 서비스입니다. DevOpsAmazonGuru는 정상 운영 패턴과 다른 동작을 감지하므로 운영 문제가 고객에게 영향을 미치기 훨씬 전에 식별할 수 있습니다.
DevOpsAmazonGuru는 수년간의 Amazon.com 및 AWS 운영 우수성을 기반으로 하는 ML 모델을 사용하여 비정상적인 애플리케이션 동작(예: 지연 시간 증가, 오류율, 리소스 제약 등)과 잠재적인 중단 또는 서비스 중단을 일으킬 수 있는 중요한 문제를 식별합니다. DevOpsAmazonGuru가 중요한 문제를 식별하면 자동으로 알림을 보내고 관련 이상, 가능한 근본 원인 및 문제가 발생한 시기와 위치에 대한 컨텍스트를 요약합니다. 가능한 경우 DevOpsAmazonGuru는 문제를 해결하는 방법에 대한 권장 사항도 제공합니다.
DevOpsAmazonGuru는 AWS 애플리케이션에서 운영 데이터를 자동으로 수집하고 단일 대시보드를 제공하여 운영 데이터의 문제를 시각화합니다. 수동 설정이나 ML 전문 지식 없이 AWS 계정의 모든 리소스, AWS CloudFormation 스택의 리소스 또는 AWS 태그별로 그룹화된 리소스에 대해 DevOpsAmazonGuru를 활성화하여 시작할 수 있습니다.
Amazon Forecast
Amazon Forecast는 ML을 사용하여 매우 정확한 예측을 제공하는 완전 관리형 서비스입니다.
오늘날 기업은 간단한 스프레드시트부터 복잡한 재무 계획 소프트웨어에 이르기까지 모든 것을 사용하여 제품 수요, 리소스 요구 또는 재무 성과와 같은 미래 비즈니스 성과를 정확하게 예측하려고 시도합니다. 이러한 도구는 시계열 데이터라고 하는 과거 데이터 시리즈를 검토하여 예측을 구축합니다. 예를 들어 이러한 도구는 미래가 과거의 결정에 따라 결정된다는 기본 가정 하에 이전 판매 데이터만 살펴봄으로써 레인코트의 미래 판매를 예측하려고 할 수 있습니다. 이 접근 방식은 추세가 불규칙한 대규모 데이터 세트에 대한 정확한 예측을 생성하는 데 어려움을 겪을 수 있습니다. 또한 시간이 지남에 따라 변화하는 데이터 시리즈(가격, 할인, 웹 트래픽, 직원 수 등)를 제품 기능 및 스토어 위치와 같은 관련 독립 변수와 쉽게 결합하지 못합니다.
Amazon Forecast는 Amazon.com 사용된 것과 동일한 기술을 기반으로 ML을 사용하여 시계열 데이터를 추가 변수와 결합하여 예측을 구축합니다. Amazon Forecast를 시작하려면 ML 경험이 필요하지 않습니다. 과거 데이터와 예측에 영향을 미칠 수 있다고 생각되는 추가 데이터만 제공하면 됩니다. 예를 들어, 셔츠의 특정 색상에 대한 수요는 계절 및 매장 위치에 따라 변경될 수 있습니다. 이 복잡한 관계는 자체적으로 결정하기 어렵지만 ML은 이를 인식하는 데 적합합니다. 데이터를 제공하면 Amazon Forecast는 자동으로 데이터를 검사하고, 의미 있는 것을 식별하고, 시계열 데이터만 보는 것보다 최대 50% 더 정확한 예측을 할 수 있는 예측 모델을 생성합니다.
Amazon Forecast는 완전 관리형 서비스이므로 프로비저닝할 서버와 빌드, 훈련 또는 배포할 ML 모델이 없습니다. 사용한 만큼만 요금을 지불하며, 최소 요금과 선결제 약정은 없습니다.
Amazon Fraud Detector
Amazon Fraud Detector는 ML과 Amazon의 20년 이상 사기 탐지 전문 지식을 사용하여 잠재적 사기 활동을 식별하여 고객이 더 많은 온라인 사기를 더 빨리 포착할 수 있도록 하는 완전 관리형 서비스입니다. Amazon Fraud Detector는 사기 탐지를 위해 ML 모델을 빌드, 훈련 및 배포하는 데 시간이 많이 걸리고 비용이 많이 드는 단계를 자동화하므로 고객이 기술을 더 쉽게 활용할 수 있습니다. Amazon Fraud Detector는 자신이 생성하는 각 모델을 고객의 자체 데이터 세트에 사용자 지정하여 현재 단일 크기보다 모델의 정확도를 모든 ML 솔루션에 맞게 높입니다. 또한 사용한 만큼만 비용을 지불하므로 많은 선결제 비용을 피할 수 있습니다.
Amazon Comprehend Medical
지난 10년 동안 AWS는 매일 방대한 양의 환자 정보를 캡처하는 조직과 함께 건강에서 디지털 혁신을 목격했습니다. 그러나이 데이터는 종종 비정형화되며이 정보를 추출하는 프로세스는 노동 집약적이고 오류가 발생하기 쉽습니다. Amazon Comprehend Medical은 사전 훈련된 기계 학습을 사용하여 처방, 절차 또는 진단과 같은 의료 텍스트에서 상태 데이터를 이해하고 추출하는 HIPAA적격 자연어 처리(NLP) 서비스입니다. Amazon Comprehend Medical은 ICD-10-CM RxNorm, SNOMED CT와 같은 의료 종양학을 사용하여 비정형 의료 텍스트에서 정보를 정확하고 빠르게 추출하고, 보험 청구 처리를 가속화하고, 인구 상태를 개선하고, 약물 감시를 가속화하는 데 도움이 될 수 있습니다.
Amazon Kendra
Amazon Kendra는 ML 기반 지능형 검색 서비스입니다. Amazon Kendra는 웹 사이트 및 애플리케이션에 대한 엔터프라이즈 검색을 재구상하므로 조직 내 여러 위치 및 콘텐츠 리포지토리에 분산되어 있더라도 직원과 고객이 원하는 콘텐츠를 쉽게 찾을 수 있습니다.
Amazon Kendra를 사용하면 구조화되지 않은 데이터의 트로브 검색을 중지하고 필요할 때 질문에 대한 올바른 답변을 찾을 수 있습니다. Amazon Kendra는 완전 관리형 서비스이므로 프로비저닝할 서버와 빌드, 훈련 또는 배포할 ML 모델이 없습니다.
Amazon Lex
Amazon Lex는 음성 및 텍스트를 사용하여 모든 애플리케이션에 대화형 인터페이스를 설계, 구축, 테스트 및 배포하는 완전 관리형 인공 지능(AI) 서비스입니다. Lex는 음성을 텍스트로 변환하기 위한 자동 스피치 인식(ASR)과 텍스트의 의도를 인식하기 위한 자연어 이해(NLU)의 고급 딥 러닝 기능을 제공하여 매우 매력적인 사용자 경험과 실제와 같은 대화형 상호 작용으로 애플리케이션을 구축하고 새로운 범주의 제품을 만들 수 있습니다. Amazon Lex를 사용하면 Amazon Alexa를 지원하는 것과 동일한 딥 러닝 기술을 이제 모든 개발자가 사용할 수 있으므로 정교하고 자연스러운 언어의 대화형 봇(“챗봇”) 및 음성 지원 대화형 음성 응답(IVR) 시스템을 빠르고 쉽게 구축할 수 있습니다.
Amazon Lex를 사용하면 개발자가 대화형 챗봇을 빠르게 빌드할 수 있습니다. Amazon Lex를 사용하면 딥 러닝 전문 지식이 필요하지 않습니다. 봇을 생성하려면 Amazon Lex 콘솔에서 기본 대화 흐름을 지정하기만 하면 됩니다. Amazon Lex 는 대화를 관리하며 대화 중에 응답을 동적으로 조정합니다. 콘솔을 사용하여 텍스트 또는 음성 챗봇을 구축, 테스트 및 게시할 수 있습니다. 그런 다음 모바일 장치, 웹 애플리케이션 및 채팅 플랫폼(예: Facebook Messenger)에서 봇에 대화형 인터페이스를 추가할 수 있습니다. Amazon Lex를 사용하는 데는 선결제 비용이나 최소 요금이 부과되지 않습니다. 작성된 텍스트 또는 음성 요청에 대해서만 요금이 부과됩니다. 요청당 pay-as-you-go 요금과 저렴한 비용으로 인해 서비스는 대화형 인터페이스를 구축하는 비용 효율적인 방법입니다. Amazon Lex 프리 티어를 사용하면 초기 투자 비용을 지불하지 않고 쉽게 Amazon Lex를 사용할 수 있습니다.
Amazon Lookout for Equipment
Amazon Lookout for Equipment는 장비의 센서에서 얻은 데이터(예: 생성기의 압력, 압축기의 흐름 속도, 분당 팬 회전수)를 분석하여 ML 전문 지식 없이 장비에 대한 데이터만을 기반으로 ML 모델을 자동으로 훈련합니다. Lookout for Equipment는 고유한 ML 모델을 사용하여 들어오는 센서 데이터를 실시간으로 분석하고 기계 고장으로 이어질 수 있는 조기 경고 신호를 정확하게 식별합니다. 즉, 빠르고 정확하게 장비 이상을 감지하고, 문제를 신속하게 진단하고, 비용이 많이 드는 가동 중지 시간을 줄이고, 잘못된 알림을 줄일 수 있습니다.
Amazon Lookout for Metrics
Amazon Lookout for Metrics는 ML을 사용하여 판매 수익 또는 고객 획득률의 갑작스러운 하락과 같은 비즈니스 및 운영 데이터의 이상(정상에서 이상치)을 자동으로 감지하고 진단합니다. 몇 번의 클릭으로 Amazon Lookout for Metrics를 Amazon S3, Amazon Redshift, Amazon Relational Database Service(AmazonRDS)와 같은 인기 있는 데이터 스토어와 Salesforce, Servicenow, Zendesk, Marketo와 같은 타사 서비스형 소프트웨어(SaaS) 애플리케이션에 연결하고 비즈니스에 중요한 지표 모니터링을 시작할 수 있습니다. Amazon Lookout for Metrics는 이러한 소스의 데이터를 자동으로 검사하고 준비하여 이상 탐지에 사용되는 기존 방법보다 더 빠른 속도와 정확도로 이상을 탐지합니다. 또한 감지된 이상 현상에 대한 피드백을 제공하여 결과를 조정하고 시간 경과에 따른 정확도를 개선할 수 있습니다. Amazon Lookout for Metrics를 사용하면 동일한 이벤트와 관련된 이상을 그룹화하고 잠재적 근본 원인에 대한 요약이 포함된 알림을 전송하여 감지된 이상을 쉽게 진단할 수 있습니다. 또한 심각도에 따라 이상 순위를 매기므로 비즈니스에 가장 중요한 사항에 주의를 기울일 수 있습니다.
Amazon Lookout for Vision
Amazon Lookout for Vision은 컴퓨터 비전(CV)을 사용하여 시각적 표현에서 결함과 이상을 발견하는 ML 서비스입니다. Amazon Lookout for Vision을 사용하면 대규모 객체 이미지의 차이를 빠르게 식별하여 제조 회사는 품질을 높이고 운영 비용을 절감할 수 있습니다. 예를 들어 Amazon Lookout for Vision을 사용하여 제품의 누락된 구성 요소, 차량 또는 구조의 손상, 생산 라인의 불규칙성, 실리콘 웨이퍼의 미세 결함 및 기타 유사한 문제를 식별할 수 있습니다. Amazon Lookout for Vision은 ML을 사용하여 모든 카메라의 이미지를 사람처럼 보고 이해하지만 정확도는 훨씬 높고 규모는 훨씬 더 큽니다. Amazon Lookout for Vision을 사용하면 고객이 비용이 많이 들고 일관성이 없는 수동 검사의 필요성을 없애는 동시에 품질 관리, 결함 및 손상 평가, 규정 준수를 개선할 수 있습니다. 몇 분 만에 Amazon Lookout for Vision을 사용하여 ML 전문 지식 없이 이미지 및 객체 검사를 자동화할 수 있습니다.
Amazon Monitron
Amazon Monitron은 end-to-end ML을 사용하여 산업 기계에서 비정상적인 동작을 감지하여 예측 유지 관리를 구현하고 예기치 않은 가동 중지 시간을 줄일 수 있는 시스템입니다.
센서 설치와 데이터 연결, 스토리지, 분석 및 알림에 필요한 인프라는 예측 유지 관리를 활성화하는 데 기본 요소입니다. 하지만 이를 실현하기 위해 기업은 과거에 숙련된 기술자와 데이터 과학자가 복잡한 솔루션을 처음부터 함께 구성해야 했습니다. 여기에는 사용 사례에 적합한 유형의 센서를 식별 및 조달하고 이를 IoT 게이트웨이(데이터를 집계하고 전송하는 디바이스)와 연결하는 작업이 포함되었습니다. 따라서 예측 유지 관리를 성공적으로 구현할 수 있었던 회사는 거의 없었습니다.
Amazon Monitron에는 장비에서 진동 및 온도 데이터를 캡처하는 센서, 데이터를 안전하게 전송할 게이트웨이 디바이스 AWS, ML을 사용하여 비정상적인 기계 패턴에 대한 데이터를 분석하는 Amazon Monitron 서비스, 디바이스를 설정하고 기계의 잠재적 장애에 대한 작동 동작 및 알림을 수신하기 위한 동반 모바일 앱이 포함되어 있습니다. 개발 작업이나 ML 경험이 필요 없이 몇 분 만에 장비 상태 모니터링을 시작하고 Amazon Fulfillment Centers에서 장비를 모니터링하는 데 사용되는 것과 동일한 기술로 예측 유지 관리를 활성화할 수 있습니다.
Amazon PartyRock
Amazon PartyRock은 코드 프리 앱 빌더를 사용하여 생성형 AI를 쉽게 학습할 수 있습니다. 프롬프트 엔지니어링 기술을 실험하고, 생성된 응답을 검토하고, 생성형 AI에 대한 직감을 개발하면서 재미있는 앱을 만들고 탐색합니다.는 완전 관리형 서비스 서비스인 Amazon Bedrock을 통해 Amazon 및 선도적인 AI 회사의 파운데이션 모델(FMs)에 대한 액세스를 PartyRock 제공합니다.
Amazon Personalize
Personalize는 개발자가 애플리케이션을 사용하는 고객을 위해 개별화된 추천을 쉽게 생성할 수 있는 ML 서비스입니다.
ML은 맞춤형 제품 및 콘텐츠 추천, 맞춤형 검색 결과 및 대상 마케팅 프로모션을 지원하여 고객 참여를 개선하는 데 점점 더 많이 사용되고 있습니다. 그러나 이러한 정교한 권장 시스템을 생성하는 데 필요한 ML 기능을 개발하는 것은 ML 기능 개발의 복잡성으로 인해 오늘날 대부분의 조직에서는 가능하지 않았습니다. Personalize를 사용하면 이전 ML 경험이 없는 개발자가 Amazon.com 수년간 사용해 온 ML 기술을 사용하여 애플리케이션에 정교한 개인화 기능을 쉽게 구축할 수 있습니다.
Personalize를 사용하면 페이지 뷰, 가입, 구매 등 애플리케이션의 활동 스트림과 기사, 제품, 비디오 또는 음악과 같이 추천하려는 항목의 인벤토리를 제공할 수 있습니다. 또한 Personalize에 연령 또는 지리적 위치와 같은 사용자의 추가 인구 통계 정보를 제공하도록 선택할 수 있습니다. Personalize는 데이터를 처리 및 검사하고, 의미 있는 것을 식별하고, 올바른 알고리즘을 선택하고, 데이터에 맞게 사용자 지정된 개인화 모델을 훈련 및 최적화합니다.
Personalize는 소매, 미디어 및 엔터테인먼트에 최적화된 추천자를 제공하여 고성능 개인 맞춤형 사용자 경험을 더 빠르고 쉽게 제공할 수 있도록 합니다. 또한 Personalize는 지능형 사용자 세분화를 제공하므로 마케팅 채널을 통해 보다 효과적인 잠재 고객 발굴 캠페인을 실행할 수 있습니다. 두 가지 새로운 레시피를 사용하면 다양한 제품 범주, 브랜드 등에 대한 사용자의 관심에 따라 사용자를 자동으로 세분화할 수 있습니다.
Personalize에서 분석한 모든 데이터는 비공개로 안전하게 유지되며 사용자 지정 권장 사항에만 사용됩니다. 서비스가 유지하는 가상 프라이빗 클라우드 내에서 간단한 API 호출을 통해 개인 맞춤형 예측 서비스를 시작할 수 있습니다. 사용한 만큼만 요금을 지불하며, 최소 요금과 선결제 약정은 없습니다.
Personalize는 하루 24시간 사용자 지정 가능한 자체 Amazon.com ML 개인화 팀을 보유하는 것과 같습니다.
Amazon Polly
Amazon Polly는 텍스트를 생생한 스피치로 바꾸는 서비스입니다. Amazon Polly를 사용하면 말하는 애플리케이션을 생성하여 완전히 새로운 범주의 음성 지원 제품을 구축할 수 있습니다. Amazon Polly는 고급 딥 러닝 기술을 사용하여 사람의 음성처럼 들리는 스피치를 합성하는 Amazon 인공 지능(AI) 서비스입니다. Amazon Polly에는 수십 개 언어로 분산된 다양한 종류의 생생한 음성이 포함되어 있으므로 이상적인 음성을 선택하고 다양한 국가에서 작동하는 음성 지원 애플리케이션을 구축할 수 있습니다.
Amazon Polly는 실시간 대화형 대화를 지원하는 데 필요한 일관되게 빠른 응답 시간을 제공합니다. Amazon Polly 스피치 오디오를 캐시하고 저장하여 오프라인으로 재생하거나 재배포할 수 있습니다. Amazon Polly는 사용하기 쉽습니다. 스피치로 변환하려는 텍스트를 Amazon Polly 로 전송API하기만 하면 Amazon Polly가 오디오 스트림을 애플리케이션에 즉시 반환하므로 애플리케이션이 직접 재생하거나와 같은 표준 오디오 파일 형식으로 저장할 수 있습니다MP3.
표준 TTS 음성 외에도 Amazon Polly는 새로운 기계 학습 접근 방식을 통해 스피치 품질의 고급 개선을 제공하는 신경 Text-to-Speech(NTTS) 음성을 제공합니다. Polly의 신경 TTS 기술은 뉴스 내레이션 사용 사례에 맞게 조정된 뉴스캐스터 스피킹 스타일도 지원합니다. 마지막으로 Amazon Polly Brand Voice는 조직에 대한 사용자 지정 음성을 생성할 수 있습니다. 이는 Amazon Polly 팀과 협력하여 조직의 독점 사용을 위한 NTTS 음성을 구축하는 사용자 지정 참여입니다.
Amazon Polly를 사용하면 스피치로 변환하는 문자 수에 대해서만 비용을 지불하고 Amazon Polly에서 생성한 스피치를 저장하고 재생할 수 있습니다. 변환된 Amazon Polly의 문자당 비용이 저렴하고 음성 출력의 저장 및 재사용에 대한 제한이 없기 때문에 Text-to-Speech 모든 곳에서 비용 효율적인 방법으로 사용할 수 있습니다.
Amazon Q
Amazon Q는 소프트웨어 개발을 가속화하고 내부 데이터를 활용하기 위한 생성형 AI 기반 어시스턴트입니다.
- Amazon Q Business
-
Amazon Q Business는 엔터프라이즈 시스템의 데이터 및 정보를 기반으로 질문에 답변하고, 요약을 제공하고, 콘텐츠를 생성하고, 작업을 안전하게 완료할 수 있습니다. 이를 통해 직원은 보다 창의적이고, 데이터 중심적이며, 효율적이고, 준비되고, 생산적일 수 있습니다.
- Amazon Q Developer
-
Amazon Q Developer(이전 Amazon CodeWhisperer)는 개발자와 IT 전문가의 애플리케이션 코딩, 테스트 및 업그레이드부터 오류 진단, 보안 스캔 및 수정 수행, AWS 리소스 최적화에 이르기까지 작업을 지원합니다. Amazon Q에는 기존 코드를 변환하고(예: Java 버전 업그레이드 수행) 개발자 요청에서 생성된 새로운 기능을 구현할 수 있는 고급 다단계 계획 및 추론 기능이 있습니다.
Amazon Rekognition
Amazon Rekognition을 사용하면 ML 전문 지식이 필요 없는 확장성이 뛰어난 검증된 딥 러닝 기술을 사용하여 애플리케이션에 이미지 및 비디오 분석을 쉽게 추가할 수 있습니다. Amazon Rekognition을 사용하면 이미지 및 비디오에서 객체, 사람, 텍스트, 장면 및 활동을 식별하고 부적절한 콘텐츠를 감지할 수 있습니다. 또한 Amazon Rekognition은 매우 정확한 얼굴 분석 및 얼굴 검색 기능을 제공하여 다양한 사용자 확인, 인원 계산 및 공공 안전 사용 사례를 위해 얼굴을 감지, 분석 및 비교할 수 있습니다.
Amazon Rekognition Custom Labels를 사용하면 비즈니스 요구 사항에 맞는 이미지의 객체와 장면을 식별할 수 있습니다. 예를 들어, 모델을 구축하여 어셈블리 라인에서 특정 기계 부품을 분류하거나 비정상 식물을 감지할 수 있습니다. Amazon Rekognition Custom Labels는 모델 개발의 과중한 부담을 덜어주므로 ML 경험이 필요하지 않습니다. 식별하려는 객체 또는 장면의 이미지를 제공하면 서비스가 나머지를 처리합니다.
Amazon SageMaker AI
Amazon SageMaker AI를 사용하면 완전 관리형 인프라, 도구 및 워크플로를 사용하여 모든 사용 사례에 맞게 ML 모델을 구축, 훈련 및 배포할 수 있습니다. SageMaker AI는 ML 프로세스의 각 단계에서 과도한 부담을 제거하여 고품질 모델을 더 쉽게 개발할 수 있도록 합니다. SageMaker AI는 단일 도구 세트에서 ML에 사용되는 모든 구성 요소를 제공하므로 모델은 훨씬 적은 노력으로 더 저렴한 비용으로 프로덕션에 더 빠르게 도달할 수 있습니다.
Amazon SageMaker AI Autopilot
Amazon SageMaker AI Autopilot은 데이터를 기반으로 최상의 ML 모델을 자동으로 빌드, 훈련 및 조정하는 동시에 완전한 제어 및 가시성을 유지할 수 있습니다. SageMaker AI Autopilot을 사용하면 테이블 형식의 데이터 세트를 제공하고 예측할 대상 열을 선택하면 됩니다.이 열은 숫자(예: 주택 가격, 회귀라고 함) 또는 범주(예: 스팸/비스팸, 분류라고 함)일 수 있습니다. SageMaker AI Autopilot은 다양한 솔루션을 자동으로 탐색하여 최상의 모델을 찾습니다. 그런 다음 클릭 한 번으로 모델을 프로덕션에 직접 배포하거나 Amazon SageMaker AI Studio를 사용하여 권장 솔루션을 반복하여 모델 품질을 더욱 개선할 수 있습니다.
Amazon SageMaker AI Canvas
Amazon SageMaker AI Canvas는 비즈니스 분석가가 ML 경험을 요구하거나 단일 코드 줄을 작성할 필요 없이 자체적으로 정확한 ML 예측을 생성할 수 있는 시각적 point-and-click 인터페이스를 제공하여 ML에 대한 액세스를 확장합니다.
Amazon SageMaker AI Clarify
Amazon SageMaker AI Clarify는 기계 학습 개발자가 편향을 식별 및 제한하고 예측을 설명할 수 있도록 훈련 데이터 및 모델에 대한 가시성을 높입니다. Amazon SageMaker AI Clarify는 사용자가 지정한 속성을 검사하여 데이터 준비 중, 모델 훈련 후, 배포된 모델에서 잠재적 편향을 감지합니다. SageMaker AI Clarify에는 모델 예측을 설명하고 내부 프레젠테이션을 지원하거나 수정 조치를 취할 수 있는 모델의 문제를 식별하는 데 사용할 수 있는 보고서를 생성하는 데 도움이 되는 기능 중요도 그래프도 포함되어 있습니다.
Amazon SageMaker AI 데이터 레이블 지정
Amazon SageMaker AI는 이미지, 텍스트 파일 및 비디오와 같은 원시 데이터를 식별하고 유용한 레이블을 추가하여 ML 모델에 대한 고품질 훈련 데이터 세트를 생성하는 데이터 레이블 지정 서비스를 제공합니다.
Amazon SageMaker AI Data Wrangler
Amazon SageMaker AI Data Wrangler는 ML에 대한 데이터를 집계하고 준비하는 데 걸리는 시간을 몇 주에서 몇 분으로 줄입니다. SageMaker AI Data Wrangler를 사용하면 데이터 준비 및 기능 엔지니어링 프로세스를 간소화하고 단일 시각적 인터페이스에서 데이터 선택, 정리, 탐색 및 시각화를 포함한 데이터 준비 워크플로의 각 단계를 완료할 수 있습니다.
Amazon SageMaker AI 엣지
Amazon SageMaker AI Edge는 최적화를 통해 엣지 디바이스에서 기계 학습을 가능하게 합니다. 보안, 엣지에 모델을 배포하고 그런 다음 디바이스 플릿에서 이러한 모델을 모니터링하면 스마트 카메라, 로봇, 및 기타 스마트 전자 제품 지속적인 운영 비용을 절감하기 위해. SageMaker AI Edge Compiler는 훈련된 모델을 엣지 디바이스에서 실행 가능하도록 최적화합니다. SageMaker AI Edge에는 애플리케이션 또는 디바이스 펌웨어와 over-the-air 독립적으로 플릿에 모델을 배포하는 데 도움이 되는 (OTA) 배포 메커니즘이 포함되어 있습니다. SageMaker AI Edge Agent를 사용하면 동일한 디바이스에서 여러 모델을 실행할 수 있습니다. 에이전트는 간격과 같이 사용자가 제어하는 로직을 기반으로 예측 데이터를 수집하여 클라우드에 업로드하므로 시간이 지남에 따라 모델을 주기적으로 재훈련할 수 있습니다.
Amazon SageMaker AI 특성 저장소
Amazon SageMaker AI 특성 저장소는 기능을 저장하고 액세스할 수 있도록 특별히 구축된 리포지토리로, 이름을 지정하기가 훨씬 쉽습니다. 정리, 및는 팀 간에 재사용합니다. SageMaker AI 특성 저장소는 추가 코드를 작성하거나 기능을 일관되게 유지하기 위한 수동 프로세스를 생성할 필요 없이 훈련 및 실시간 추론 중에 특성에 대한 통합 저장소를 제공합니다. SageMaker AI 특성 저장소는 저장된 특성(예: 특성 이름 또는 버전 번호)의 메타데이터를 추적하여 Amazon Athena를 사용하여 배치 또는 실시간으로 올바른 속성에 대한 기능을 쿼리할 수 있습니다. 대화형 쿼리 서비스. SageMaker AI 특성 저장소는 기능을 업데이트하고, 추론 중에 새 데이터가 생성되면 단일 리포지토리가 업데이트되므로 모델이 훈련 및 추론 중에 항상 새 기능을 사용할 수 있습니다.
Amazon SageMaker AI 지리 공간 기능
Amazon SageMaker AI 지리 공간 기능을 사용하면 데이터 과학자와 기계 학습(ML) 엔지니어가 지리 공간 데이터를 사용하여 ML 모델을 더 빠르게 빌드, 훈련 및 배포할 수 있습니다. 데이터(오픈 소스 및 타사), 처리 및 시각화 도구에 액세스하여 ML에 대한 지리 공간 데이터를 보다 효율적으로 준비할 수 있습니다. 용도에 맞게 구축된 알고리즘과 사전 훈련된 ML 모델을 사용하여 모델 구축 및 훈련 속도를 높이고, 내장된 시각화 도구를 사용하여 대화형 지도에서 예측 결과를 탐색한 다음 인사이트와 결과에 대해 팀 간에 공동 작업을 통해 생산성을 높일 수 있습니다.
Amazon SageMaker AI HyperPod
Amazon SageMaker AI HyperPod는 대규모 언어 모델(LLMs), 확산 모델 및 파운데이션 모델()을 위한 기계 학습(ML) 인프라 구축 및 최적화와 관련된 차별화되지 않은 과중한 부담을 제거합니다FMs. SageMaker AI HyperPod 는 고객이 AWS Trainium및 NVIDIA A100 및 H100 그래픽 처리 유닛()과 같은 수천 개의 액셀러레이터에서 훈련 워크로드를 자동으로 분할할 수 있도록 분산 훈련 라이브러리로 사전 구성되어 있습니다GPUs.
SageMaker HyperPod 또한 AI를 사용하면 체크포인트를 주기적으로 저장하여 중단 없이 교육을 계속할 수 있습니다. 하드웨어 장애가 발생하면 자체 복구 클러스터가 자동으로 장애를 감지하고, 결함이 있는 인스턴스를 복구 또는 교체하고, 마지막으로 저장된 체크포인트에서 훈련을 재개하므로이 프로세스를 수동으로 관리할 필요가 없으며, 중단 없이 분산된 환경에서 몇 주 또는 몇 달 동안 훈련할 수 있습니다. 필요에 맞게 컴퓨팅 환경을 사용자 지정하고 Amazon SageMaker AI 분산 훈련 라이브러리로 구성하여 최적의 성능을 달성할 수 있습니다 AWS.
Amazon SageMaker AI JumpStart
Amazon SageMaker AI JumpStart를 사용하면 ML을 빠르고 쉽게 시작할 수 있습니다. 시작하기 쉽도록 SageMaker AI JumpStart는 몇 번의 클릭만으로 쉽게 배포할 수 있는 가장 일반적인 사용 사례에 대한 솔루션 세트를 제공합니다. 이 솔루션은 완전히 사용자 지정 가능하며 AWS CloudFormation 템플릿 및 참조 아키텍처의 사용을 보여 주므로 ML 여정을 가속화할 수 있습니다. JumpStart 또한 Amazon SageMaker AI는 자연어 처리, 객체 감지 및 이미지 분류 모델과 같은 150개 이상의 인기 있는 오픈 소스 모델의 원클릭 배포 및 미세 조정을 지원합니다.
Amazon SageMaker AI 모델 구축
Amazon SageMaker AI는 ML 모델을 구축하는 데 필요한 모든 도구와 라이브러리, 즉 다양한 알고리즘을 반복적으로 시도하고 정확도를 평가하여 사용 사례에 가장 적합한 것을 찾는 프로세스를 제공합니다. Amazon SageMaker AI에서는 SageMaker AI에 내장되고 최적화된 15개 이상의 알고리즘을 포함하여 다양한 알고리즘을 선택할 수 있으며, 몇 번의 클릭만으로 사용 가능한 인기 모델 동물원에서 750개 이상의 사전 구축된 모델을 사용할 수 있습니다. SageMaker 또한 AI는 Code-(OSS가상 스튜디오 코드 오픈 소스)를 기반으로 하는 Amazon SageMaker AI Studio 노트북 JupyterLab, RStudio, 및 Code Editor를 비롯한 다양한 모델 구축 도구를 제공합니다.이 도구를 사용하면 ML 모델을 소규모로 실행하여 결과를 보고 성능에 대한 보고서를 볼 수 있으므로 고품질 작업 프로토타입을 만들 수 있습니다.
Amazon SageMaker AI 모델 훈련
Amazon SageMaker AI는 인프라를 관리할 필요 없이 대규모로 ML 모델을 훈련하고 튜닝하는 데 드는 시간과 비용을 줄입니다. 현재 사용 가능한 가장 성능이 뛰어난 ML 컴퓨팅 인프라를 활용할 수 있으며, SageMaker AI는 인프라를 1개에서 수천 개로 자동으로 확장하거나 축소할 수 있습니다GPUs. 사용한 만큼만 비용을 지불하므로 교육 비용을 보다 효과적으로 관리할 수 있습니다. 딥 러닝 모델을 더 빠르게 훈련하려면 Amazon SageMaker AI 분산 훈련 라이브러리를 사용하여 성능을 높이거나 DeepSpeedHorovod 또는 Megatron과 같은 타사 라이브러리를 사용할 수 있습니다.
Amazon SageMaker AI 모델 배포
Amazon SageMaker AI를 사용하면 ML 모델을 쉽게 배포하여 모든 사용 사례에 가장 적합한 가격 대비 성능으로 예측(추론이라고도 함)을 수행할 수 있습니다. 모든 ML 추론 요구 사항을 충족하는 데 도움이 되는 다양한 ML 인프라 및 모델 배포 옵션을 제공합니다. 완전 관리형 서비스이며 MLOps 도구와 통합되므로 모델 배포를 확장하고, 추론 비용을 절감하고, 프로덕션 환경에서 모델을 더 효과적으로 관리하고, 운영 부담을 줄일 수 있습니다.
Amazon SageMaker AI 파이프라인
Amazon SageMaker AI Pipelines은 ML을 위해 특별히 구축 easy-to-use된 최초의 지속적 통합 및 지속적 전송(CI/CD) 서비스입니다. SageMaker AI 파이프라인을 사용하면 ML 워크플로를 대규모로 생성, 자동화 및 관리할 end-to-end 수 있습니다.
Amazon SageMaker AI Studio Lab
Amazon SageMaker AI Studio Lab은 누구나 ML을 배우고 실험할 수 있는 컴퓨팅, 스토리지(최대 15GB) 및 보안을 무료로 제공하는 무료 ML 개발 환경입니다. 시작하는 데 필요한 것은 유효한 이메일 주소뿐입니다. 인프라를 구성하거나 자격 증명 및 액세스를 관리하거나 AWS 계정에 가입할 필요도 없습니다. SageMaker AI Studio Lab은 GitHub 통합을 통해 모델 구축을 가속화하며, 가장 인기 있는 ML 도구, 프레임워크 및 라이브러리로 사전 구성되어 즉시 시작할 수 있습니다. SageMaker AI Studio Lab은 자동으로 작업을 저장하므로 세션 간에 다시 시작할 필요가 없습니다. 노트북을 닫고 나중에 다시 돌아오는 것만큼 쉽습니다.
MXNet의 Apache AWS
ApacheMXNet는 API ML에 대한 간결한 easy-to-use를 포함하는 빠르고 확장 가능한 훈련 및 추론 프레임워크입니다. 에는 모든 기술 수준의 개발자가 클라우드, 엣지 디바이스 및 모바일 앱에서 딥 러닝을 시작할 수 있는 Gluon 인터페이스가 MXNet 포함되어 있습니다. 몇 줄의 Gluon 코드에서만 선형 회귀, 컨볼루션형 네트워크를 구축하고 객체 감지, 음성 인식, 권장 사항 및 개인화를 LSTMs 반복할 수 있습니다. 대규모로 ML 모델을 빌드, 훈련 및 배포하는 플랫폼인 Amazon SageMaker AI를 사용하여 MxNet AWS 에서를 시작할 수 있습니다. 또는를 사용하여 TensorFlow,, Chainer, Keras PyTorch, Caffe, Caffe2 및 Microsoft Cognitive Toolkit을 비롯한 다른 프레임워크 MxNet 뿐만 아니라를 사용하여 사용자 지정 환경 및 워크플로를 AWS Deep Learning AMIs 구축할 수 있습니다.
AWS Deep Learning AMIs
는 ML 실무자와 연구자에게 클라우드에서 모든 규모의 딥 러닝을 가속화할 수 있는 인프라와 도구를 AWS Deep Learning AMIs 제공합니다. Apache TensorFlow, MXNetChainer PyTorch, Gluon, Horovod, Keras와 같은 인기 있는 딥 러닝 프레임워크 및 인터페이스가 사전 설치된 Amazon EC2 인스턴스를 빠르게 시작하여 정교한 사용자 지정 AI 모델을 훈련하거나, 새로운 알고리즘을 실험하거나, 새로운 기술과 기술을 배울 수 있습니다. Amazon EC2 GPU 또는 CPU 인스턴스가 필요한 경우 딥 러닝에 대한 추가 요금이 부과되지 않습니다. 애플리케이션을 저장하고 실행하는 데 필요한 AWS 리소스에 대해서만 비용을 지불AMIs하면 됩니다.
AWS 딥 러닝 컨테이너
AWS Deep Learning Containers(AWS DL Containers)는 딥 러닝 프레임워크가 사전 설치된 Docker 이미지로 PyTorch, 처음부터 환경을 구축하고 최적화하는 복잡한 프로세스를 건너뛸 수 있도록 하여 사용자 지정 기계 학습(ML) 환경을 빠르게 배포할 수 있습니다. AWS DL Containers는 TensorFlow, Apache를 지원합니다MXNet. Amazon SageMaker AI, Amazon Elastic Kubernetes Service(Amazon EKS), Amazon의 자체 관리형 KubernetesEC2, Amazon Elastic Container Service(Amazon )에 AWS DL 컨테이너를 배포할 수 있습니다ECS. 컨테이너는 Amazon Elastic Container Registry(AmazonECR)AWS Marketplace를 통해 무료로 사용할 수 있으며 사용하는 리소스에 대해서만 비용을 지불하면 됩니다.
Amazon SageMaker AI를 사용한 지리 공간 ML
Amazon SageMaker AI 지리 공간 기능을 사용하면 데이터 과학자와 ML 엔지니어가 지리 공간 데이터를 사용하여 ML 모델을 더 빠르고 대규모로 빌드, 훈련 및 배포할 수 있습니다. 쉽게 사용할 수 있는 지리 공간 데이터 소스에 액세스하고, 특별히 구축된 작업으로 대규모 지리 공간 데이터 세트를 효율적으로 변환하거나 보강하고, 사전 훈련된 ML 모델을 선택하여 모델 구축을 가속화할 수 있습니다. 또한 지리 공간 데이터를 분석하고 내장 시각화 도구가 있는 3D 가속 그래픽을 사용하여 대화형 맵에서 모델 예측을 탐색할 수 있습니다. SageMaker 런타임 지리 공간 기능은 수확 수율 및 식품 보안 극대화, 위험 및 보험 청구 평가, 지속 가능한 도시 개발 지원, 소매 사이트 사용률 예측과 같은 다양한 사용 사례에 사용할 수 있습니다.
에서 얼굴 굴리기 AWS
Amazon SageMaker AI의 Hugging Face를 사용하면 변환기라고 하는 자연어 처리(NLP) 모델의 오픈 소스 공급자인 Hugging Face에서 사전 훈련된 모델을 배포하고 미세 조정하여 이러한 NLP 모델을 설정하고 사용하는 데 걸리는 시간을 몇 주에서 몇 분으로 줄일 수 있습니다. NLP는 컴퓨터가 인적 언어를 이해하는 데 도움이 되는 ML 알고리즘을 참조합니다. 번역, 지능형 검색, 텍스트 분석 등에 도움이 됩니다. 그러나 NLP 모델은 크고 복잡할 수 있으며(수억 개의 모델 파라미터로 구성되기도 함) 훈련 및 최적화에는 시간, 리소스 및 기술이 필요합니다.는 Hugging Face와 AWS 협력하여 데이터 과학자와 ML 개발자에게 Amazon SageMaker AI에서 NLP 모델을 구축, 훈련 및 배포할 수 있는 완전 관리형 환경을 제공하는 Hugging Face AWS 딥 러닝 컨테이너(DLCs)를 state-of-the-art 만들었습니다.
PyTorch 의 AWS
PyTorch는 기계 학습 모델을 쉽게 개발하고 프로덕션에 배포할 수 있는 오픈 소스 딥 러닝 프레임워크입니다. 개발자는 Facebook과 협력하여에서 구축 및 유지 관리하는 TorchServe PyTorch의 모델 서비스 라이브러리 AWS 를 사용하여 모델을 프로덕션에 빠르고 쉽게 배포할 PyTorch 수 있습니다. PyTorch 또한는 고성능을 위해 조정된 분산 훈련을 위한 동적 계산 그래프 및 라이브러리를 제공합니다 AWS. 대규모로 모델을 쉽고 비용 효율적으로 빌드, 훈련 및 배포할 PyTorch 수 있는 완전 관리형 ML 서비스인 Amazon SageMaker PyTorch AWS 을 사용하여를 시작할 수 있습니다. 인프라를 직접 관리하려는 경우 소스에서 빌드되고 최신 버전의 성능에 최적화된 AWS Deep Learning AMIs 또는 AWS 딥 러닝 컨테이너 PyTorch 를 사용하여 사용자 지정 기계 학습 환경을 빠르게 배포할 수 있습니다.
TensorFlow 의 AWS
TensorFlow는 연구원과 개발자가 기계 학습을 통해 애플리케이션을 개선하기 위해 사용할 수 있는 많은 딥 러닝 프레임워크 중 하나입니다.는에 대한 광범위한 지원을 AWS 제공하여 고객이 컴퓨터 비전 TensorFlow, 자연어 처리, 음성 번역 등에서 자체 모델을 개발하고 제공할 수 있도록 합니다. 대규모로 TensorFlow 모델을 쉽고 비용 효율적으로 빌드, 훈련 및 배포할 수 있는 완전 관리형 ML 서비스인 Amazon SageMaker AI TensorFlow AWS 를 사용하여를 시작할 수 있습니다. 인프라를 직접 관리하려는 경우 소스에서 빌드되고 최신 버전의 성능에 최적화된 AWS Deep Learning AMIs 또는 AWS 딥 러닝 컨테이너 TensorFlow 를 사용하여 사용자 지정 ML 환경을 빠르게 배포할 수 있습니다.
Amazon Textract는 스캔한 문서에서 텍스트와 데이터를 자동으로 추출하는 서비스입니다. Amazon Textract는 간단한 광학 문자 인식(OCR)을 넘어 테이블에 저장된 양식 및 정보의 필드 내용도 식별합니다.
오늘날 많은 기업이 , 이미지PDFs, 테이블 및 양식과 같은 스캔된 문서에서 또는 수동 구성이 필요한 간단한 OCR 소프트웨어를 통해 수동으로 데이터를 추출합니다(양식이 변경될 때 업데이트해야 하는 경우가 많음). 이러한 수동적이고 비용이 많이 드는 프로세스를 극복하기 위해 Amazon Textract는 ML을 사용하여 모든 유형의 문서를 읽고 처리하며 수동으로 작업하지 않고 텍스트, 필기, 테이블 및 기타 데이터를 정확하게 추출합니다. Amazon Textract는 쿼리를 사용하여 문서에서 추출하는 데 필요한 데이터를 지정할 수 있는 유연성을 제공합니다. 필요한 정보를 자연어 질문의 형태로 지정할 수 있습니다(예: “고객 이름은 무엇입니까?”). 문서의 데이터 구조(테이블, 양식, 암시 필드, 중첩 데이터)를 알 필요가 없으며 문서 버전 및 형식의 변화에 대해 걱정할 필요가 없습니다. Amazon Textract 쿼리는 급여 명세서, 은행 명세서, W-2s, 모기지 어음, 클레임 문서 및 보험 카드를 포함한 다양한 문서에 대해 사전 훈련됩니다.
Amazon Textract를 사용하면 대출 처리 자동화 또는 인보이스 및 영수증에서 정보 추출 등 문서 처리를 빠르게 자동화하고 추출된 정보에 대한 조치를 취할 수 있습니다. Amazon Textract는 몇 시간 또는 며칠이 아닌 몇 분 만에 데이터를 추출할 수 있습니다. 또한 Amazon Augmented AI를 사용하여 인적 리뷰를 추가하여 모델을 감독하고 민감한 데이터를 확인할 수 있습니다.
Amazon Transcribe
Amazon Transcribe는 고객이 음성을 텍스트로 자동 변환할 수 있도록 하는 자동 음성 인식(ASR) 서비스입니다. 서비스는 WAV 및와 같은 일반적인 형식으로 저장된 오디오 파일을 모든 단어에 대한 타임스탬프MP3로 트랜스크립션할 수 있으므로 텍스트를 검색하여 원본 소스에서 오디오를 쉽게 찾을 수 있습니다. 라이브 오디오 스트림을 Amazon Transcribe로 보내고 실시간으로 트랜스크립트 스트림을 수신할 수도 있습니다. Amazon Transcribe는 볼륨, 피치 및 스피킹 속도의 변화를 포함하여 다양한 스피치 및 음향 특성을 처리하도록 설계되었습니다. 오디오 신호의 품질 및 콘텐츠(배경 노이즈, 중첩된 화자, 강조된 스피치 또는 단일 오디오 파일 내 언어 간 전환과 같은 요소를 포함하되 이에 국한되지 않음)는 서비스 출력의 정확도에 영향을 미칠 수 있습니다. 고객은 음성 기반 고객 서비스 호출 트랜스크립션, audio/video content, and conduct (text based) content analysis on audio/video 콘텐츠에 대한 자막 생성 등 다양한 비즈니스 애플리케이션에 Amazon Transcribe를 사용하도록 선택할 수 있습니다.
Amazon Transcribe에서 파생된 두 가지 매우 중요한 서비스는 Amazon Transcribe Medical과 Amazon Transcribe Call Analytics입니다.
Amazon Transcribe Medical은 고급 ML 모델을 사용하여 의료 스피치를 텍스트로 정확하게 트랜스크립션합니다. Amazon Transcribe Medical은 다양한 사용 사례를 지원하는 데 사용할 수 있는 텍스트 트랜스크립트를 생성할 수 있습니다.이 트랜스크립트는 임상 문서 워크플로 및 약물 안전성 모니터링(약물 감시)부터 의료 및 생명과학 도메인의 원격 의료 및 고객 센터 분석에 대한 자막 제작에 이르기까지 다양합니다.
Amazon Transcribe Call Analytics는 고객 경험과 에이전트 생산성을 개선하기 위해 호출 애플리케이션에 추가할 수 있는 풍부한 호출 기록과 실행 가능한 대화 인사이트를 API 제공하는 AI 기반입니다. 고객 관리 및 아웃바운드 영업 직접 호출을 이해하도록 특별히 훈련된 강력한 speech-to-text 사용자 지정 자연어 처리(NLP) 모델을 결합합니다. AWS Contact Center Intelligence(CCI) 솔루션의 일부로, API 고객 센터와 무관하며 고객이 쉽게 애플리케이션에 통화 분석 기능을 ISVs 추가할 수 있습니다.
Amazon Transcribe를 시작하는 가장 쉬운 방법은 콘솔을 사용하여 작업을 제출하여 오디오 파일을 트랜스크립션하는 것입니다. 또한에서 직접 서비스를 호출 AWS Command Line Interface하거나 SDKs 선택한 지원 중 하나를 사용하여 애플리케이션과 통합할 수 있습니다.
Amazon Translate
Amazon Translate는 빠르고 고품질이며 저렴한 언어 번역을 제공하는 신경 기계 번역 서비스입니다. 신경 기계 번역은 딥 러닝 모델을 사용하여 기존 통계 및 규칙 기반 번역 알고리즘보다 더 정확하고 자연스러운 사운드 번역을 제공하는 언어 번역 자동화의 한 형태입니다. Amazon Translate를 사용하면 다양한 사용자를 위해 웹 사이트 및 애플리케이션과 같은 콘텐츠를 현지화하고, 분석을 위해 대량의 텍스트를 쉽게 번역하고, 사용자 간에 언어 간 통신을 효율적으로 활성화할 수 있습니다.
AWS DeepComposer
AWS DeepComposer는 ML 기반 세계 최초의 뮤지컬 키보드로, 모든 기술 수준의 개발자가 원본 음악 출력을 생성하는 동안 생성형 AI를 학습할 수 있도록 지원합니다. DeepComposer 는 개발자의 컴퓨터에 연결하는 USB 키보드와를 통해 액세스하는 DeepComposer 서비스로 구성됩니다 AWS Management Console. 에는 생성형 모델 구축을 시작하는 데 사용할 수 있는 자습서, 샘플 코드 및 훈련 데이터가 DeepComposer 포함되어 있습니다.
AWS DeepRacer
AWS DeepRacer는 1/18 규모의 레이스카로, RL(강화 학습)을 시작하는 흥미롭고 재미있는 방법을 제공합니다. RL은 고급 ML 기법으로, 다른 ML 방법과는 매우 다른 모델 훈련 접근 방식을 취합니다. 초강력은 레이블이 지정된 훈련 데이터 없이 매우 복잡한 행동을 학습하고, 장기 목표를 위해 최적화하면서 단기 결정을 내릴 수 있다는 것입니다.
를 사용하면 AWS DeepRacer이제 RL을 직접 사용하고, 자율 주행을 통해 실험하고, 배울 수 있습니다. 클라우드 기반 3D 레이싱 시뮬레이터에서 가상 자동차와 트랙을 시작할 수 있으며, 실제 경험을 위해 훈련된 모델을에 배포 AWS DeepRacer 하고 친구를 레이스하거나 글로벌 AWS DeepRacer 리그에 참여할 수 있습니다. 개발자, 레이스가 켜져 있습니다.
AWS HealthLake
AWS HealthLake는 의료 서비스 공급자, 의료 보험 회사 및 제약 회사가 대규모 건강 데이터를 저장, 변환, 쿼리 및 분석하는 데 사용할 수 있는 HIPAA적격 서비스입니다.
상태 데이터는 종종 불완전하고 일관되지 않습니다. 또한 임상 기록, 실험실 보고서, 보험 청구, 의료 이미지, 기록된 대화 및 시계열 데이터(예: 하트 ECG 또는 뇌 EEG 트레이스)에 포함된 정보를 사용하여 구조화되지 않은 경우가 많습니다.
의료 공급자는 HealthLake 를 사용하여에 데이터를 저장, 변환, 쿼리 및 분석할 수 있습니다 AWS 클라우드. HealthLake 통합된 의료 자연어 처리(NLP) 기능을 사용하여 다양한 소스의 비정형 임상 텍스트를 분석할 수 있습니다.는 자연어 처리 모델을 사용하여 비정형 데이터를 HealthLake 변환하고 강력한 쿼리 및 검색 기능을 제공합니다. HealthLake 를 사용하여 안전하고 규정을 준수하며 감사 가능한 방식으로 환자 정보를 구성, 인덱싱 및 구조화할 수 있습니다.
AWS HealthScribe
AWS HealthScribe는 의료 소프트웨어 공급업체가 환자-클리니션 대화 분석을 통해 임상 기록을 자동으로 생성할 수 있는 HIPAA적격 서비스입니다.는 음성 인식을 생성형 AI와 AWS HealthScribe 결합하여 대화를 트랜스크립션하고 임상 기록을 빠르게 생성하여 임상 문서의 부담을 줄입니다. 환자와 임상의의 화자 역할을 식별하고, 의학 용어를 추출하고, 예비 임상 기록을 생성하기 위해 대화가 세분화됩니다. 민감한 환자 데이터를 보호하기 위해 보안 및 프라이버시가 내장되어 입력 오디오와 출력 텍스트가 유지되지 않습니다 AWS HealthScribe.
AWS Panorama
AWS Panorama는 온프레미스 인터넷 프로토콜(IPSDK) 카메라에 컴퓨터 비전(CV)을 제공하는 ML 디바이스 및 소프트웨어 개발 키트()의 모음입니다. 를 사용하면 기존에 인적 검사가 필요했던 작업을 자동화하여 잠재적 문제에 대한 가시성을 높일 AWS Panorama수 있습니다.
컴퓨터 비전은 자산을 추적하여 공급망 운영을 최적화하거나, 트래픽 차선을 모니터링하여 트래픽 관리를 최적화하거나, 이상을 감지하여 제조 품질을 평가하는 등의 작업에 대한 시각적 검사를 자동화할 수 있습니다. 그러나 네트워크 대역폭이 제한된 환경이나 비디오의 온프레미스 처리 및 저장이 필요한 데이터 거버넌스 규칙이 있는 회사의 경우 클라우드의 컴퓨터 비전은 구현하기 어렵거나 불가능할 수 있습니다. AWS Panorama 는 조직이 온프레미스 카메라에 컴퓨터 비전을 제공하여 높은 정확도와 짧은 지연 시간으로 로컬에서 예측할 수 있도록 하는 ML 서비스입니다.
AWS Panorama 어플라이언스는 기존 IP 카메라에 컴퓨터 비전을 추가하고 단일 관리 인터페이스에서 여러 카메라의 비디오 피드를 분석하는 하드웨어 디바이스입니다. 엣지에서 밀리초 단위로 예측을 생성합니다. 즉, 손상된 제품이 빠르게 움직이는 생산 라인에서 감지되거나 차량이 창고의 위험한 제한 외 영역으로 흐려질 때와 같은 잠재적 문제에 대해 알림을 받을 수 있습니다. 또한 타사 제조업체는 고유한 사용 사례에 더 많은 폼 팩터를 제공하기 위해 새로운 AWS Panorama지원 카메라와 디바이스를 구축하고 있습니다. 를 AWS Panorama 사용하면 AWS 의 ML 모델을 사용하여 자체 컴퓨터 비전 애플리케이션을 빌드하거나의 파트너와 협력하여 CV 애플리케이션을 빠르게 빌드 AWS Partner Network 할 수 있습니다.
로 돌아갑니다AWS 서비스.