

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# 提交提示並使用模型推論產生回應
<a name="inference"></a>

推論是指從提供給模型的輸入產生輸出的過程。

Amazon Bedrock 提供一組基礎模型，可用來產生下列模態的輸出。若要查看基礎模型的模態支援，請參閱 [Amazon Bedrock 中支援的基礎模型](models-supported.md)。


****  

| 輸出模態 | Description | 範例使用案例 | 
| --- | --- | --- | 
| 文字 | 提供文字輸入並產生各種類型的文字 | 聊天、問答、腦力激盪、摘要、產生程式碼、資料表建立、資料格式、重寫 | 
| 影像 | 提供文字或輸入影像，並產生或修改影像 | 影像產生、影像編輯、影像變化 | 
| 影片 | 提供文字或參考影像並產生影片 | 影片產生、影像轉換為影片 | 
| 嵌入項目 | 提供文字、影像或文字和影像，並產生代表輸入的數值向量。輸出向量可以與其他內嵌向量進行比較，以判斷語意相似性 (適用於文字) 或視覺相似性 (適用於影像)。 | 文字和影像搜尋、查詢、分類、建議、個人化、[知識庫建立](knowledge-base.md) | 

**Topics**
+ [了解不同模型推論方法的使用案例](inference-methods.md)
+ [Amazon Bedrock 中的推論運作方式](inference-how.md)
+ [使用推論參數影響回應生成](inference-parameters.md)
+ [執行模型推論的支援區域和模型](inference-supported.md)
+ [執行模型推論的必要條件](inference-prereq.md)
+ [使用遊樂場在主控台中產生回應](playgrounds.md)
+ [使用模型推理來增強模型回應](inference-reasoning.md)
+ [針對延遲最佳化模型推論](latency-optimized-inference.md)
+ [使用 OpenAI APIs產生回應](bedrock-mantle.md)
+ [使用 API 提交提示並產生回應](inference-api.md)
+ [從模型取得經過驗證的 JSON 結果](structured-output.md)
+ [使用電腦使用工具完成 Amazon Bedrock 模型回應](computer-use.md)