Model fondasi AI generatif di Kanvas SageMaker - Amazon SageMaker

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Model fondasi AI generatif di Kanvas SageMaker

Amazon SageMaker Canvas menyediakan model dasar AI generatif yang dapat Anda gunakan untuk memulai obrolan percakapan. Model pembuatan konten ini dilatih pada sejumlah besar data teks untuk mempelajari pola statistik dan hubungan antar kata, dan mereka dapat menghasilkan teks yang koheren yang secara statistik mirip dengan teks tempat mereka dilatih. Anda dapat menggunakan kemampuan ini untuk meningkatkan produktivitas Anda dengan melakukan hal berikut:

  • Menghasilkan konten, seperti garis besar dokumen, laporan, dan blog

  • Meringkas teks dari kumpulan teks besar, seperti transkrip panggilan pendapatan, laporan tahunan, atau bab-babnya manual pengguna

  • Ekstrak wawasan dan takeaways kunci dari bagian teks yang besar, seperti catatan rapat atau narasi

  • Memperbaiki teks dan menangkap kesalahan tata bahasa atau kesalahan ketik

Model dasar adalah kombinasi dari Amazon SageMaker JumpStart dan Amazon Bedrock model bahasa besar (LLMs). Canvas menawarkan model-model berikut:

Model Tipe Deskripsi

Amazon Titan

Model Amazon Bedrock

Amazon Titan adalah model bahasa tujuan umum yang kuat yang dapat Anda gunakan untuk tugas-tugas seperti meringkas, pembuatan teks (seperti membuat posting blog), klasifikasi, tanya jawab terbuka, dan ekstraksi informasi. Ini dilatih sebelumnya pada kumpulan data besar, sehingga cocok untuk tugas dan penalaran yang kompleks. Untuk terus mendukung praktik terbaik dalam penggunaan AI yang bertanggung jawab, model yayasan Amazon Titan dibuat untuk mendeteksi dan menghapus konten berbahaya dalam data, menolak konten yang tidak pantas dalam input pengguna, dan memfilter output model yang berisi konten yang tidak pantas (seperti ujaran kebencian, kata-kata kotor, dan kekerasan).

Anthropic Claude Instant

Model Amazon Bedrock

Claude Instant Anthropic adalah model yang lebih cepat dan lebih hemat biaya namun masih sangat mumpuni. Model ini dapat menangani berbagai tugas termasuk dialog biasa, analisis teks, ringkasan, dan menjawab pertanyaan dokumen. Sama seperti Claude-2, Claude Instant dapat mendukung hingga 100.000 token di setiap prompt, setara dengan sekitar 200 halaman informasi.

Anthropic Claude-2

Model Amazon Bedrock

Claude-2 adalah model Anthropic yang paling kuat, yang unggul dalam berbagai tugas mulai dari dialog canggih dan pembuatan konten kreatif hingga instruksi terperinci berikut. Claude-2 dapat mengambil hingga 100.000 token di setiap prompt, setara dengan sekitar 200 halaman informasi. Ini dapat menghasilkan respons yang lebih lama dibandingkan dengan versi sebelumnya. Ini mendukung kasus penggunaan seperti menjawab pertanyaan, ekstraksi informasi, penghapusan, pembuatan kontenPII, klasifikasi pilihan ganda, permainan peran, membandingkan teks, ringkasan, dan Tanya Jawab dokumen dengan kutipan.

Instruksi Falcon-7B

JumpStart model

Falcon-7B-Instruct memiliki 7 miliar parameter dan disetel dengan baik pada campuran kumpulan data obrolan dan instruksi. Ini cocok sebagai asisten virtual dan berkinerja terbaik saat mengikuti instruksi atau terlibat dalam percakapan. Karena model ini dilatih pada sejumlah besar data web berbahasa Inggris, ia membawa stereotip dan bias yang biasa ditemukan online dan tidak cocok untuk bahasa selain bahasa Inggris. Dibandingkan dengan Falcon-40B-Instruct, Falcon-7B-Instruct adalah model yang sedikit lebih kecil dan lebih kompak.

Instruksi Falcon-40B

JumpStart model

Falcon-40B-Instruct memiliki 40 miliar parameter dan disetel dengan baik pada campuran kumpulan data obrolan dan instruksi. Ini cocok sebagai asisten virtual dan berkinerja terbaik saat mengikuti instruksi atau terlibat dalam percakapan. Karena model ini dilatih pada sejumlah besar data web berbahasa Inggris, ia membawa stereotip dan bias yang biasa ditemukan online dan tidak cocok untuk bahasa selain bahasa Inggris. Dibandingkan dengan Falcon-7B-Instruct, Falcon-40B-Instruct adalah model yang sedikit lebih besar dan lebih kuat.

Jurassic-2 Pertengahan

Model Amazon Bedrock

Jurassic-2 Mid adalah model pembuatan teks berkinerja tinggi yang dilatih pada kumpulan teks yang sangat besar (saat ini hingga pertengahan 2022). Ini sangat serbaguna, tujuan umum, dan mampu menyusun teks seperti manusia dan menyelesaikan tugas-tugas kompleks seperti menjawab pertanyaan, klasifikasi teks, dan banyak lainnya. Model ini menawarkan kemampuan instruksi zero-shot, memungkinkannya diarahkan hanya dengan bahasa alami dan tanpa menggunakan contoh. Ini bekerja hingga 30% lebih cepat dari pendahulunya, model Jurassic-1.

Jurassic-2 Mid adalah AI21 model berukuran sedang, dirancang dengan cermat untuk mencapai keseimbangan yang tepat antara kualitas luar biasa dan keterjangkauan.

Jurassic-2 Ultra

Model Amazon Bedrock

Jurassic-2 Ultra adalah model pembuatan teks berkinerja tinggi yang dilatih pada kumpulan teks yang sangat besar (saat ini hingga pertengahan 2022). Ini sangat serbaguna, tujuan umum, dan mampu menyusun teks seperti manusia dan menyelesaikan tugas-tugas kompleks seperti menjawab pertanyaan, klasifikasi teks, dan banyak lainnya. Model ini menawarkan kemampuan instruksi zero-shot, memungkinkannya diarahkan hanya dengan bahasa alami dan tanpa menggunakan contoh. Ini bekerja hingga 30% lebih cepat dari pendahulunya, model Jurassic-1.

Dibandingkan dengan Jurassic-2 Mid, Jurassic-2 Ultra adalah model yang sedikit lebih besar dan lebih kuat.

Llama-2-7B-obrolan

JumpStart model

LLAMA-2-7B-Chat adalah model dasar oleh Meta yang cocok untuk terlibat dalam percakapan yang bermakna dan koheren, menghasilkan konten baru, dan mengekstraksi jawaban dari catatan yang ada. Karena model ini dilatih pada sejumlah besar data internet berbahasa Inggris, ia membawa bias dan batasan yang biasa ditemukan secara online dan paling cocok untuk tugas-tugas dalam bahasa Inggris.

Llama-2-13B-Obrolan

Model Amazon Bedrock

Llama-2-13B-Chat oleh Meta disetel dengan baik pada data percakapan setelah pelatihan awal tentang data internet. Ini dioptimalkan untuk dialog alami dan kemampuan obrolan yang menarik, membuatnya cocok sebagai agen percakapan. Dibandingkan dengan LLAMA-2-7B-chat yang lebih kecil, Llama-2-13B-Chat memiliki parameter hampir dua kali lebih banyak, memungkinkannya untuk mengingat lebih banyak konteks dan menghasilkan respons percakapan yang lebih bernuansa. Seperti Llama-2-7B-Chat, Llama-2-13B-Chat dilatih pada data berbahasa Inggris dan paling cocok untuk tugas-tugas dalam bahasa Inggris.

Llama-2-70B-Obrolan

Model Amazon Bedrock

Seperti Llama-2-7B-Chat dan Llama-2-13B-Chat, model Llama-2-70B-Chat oleh Meta dioptimalkan untuk terlibat dalam dialog alami dan bermakna. Dengan 70 miliar parameter, model percakapan besar ini dapat mengingat konteks yang lebih luas dan menghasilkan respons yang sangat koheren jika dibandingkan dengan versi model yang lebih ringkas. Namun, ini datang dengan mengorbankan respons yang lebih lambat dan persyaratan sumber daya yang lebih tinggi. Llama-2-70B-Chat dilatih pada sejumlah besar data internet berbahasa Inggris dan paling cocok untuk tugas-tugas dalam bahasa Inggris.

Mistral-7B

JumpStart model

Mistral-7B oleh Mistral.AI adalah model bahasa tujuan umum yang sangat baik yang cocok untuk berbagai tugas bahasa alami (NLP) seperti pembuatan teks, ringkasan, dan menjawab pertanyaan. Ini menggunakan grouped-query attention (GQA) yang memungkinkan kecepatan inferensi lebih cepat, membuatnya bekerja sebanding dengan model dengan dua atau tiga kali lebih banyak parameter. Itu dilatih pada campuran data teks termasuk buku, situs web, dan makalah ilmiah dalam bahasa Inggris, sehingga paling cocok untuk tugas-tugas dalam bahasa Inggris.

Mistral-7B-Obrolan

JumpStart model

Mistral-7B-Chat adalah model percakapan oleh Mistral.AI berdasarkan Mistral-7B. Sementara Mistral-7B adalah yang terbaik untuk NLP tugas-tugas umum, Mistral-7B-Chat telah disempurnakan lebih lanjut pada data percakapan untuk mengoptimalkan kemampuannya untuk obrolan alami dan menarik. Akibatnya, Mistral-7B-Chat menghasilkan lebih banyak respons seperti manusia dan mengingat konteks tanggapan sebelumnya. Seperti Mistral-7B, model ini paling cocok untuk tugas bahasa Inggris.

MPT-7B-Instruksikan

JumpStart model

MPT-7B-Instruct adalah model untuk instruksi bentuk panjang berikut tugas-tugas dan dapat membantu Anda dengan menulis tugas termasuk ringkasan teks dan tanya jawab untuk menghemat waktu dan usaha Anda. Model ini dilatih pada sejumlah besar data yang disetel dengan baik dan dapat menangani input yang lebih besar, seperti dokumen yang kompleks. Gunakan model ini saat Anda ingin memproses teks dalam jumlah besar atau ingin model menghasilkan respons yang panjang.

Model dasar dari Amazon Bedrock saat ini hanya tersedia di Wilayah AS Timur (Virginia N.) dan AS Barat (Oregon). Selain itu, saat menggunakan model foundation dari Amazon Bedrock, Anda dikenakan biaya berdasarkan volume token input dan token output, seperti yang ditentukan oleh masing-masing penyedia model. Untuk informasi selengkapnya, lihat halaman harga Amazon Bedrock. Model JumpStart dasar diterapkan pada instans SageMaker Hosting, dan Anda dikenakan biaya selama durasi penggunaan berdasarkan jenis instans yang digunakan. Untuk informasi selengkapnya tentang biaya berbagai jenis instans, lihat bagian Amazon SageMaker Hosting: Inferensi Waktu Nyata di halaman SageMaker harga.

Kueri dokumen adalah fitur tambahan yang dapat Anda gunakan untuk kueri dan mendapatkan wawasan dari dokumen yang disimpan dalam indeks menggunakan Amazon Kendra. Dengan fungsi ini, Anda dapat menghasilkan konten dari konteks dokumen-dokumen tersebut dan menerima tanggapan yang spesifik untuk kasus penggunaan bisnis Anda, sebagai lawan dari tanggapan yang umum terhadap sejumlah besar data di mana model yayasan dilatih. Untuk informasi selengkapnya tentang indeks di Amazon Kendra, lihat Panduan Pengembang Amazon Kendra.

Jika Anda ingin mendapatkan tanggapan dari salah satu model foundation yang disesuaikan dengan data dan kasus penggunaan Anda, Anda dapat menyempurnakan model foundation. Untuk mempelajari selengkapnya, lihat Model pondasi yang menyempurnakan.

Jika Anda ingin mendapatkan prediksi dari model SageMaker JumpStart yayasan Amazon melalui aplikasi atau situs web, Anda dapat menerapkan model ke titik akhir. SageMaker SageMaker endpoint meng-host model Anda, dan Anda dapat mengirim permintaan ke titik akhir melalui kode aplikasi Anda untuk menerima prediksi dari model. Untuk informasi selengkapnya, lihat Menerapkan model Anda ke titik akhir.