Cara kerja basis pengetahuan Amazon Bedrock - Amazon Bedrock

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Cara kerja basis pengetahuan Amazon Bedrock

Amazon Bedrock Knowledge Bases membantu Anda memanfaatkan Retrieval Augmented Generation (RAG), teknik populer yang melibatkan pengambilan informasi dari penyimpanan data untuk menambah respons yang dihasilkan oleh Large Language Models (). LLMs Saat Anda menyiapkan basis pengetahuan dengan sumber data dan penyimpanan vektor, aplikasi Anda dapat meminta basis pengetahuan untuk mengembalikan informasi guna menjawab kueri baik dengan kutipan langsung dari sumber atau dengan respons alami yang dihasilkan dari hasil kueri.

Dengan basis pengetahuan, Anda dapat membangun aplikasi yang diperkaya oleh konteks yang diterima dari kueri basis pengetahuan. Ini memungkinkan waktu yang lebih cepat untuk memasarkan dengan mengabstraksi dari pengangkatan pipa bangunan yang berat dan memberi Anda out-of-the-box RAG solusi untuk mengurangi waktu pembuatan aplikasi Anda. Menambahkan basis pengetahuan juga meningkatkan efektivitas biaya dengan menghilangkan kebutuhan untuk terus melatih model Anda untuk dapat memanfaatkan data pribadi Anda.

Diagram berikut menggambarkan secara skematis bagaimana RAG dilakukan. Basis pengetahuan menyederhanakan pengaturan dan implementasi RAG dengan mengotomatisasi beberapa langkah dalam proses ini.

Data pra-pemrosesan

Untuk mengaktifkan pengambilan yang efektif dari data pribadi, praktik umum adalah mengubah data menjadi teks dan membaginya menjadi potongan-potongan yang dapat dikelola. Potongan atau potongan kemudian dikonversi menjadi embeddings dan ditulis ke indeks vektor, sambil mempertahankan pemetaan ke dokumen asli. Embeddings ini digunakan untuk menentukan kesamaan semantik antara kueri dan teks dari sumber data. Gambar berikut menggambarkan pra-pemrosesan data untuk database vektor.

Data pra-pemrosesan untuk generasi tambahan pengambilan

Eksekusi runtime

Saat runtime, model embedding digunakan untuk mengonversi kueri pengguna menjadi vektor. Indeks vektor kemudian ditanyakan untuk menemukan potongan yang semantik mirip dengan kueri pengguna dengan membandingkan vektor dokumen dengan vektor kueri pengguna. Pada langkah terakhir, prompt pengguna ditambah dengan konteks tambahan dari potongan yang diambil dari indeks vektor. Prompt di samping konteks tambahan kemudian dikirim ke model untuk menghasilkan respons bagi pengguna. Gambar berikut mengilustrasikan cara RAG beroperasi saat runtime untuk menambah respons terhadap kueri pengguna.

Generasi yang diperbesar pengambilan saat runtime