NeMo Guardrails NVIDIA menambahkan fitur keamanan ke AI chatbots dan AI generatif
NeMo Guardrails NVIDIA menambahkan fitur keamanan ke AI chatbots dan AI generatif
[ad_1]
Baru dari NVIDIA perangkat sumber terbuka memungkinkan pengembang menambahkan fitur topik, keselamatan, dan keamanan ke bot obrolan AI dan aplikasi AI generatif lainnya yang dibuat dengan model bahasa besar.
Perangkat lunak ini mencakup semua kode, sampel, dan dokumentasi yang dibutuhkan organisasi untuk memperkuat keamanan aplikasi AI yang menghasilkan teks. NVIDIA mengatakan merilis proyek tersebut karena banyak industri mengadopsi model bahasa besar (LLM), mesin yang kuat di balik aplikasi AI ini.
Pengguna dapat mengonfigurasi tiga jenis batasan dengan NeMo Guardrails: tematik, keamanan, dan keselamatan.
Dengan pagar pembatas topikal, dimungkinkan untuk mencegah aplikasi mengakses area yang tidak diinginkan dengan menerapkan pagar pembatas topikal. Contohnya mencegah asisten layanan pelanggan menanggapi pertanyaan cuaca.
Pagar pembatas memastikan bahwa aplikasi merespons dengan informasi yang akurat dan sesuai. Mereka dapat memfilter bahasa yang tidak diinginkan dan memastikan bahwa referensi hanya dibuat untuk sumber yang kredibel.
Pagar pembatas mencegah aplikasi membuat koneksi hanya ke aplikasi pihak ketiga eksternal yang dikenal aman.
Alat ini kompatibel dengan alat yang biasa digunakan oleh pengembang aplikasi perusahaan. Misalnya, ini dapat berjalan di LangChain, perangkat sumber terbuka yang mudah diadopsi oleh pengembang untuk menggabungkan aplikasi pihak ketiga dengan LLM. Selain itu, Pagar Pembatas NeMo dirancang agar cukup serbaguna untuk bekerja dengan berbagai aplikasi yang mendukung LLM, termasuk Zapier.
Proyek ini sedang diintegrasikan ke dalam kerangka kerja NVIDIA NeMo yang sudah memiliki kode sumber terbuka di GitHub.
[ad_2]