Flazzo memiliki fokus utama untuk menambah nilai bisnis Anda.

Blog

Google memperluas perangkat AI generatif yang bertanggung jawab dengan dukungan untuk SynthID, pustaka penyelarasan model baru, dan banyak lagi.

1a3d84b57b748eb29e5d8add07d096ce.png
Blog

Google memperluas perangkat AI generatif yang bertanggung jawab dengan dukungan untuk SynthID, pustaka penyelarasan model baru, dan banyak lagi.

[ad_1]

Google mempermudah bisnis untuk menciptakan AI generatif secara bertanggung jawab dengan menambahkan alat dan perpustakaan baru ke dalamnya Perangkat AI Generatif yang Bertanggung Jawab.

Toolkit ini menyediakan alat untuk desain aplikasi yang bertanggung jawab, penyelarasan keamanan, penilaian model, dan perlindungan, yang semuanya bekerja sama untuk meningkatkan kemampuan mengembangkan AI generatif secara bertanggung jawab dan aman.

Google menambahkan kemampuan untuk memberi tanda air dan mendeteksi teks yang dihasilkan oleh produk AI menggunakan teknologi SynthID Google DeepMind. Tanda air tidak terlihat oleh manusia yang melihat konten tersebut, namun dapat dilihat oleh model deteksi untuk menentukan apakah konten tersebut dihasilkan oleh alat AI tertentu.

“Kemampuan mengidentifikasi konten yang dihasilkan AI sangat penting untuk meningkatkan kepercayaan terhadap informasi. Meskipun bukan solusi terbaik untuk memecahkan masalah seperti misinformasi atau misatribusi, SynthID adalah serangkaian solusi teknis yang menjanjikan untuk masalah keamanan AI yang mendesak ini. Situs web SynthID Amerika.

Penambahan toolbox berikutnya adalah Perpustakaan Penyelarasan Modelyang memungkinkan LLM menyaring permintaan pengguna berdasarkan kriteria dan umpan balik tertentu.

“Berikan umpan balik tentang bagaimana Anda ingin hasil model Anda berubah dalam bentuk kritik holistik atau serangkaian pedoman. Gunakan Gemini atau LLM favorit Anda untuk mengubah masukan Anda menjadi petunjuk yang menyelaraskan perilaku model Anda dengan kebutuhan aplikasi dan kebijakan konten Anda,” tulis Ryan Mullins, insinyur riset dan pimpinan teknis RAI Toolkit di Google, dalam siaran persnya. postingan blog.

Dan terakhir, pembaruan terkini adalah peningkatan pengalaman pengembang di Alat Interpretabilitas Pembelajaran (LIT) di Google Cloud, sebuah alat yang memberikan wawasan tentang “bagaimana pengguna, model, dan konten sistem memengaruhi perilaku pembangunan.”

Sekarang mencakup container server model, yang memungkinkan pengembang untuk menerapkan Hugging Face atau Keras LLM di Google Cloud Run GPU dengan dukungan untuk pembuatan, tokenisasi, dan penilaian arti-penting. Pengguna kini juga dapat terhubung ke model yang dihosting sendiri atau model Gemini menggunakan Vertex API.

“Membangun AI secara bertanggung jawab sangatlah penting. Itu sebabnya kami membuat Responsible GenAI Toolkit, yang menyediakan sumber daya untuk merancang, membangun, dan mengevaluasi model AI terbuka. Dan kami tidak berhenti di situ! Kami sekarang memperluas kotak peralatan dengan fitur-fitur baru yang dirancang untuk bekerja dengan LLM apa pun, baik Gemma, Gemini, atau model lainnya. Rangkaian alat dan fitur ini memungkinkan siapa pun membangun AI secara bertanggung jawab, apa pun model yang mereka pilih,” tulis Mullins.

[ad_2]