Microsoft memperkenalkan peta jalan musim gugur untuk Semantic Kernel

Microsoft memperkenalkan peta jalan musim gugur untuk Semantic Kernel
[ad_1]

Awal tahun ini, Microsoft merilis inti semantikyang merupakan SDK sumber terbuka yang memungkinkan pengembang menggabungkan model bahasa besar (LLM) dengan bahasa pemrograman konvensional.
Perusahaan kini telah meluncurkan peta jalannya untuk proyek tersebut hingga musim gugur ini. “Tujuan kami adalah untuk memberikan pengembangan dan peningkatan utama di tiga pilar: sumber terbuka dan keandalan, keandalan dan kinerja, serta integrasi inovasi AI terbaru,” tulis John Maeda, VP -presiden desain dan AI di Microsoft, dalam sebuah pernyataan. posting blog.
Pertama, diumumkan bahwa mereka mengadopsi standar terbuka Plugin OpenAI, yang akan memungkinkan pengguna membuat plugin yang berfungsi pada platform OpenAI, Semantic Kernel, dan Microsoft.
Perusahaan juga mengumumkan pembaruan untuk penjadwal, yang merupakan “fungsi yang mengambil permintaan pengguna dan mengembalikan rencana bagaimana menyelesaikan permintaan… Misalnya, jika Anda memiliki plugin tugas dan acara kalender, perencana dapat menggabungkannya untuk membuat alur kerja seperti “ingatkan saya untuk membeli susu ketika saya pergi ke toko” atau “ingatkan saya untuk menelepon ibu saya besok” tanpa Anda harus secara eksplisit menulis kode untuk skenario ini”, Dokumentasi negara bagian.
Microsoft akan menambahkan cold storage ke penjadwal, serta penjadwal dinamis yang dapat menemukan plugin secara otomatis.
Rencana roadmap terakhir adalah mengintegrasikan Semantic Kernel dengan database vektor seperti Pine Cone, Redis, Weaviate, dan Chroma. Ini juga akan berintegrasi dengan Pencarian dan Layanan Kognitif Azure. Microsoft juga akan menambahkan layanan segmentasi dokumen dan meningkatkan ekstensi VS Code.
“Rencana rilis Musim Gugur 2023 untuk Semantic Kernel menekankan kolaborasi terbuka, peningkatan kinerja, dan integrasi inovasi AI mutakhir. Bersama-sama kami membangun platform pengembangan AI yang tangguh dan andal,” tulis Maeda.
[ad_2]