Flazzo memiliki fokus utama untuk menambah nilai bisnis Anda.

Blog

Google menguraikan empat prinsip untuk AI yang bertanggung jawab

f276d2305dc87cce19105c197ee6e83b.png
Blog

Google menguraikan empat prinsip untuk AI yang bertanggung jawab

[ad_1]

Dengan semua adopsi teknologi AI seperti GPT selama beberapa bulan terakhir, banyak yang memikirkan tanggung jawab etis dalam pengembangan AI.

Menurut Google, AI yang bertanggung jawab tidak hanya berarti menghindari risiko, tetapi juga menemukan cara untuk meningkatkan kehidupan masyarakat dan memecahkan masalah sosial dan ilmiah, karena teknologi baru ini memiliki aplikasi dalam memprediksi bencana, meningkatkan pengobatan, pertanian presisi, dll.

“Kami menyadari bahwa pengembangan AI mutakhir adalah teknologi baru – pembelajaran untuk menilai risiko dan kemampuannya jauh melampaui aturan pemrograman mekanis di bidang model pelatihan dan evaluasi hasil.”, Kent Walker, presiden urusan global untuk Google dan Alfabet, tulis dalam a posting blog.

Google memiliki empat prinsip AI yang dikatakan sangat penting untuk akuntabilitas AI yang sukses.

Pertama, harus ada pendidikan dan pelatihan sehingga tim yang bekerja dengan teknologi ini memahami bagaimana prinsip-prinsip tersebut diterapkan pada pekerjaan mereka.

Kedua, harus ada alat, teknik, dan infrastruktur yang dapat diakses oleh tim-tim ini yang dapat digunakan untuk menerapkan prinsip-prinsip tersebut.

Ketiga, juga harus ada pengawasan melalui proses seperti kerangka penilaian risiko, tinjauan etika dan akuntabilitas kepemimpinan.

Keempat, kemitraan harus ada sehingga perspektif eksternal dapat dibawa masuk untuk berbagi ide dan praktik yang bertanggung jawab.

“Ada alasan bagi kami sebagai perusahaan untuk optimis bahwa pendekatan yang bijaksana dan ide-ide baru dari seluruh ekosistem AI akan membantu kami menavigasi transisi, menemukan solusi kolektif, dan memaksimalkan potensi AI yang luar biasa,” tulis Walker. “Tapi itu akan membutuhkan desa pepatah – kolaborasi dan komitmen mendalam dari kita semua – untuk melakukannya dengan benar.”

Menurut Google, dua contoh kuat kerangka kerja AI yang bertanggung jawab adalah Amerika Serikat. Institut Nasional Standar dan Teknologi Kerangka Kerja Manajemen Risiko AI dan OECD Observatorium Prinsip dan Kebijakan AI. “Dikembangkan melalui proses terbuka dan kolaboratif, mereka memberikan pedoman yang jelas yang dapat beradaptasi dengan aplikasi, risiko, dan pengembangan AI baru,” tulis Walker.

Google tidak sendirian dalam memperhatikan pengembangan AI yang bertanggung jawab. Baru-baru ini, Elon Musk, Steve Wozniak, Andrew Yang, dan tokoh lainnya menandatangani a surat Terbuka memohon perusahaan teknologi untuk menangguhkan pengembangan sistem AI sampai “kami yakin bahwa efeknya akan positif dan risikonya dapat dikelola”. Permintaan khusus adalah agar laboratorium AI menghentikan pengembangan setidaknya selama enam bulan pada sistem apa pun yang lebih kuat daripada GPT-4.

“Umat manusia dapat menikmati masa depan yang berkembang dengan AI. Setelah berhasil menciptakan sistem AI yang kuat, kita sekarang dapat menikmati ‘musim panas AI’ di mana kita menuai hasilnya, merancang sistem ini untuk kepentingan semua dan memberikan kesempatan kepada masyarakat untuk beradaptasi. Masyarakat telah berhenti pada teknologi lain dengan efek bencana yang berpotensi pada masyarakat. Kita bisa melakukannya di sini. Mari nikmati musim panas yang panjang di IA, jangan terburu-buru tanpa persiapan hingga jatuh,” bunyi surat itu.

[ad_2]