Flazzo memiliki fokus utama untuk menambah nilai bisnis Anda.

Blog

Bagaimana pengembang dapat bekerja dengan aman dengan AI generatif

17084581-thumb.jpg
Blog

Bagaimana pengembang dapat bekerja dengan aman dengan AI generatif

[ad_1]

Jika Anda bekerja dalam pengembangan perangkat lunak, atau memang sektor industri teknologi mana pun, Anda pasti telah berpartisipasi dalam diskusi, membaca berita utama, atau bahkan menguji platform kecerdasan buatan (AI) generatif. ). Sederhananya, teknologi baru yang berkembang pesat ini ada di mana-mana.

Namun di samping janji menarik akan produktivitas yang lebih besar dengan alat pembuat kode AI – GitHub berpendapat bahwa peningkatan produktivitas pengembang karena AI dapat meningkatkan PDB global lebih dari $1,5 triliun – ada peningkatan risiko juga. Risiko ini mencakup kekhawatiran tentang kualitas kode, karena model AI dapat menghasilkan kode kompleks yang sulit dipahami dan juga sulit dijelaskan.

Ada juga risiko kerumitan seputar kepemilikan kekayaan intelektual, karena diskusi tentang hak kekayaan intelektual, kepemilikan, dan hak cipta kode yang dihasilkan AI masih berlangsung. Seiring perkembangan teknologi ini, pedomannya akan menjadi lebih jelas, tetapi akan memakan waktu. Saat ini, jika Anda bekerja dengan kode buatan AI yang dilatih pada perangkat lunak sumber terbuka, kegagalan untuk memenuhi persyaratan lisensi perangkat lunak tersebut dapat dianggap sebagai pelanggaran hak cipta.

Terakhir, kode yang dihasilkan AI mungkin mengandung sejumlah kerentanan, meskipun secara tidak sengaja. Jika AI telah dilatih tentang kode yang tidak aman, misalnya, ia akan membuat kode yang tidak aman. Sederhananya: sampah di dalam, sampah di luar.

Keselamatan pertama

Jadi, apa yang dapat dilakukan pengembang untuk memastikan mereka mendapatkan hasil maksimal dari AI generatif tanpa membahayakan keamanan?

  1. Pikirkan AI generatif sebagai a muda mitra pengkodean: Pengembang harus mulai bekerja dengan alat pengkodean AI generatif yang mengharapkan kode di bawah standar yang mengandung kerentanan.
  2. Tetap waspada dengan petunjuk AI: Mengungkapkan informasi rahasia melalui prompt kecerdasan buatan menimbulkan risiko privasi yang signifikan, dan pemahaman tentang bagaimana layanan benar-benar menangani data pelanggan mereka saat ini masih terbatas.
  3. Integrasikan lebih banyak ulasan kode: Seperti pengkodean tradisional, tinjauan kode merupakan proses penting dalam siklus hidup pengembangan perangkat lunak (SDLC). Meninjau keamanan dan kualitas kode yang dihasilkan AI sangat penting, karena mungkin tampak konsisten pada pandangan pertama, tetapi belum tentu benar dan aman setelah pengujian.
  4. Merangkul pendidikan berkelanjutan: Karena meninjau dan menguji kode yang dihasilkan AI sangat penting, sangat penting bagi pengembang perangkat lunak di belakang mendorong dan memberikan produk akhir, aplikasi, atau layanan untuk memiliki pemahaman yang baik tentang pengkodean yang aman. Para profesional ini membutuhkan pelatihan tentang cara mengenali dan menangani kerentanan, dan karena lanskap ancaman berubah begitu cepat, pelatihan ini juga harus diberikan secara berkelanjutan untuk memberdayakan semua orang di dalam SDLC dengan lebih baik.

Sangat mungkin untuk mencapai keseimbangan antara peningkatan produktivitas yang dapat diaktifkan oleh AI generatif dan risiko yang dapat ditimbulkannya terhadap keamanan dan kualitas kode dengan pedoman ini. Namun, yang mendasari keseimbangan ini sedang berlangsung, pelatihan terprogram dalam pengkodean yang aman untuk pengembang manusia sehingga AI generatif menjadi alat yang berguna daripada sumber kode yang tidak aman.

[ad_2]