
GitHub telah memperbarui model AI dari Copilot, asisten pemrograman yang menghasilkan kode sumber waktu nyata dan rekomendasi fungsi di Visual Studio, dan mengatakan sekarang lebih aman dan lebih kuat.
Perusahaan mengatakan model AI baru, yang akan diluncurkan kepada pengguna minggu ini, menawarkan saran kualitas yang lebih baik dalam waktu yang lebih singkat, semakin meningkatkan efisiensi pengembang perangkat lunak yang menggunakannya dengan meningkatkan tingkat penerimaan.
CoPilot akan memperkenalkan paradigma baru yang disebut “Fill-In-the-Middle,” yang menggunakan perpustakaan akhiran kode yang dikenal dan meninggalkan celah untuk diisi oleh alat AI, mencapai relevansi dan koherensi yang lebih baik dengan kode proyek lainnya.
Selain itu, GitHub telah memperbarui klien CoPilot untuk mengurangi saran yang tidak diinginkan sebesar 4,5% untuk meningkatkan tingkat penerimaan kode secara keseluruhan.
“Ketika kami pertama kali meluncurkan GitHub Copilot for Individuals pada Juni 2022, rata-rata lebih dari 27% file kode pengembang dibuat oleh GitHub Copilot,” Direktur Senior Manajemen Produk Shuyin Zhao dikatakan.
“Saat ini, GitHub Copilot berada di belakang rata-rata 46% kode developer di semua bahasa pemrograman—dan di Java, angka tersebut melonjak hingga 61%.”

Saran yang lebih aman
Salah satu peningkatan utama dalam pembaruan CoPilot ini adalah pengenalan sistem pemfilteran kerentanan keamanan baru yang akan membantu mengidentifikasi dan memblokir saran tidak aman seperti kredensial hardcode, injeksi jalur, dan injeksi SQL.
“Sistem baru memanfaatkan LLM (model bahasa besar) untuk memperkirakan perilaku alat analisis statis—dan karena GitHub Copilot menjalankan model AI tingkat lanjut pada sumber daya komputasi yang kuat, sistem ini sangat cepat dan bahkan dapat mendeteksi pola yang rentan dalam fragmen kode yang tidak lengkap,” Zhao dikatakan.
“Ini berarti pola pengkodean yang tidak aman dengan cepat diblokir dan diganti dengan saran alternatif.”
Perusahaan perangkat lunak mengatakan CoPilot dapat menghasilkan rahasia seperti kunci, kredensial, dan kata sandi yang terlihat dalam data pelatihan pada string baru. Namun, ini tidak dapat digunakan karena sepenuhnya fiktif dan akan diblokir oleh sistem penyaringan baru.

Munculnya rahasia ini dalam saran kode CoPilot telah menyebabkan kritik pedas dari komunitas pengembang perangkat lunak, dengan banyak yang menuduh Microsoft menggunakan kumpulan besar data yang tersedia untuk umum untuk melatih model AI-nya dengan sedikit memperhatikan keamanan, bahkan termasuk kumpulan yang secara keliru mengandung rahasia.
Dengan memblokir saran yang tidak aman di editor secara real-time, GitHub mungkin juga memberikan perlawanan serangan kumpulan data beracun bertujuan untuk secara diam-diam melatih asisten AI untuk membuat saran yang berisi muatan berbahaya.
Saat ini, LLM CoPilot masih dilatih untuk membedakan antara pola kode yang rentan dan tidak rentan, sehingga kinerja model AI diharapkan akan meningkat secara bertahap dalam waktu dekat.