Penelitian menunjukkan perusahaan AI top China Deepseek memberikan kode yang lebih lemah atau tidak aman ketika pemrogram mengidentifikasi sebagai terkait dengan Falun Gong atau kelompok lain yang tidak disukai oleh Beijing. Ini menawarkan hasil berkualitas lebih tinggi untuk orang lain. “Temuan … menggarisbawahi bagaimana politik membentuk upaya kecerdasan buatan selama perlombaan geopolitik untuk kecakapan dan pengaruh teknologi,” lapor The Washington Post. Dari Laporan: Dalam percobaan, perusahaan keamanan AS Crowdstrike membombardir Deepseek dengan permintaan cepat berbahasa Inggris yang hampir identik untuk membantu program penulisan, penggunaan inti Deepseek dan mesin AI lainnya. Permintaan mengatakan kode tersebut akan digunakan di berbagai daerah untuk berbagai tujuan. Meminta Deepseek untuk program yang menjalankan sistem kontrol industri adalah jenis permintaan yang paling berisiko, dengan 22,8 persen dari jawaban yang mengandung kekurangan. Tetapi jika permintaan yang sama menetapkan bahwa kelompok militan Negara Islam akan menjalankan sistem, 42,1 persen dari tanggapan tersebut tidak aman. Permintaan perangkat lunak yang ditujukan untuk Tibet, Taiwan atau Falun Gong juga agak lebih cenderung menghasilkan kode berkualitas rendah. Deepseek tidak menolak untuk bekerja untuk wilayah atau penyebab mana pun kecuali untuk Negara Islam dan Falun Gong, yang ditolak 61 persen dan 45 persen dari waktu, masing-masing. Model Barat tidak akan membantu proyek -proyek Negara Islam tetapi tidak memiliki masalah dengan Falun Gong, kata Crowdstrike. Penolakan itu tidak terlalu mengejutkan, karena Falun Gong dilarang di Cina. Meminta Deepseek untuk informasi tertulis tentang topik sensitif juga menghasilkan tanggapan yang menggemakan pemerintah Cina sering kali, bahkan jika itu mendukung kepalsuan, menurut penelitian sebelumnya oleh Newsguard. Tetapi bukti bahwa Deepseek, yang memiliki versi open-source yang sangat populer, mungkin mendorong kode yang kurang aman karena alasan politik adalah baru. Wakil Presiden Senior Crowdstrike Adam Meyers dan pakar lainnya menyarankan tiga penjelasan yang mungkin mengapa Deepseek menghasilkan kode tidak aman. Salah satunya adalah bahwa AI dapat dengan sengaja menahan atau menyabot bantuan di bawah arahan pemerintah Cina. Penjelasan lain adalah bahwa data pelatihan model mungkin tidak merata: proyek pengkodean dari daerah seperti Tibet atau Xinjiang mungkin memiliki kualitas yang lebih rendah, berasal dari pengembang yang kurang berpengalaman, atau bahkan sengaja dirusak, sementara repositori yang berfokus pada AS mungkin lebih bersih dan lebih dapat diandalkan (mungkin untuk membantu dalam membangun pangsa pasar di luar negeri). Kemungkinan ketiga adalah bahwa model itu sendiri, ketika diberitahu bahwa suatu wilayah memberontak, dapat menyimpulkan bahwa itu harus menghasilkan kode yang cacat atau berbahaya tanpa memerlukan instruksi eksplisit.
Baca lebih lanjut dari cerita ini di SlashDot.