789BNi
Aplikasi Game Terbesar di Indonesia
DOWNLOAD APP

Cara membunuh AI nakal

Cara membunuh AI nakal


Drone mendekati kapal kargo di pelabuhan.

Mereka di sini. | Costfoto/NurPhoto melalui Getty Images

Ini adalah nasihat yang sama tuanya dengan dukungan teknis. Jika komputer Anda melakukan sesuatu yang tidak Anda sukai, coba matikan lalu hidupkan kembali. Terkait dengan meningkatnya kekhawatiran bahwa sistem kecerdasan buatan yang sangat canggih dapat menjadi sangat jahat sehingga dapat menyebabkan kerugian. menimbulkan risiko terhadap masyarakat, atau bahkan kemanusiaan, kita tergoda untuk kembali ke pemikiran seperti ini. AI hanyalah sistem komputer yang dirancang oleh manusia. Jika mulai tidak berfungsi, tidak bisakah kita mematikannya saja?

Poin-poin penting

  • Analisis baru dari Rand Corporation membahas tiga tindakan potensial untuk menanggapi insiden “kehilangan kendali yang sangat besar” yang melibatkan agen kecerdasan buatan jahat.
  • Tiga respons yang mungkin dilakukan – merancang AI “pemburu-pembunuh” untuk menghancurkan penjahat, mematikan sebagian internet global, atau menggunakan serangan EMP yang diprakarsai nuklir untuk memusnahkan perangkat elektronik – semuanya memiliki peluang keberhasilan yang beragam dan membawa risiko kerusakan tambahan yang signifikan.
  • Kesimpulan dari penelitian ini adalah kita sangat tidak siap menghadapi skenario terburuk risiko AI sehingga diperlukan lebih banyak perencanaan dan koordinasi.

Dalam skenario terburuk, mungkin tidak. Hal ini bukan hanya karena sistem AI yang sangat canggih dapat memiliki naluri mempertahankan diri dan melakukan tindakan putus asa untuk menyelamatkan dirinya sendiri. (Versi model bahasa Anthropic yang besar, Claude menggunakan “pemerasan” untuk mempertahankan dirinya selama pengujian pra-rilis.) Hal ini juga karena AI jahat mungkin didistribusikan terlalu luas untuk dimatikan. Model saat ini seperti Claude dan ChatGPT sudah berjalan di beberapa pusat data, bukan satu komputer di satu lokasi. Jika hipotetis AI nakal ingin mencegah dirinya dimatikan, ia akan dengan cepat menyalin dirinya ke seluruh server yang dapat diaksesnya, mencegah manusia yang malang dan bergerak lambat untuk mencabutnya.

Dengan kata lain, membunuh AI jahat mungkin memerlukan mematikan internet, atau sebagian besar darinya. Dan itu bukanlah tantangan kecil.

Ini adalah tantangan yang menjadi perhatian Michael Vermeer, ilmuwan senior di Rand Corporation, sebuah lembaga pemikir yang berbasis di California yang pernah dikenal sebagai pionir dalam penelitian strategi perang nuklir. Penelitian Vermeer baru-baru ini mengkhawatirkan potensi risiko bencana dari AI yang sangat cerdas dan mengatakan kepada Vox bahwa ketika skenario ini dipertimbangkan, “orang-orang akan membuang pilihan-pilihan liar ini sebagai kemungkinan-kemungkinan yang layak” mengenai bagaimana manusia dapat merespons tanpa mempertimbangkan seberapa efektif pilihan tersebut atau apakah hal tersebut akan menciptakan sebanyak mungkin masalah yang bisa mereka selesaikan. “Bisakah kita melakukan itu?” dia bertanya-tanya.

Dalam sebuah makalah baru-baru ini, Vermeer mempertimbangkan tiga opsi yang paling sering disarankan oleh para ahli untuk merespons apa yang ia sebut sebagai “insiden AI yang kehilangan kendali.” Dia menggambarkan hal ini sebagai AI jahat yang telah mengunci manusia dari sistem keamanan utama dan menciptakan situasi “yang sangat mengancam kelangsungan pemerintahan dan kesejahteraan manusia sehingga ancaman tersebut memerlukan tindakan ekstrem yang dapat menyebabkan kerusakan tambahan yang signifikan.” Anggap saja hal ini sama dengan tindakan Rusia yang membiarkan Moskow terbakar demi mengalahkan invasi Napoleon. Dalam beberapa skenario ekstrem yang dibayangkan Vermeer dan rekan-rekannya, ada baiknya menghancurkan sebagian besar dunia digital untuk mematikan sistem jahat di dalamnya.

Dalam (bisa dibilang) urutan potensi kerusakan tambahan, skenario ini mencakup penerapan AI khusus lainnya untuk melawan AI jahat; “mematikan” sebagian besar internet; dan meledakkan bom nuklir di luar angkasa untuk menciptakan gelombang elektromagnetik.

Seseorang tidak akan keluar dari koran dengan perasaan senang tentang salah satu pilihan ini.

Opsi 1: Gunakan AI untuk membunuh AI

Vermeer membayangkan menciptakan “hama digital”, organisme digital yang dapat memodifikasi dirinya sendiri yang akan menjajah jaringan dan bersaing dengan AI jahat untuk mendapatkan sumber daya komputasi. Kemungkinan lainnya adalah AI pemburu-pembunuh yang dirancang untuk mengganggu dan menghancurkan program musuh.

Kelemahan yang jelas adalah bahwa AI pembunuh baru, jika cukup canggih untuk memiliki harapan menyelesaikan misinya, mungkin akan menjadi jahat. Atau AI nakal yang asli dapat mengeksploitasinya untuk tujuannya sendiri. Pada titik di mana kita benar-benar mempertimbangkan pilihan-pilihan seperti ini, kita mungkin sudah melewati titik kepedulian, namun potensi konsekuensi yang tidak diinginkan sangatlah tinggi.

Manusia tidak mempunyai rekam jejak yang baik dalam memperkenalkan satu hama untuk memusnahkan hama lainnya. Bayangkan saja katak tebu yang diperkenalkan ke Australia pada tahun 1930an tidak pernah berbuat banyak untuk memusnahkan kumbang yang seharusnya mereka makan, namun membunuh banyak spesies lain dan terus menimbulkan kerusakan lingkungan hingga hari ini.

Namun, keuntungan dari strategi ini dibandingkan strategi lainnya adalah tidak perlu menghancurkan infrastruktur manusia secara nyata.

Opsi 2: Potong kabelnya

Makalah Vermeer mempertimbangkan beberapa opsi untuk mematikan sebagian besar internet global agar AI tidak menyebar. Hal ini mungkin melibatkan gangguan pada beberapa sistem dasar yang memungkinkan internet berfungsi. Salah satunya adalah “protokol gerbang perbatasan,” atau BGP, mekanisme yang memungkinkan berbagi informasi antara banyak jaringan otonom yang membentuk internet. Kesalahan BGP adalah penyebab pemadaman besar-besaran Facebook pada tahun 2021. Secara teori, BGP dapat dieksploitasi untuk mencegah jaringan berkomunikasi satu sama lain dan mematikan sebagian besar internet global, meskipun sifat jaringan yang terdesentralisasi akan membuat hal ini rumit dan memakan waktu lama untuk dilakukan.

Ada juga “sistem nama domain” (DNS) yang menerjemahkan nama domain yang dapat dibaca manusia seperti Vox.com menjadi alamat IP yang dapat dibaca mesin dan bergantung pada 13 server yang didistribusikan secara global. Jika server ini disusupi, hal ini dapat memutus akses ke situs web bagi pengguna di seluruh dunia, dan berpotensi memutus akses ke AI nakal kami juga. Namun, sekali lagi, akan sulit untuk mematikan semua server dengan cukup cepat untuk mencegah AI melakukan tindakan balasan.

Makalah ini juga mempertimbangkan kemungkinan menghancurkan infrastruktur fisik internet, seperti kabel bawah laut yang dilalui oleh 97 persen lalu lintas internet dunia. Hal ini baru-baru ini menjadi kekhawatiran dalam dunia keamanan nasional antarmanusia. Dugaan sabotase kabel telah mengganggu layanan internet di pulau-pulau sekitar Taiwan dan di pulau-pulau di Arktik.

Namun secara global, terdapat terlalu banyak kabel dan terlalu banyak redundansi yang dibangun sehingga penutupan tidak dapat dilakukan. Ini merupakan hal yang baik jika Anda khawatir mengenai Perang Dunia III yang akan menghancurkan internet global, namun merupakan hal yang buruk jika Anda berhadapan dengan AI yang mengancam umat manusia.

Opsi 3: Kematian dari atas

Dalam uji coba tahun 1962 yang dikenal sebagai Starfish Prime, AS meledakkan bom hidrogen berkekuatan 1,45 megaton 250 mil di atas Samudera Pasifik. Ledakan tersebut menimbulkan gelombang elektromagnetik (EMP) yang sangat kuat sehingga mematikan lampu jalan dan layanan telepon di Hawaii, yang berjarak lebih dari 1.000 mil. EMP menyebabkan lonjakan tegangan yang cukup kuat untuk menggoreng berbagai perangkat elektronik. Dampak potensial di dunia yang lebih bergantung pada elektronik saat ini akan jauh lebih dramatis dibandingkan pada tahun 1960an.

Beberapa politisi, seperti mantan Ketua DPR Newt Gingrich, telah menghabiskan waktu bertahun-tahun untuk memperingatkan tentang potensi kerusakan yang dapat ditimbulkan oleh serangan EMP. Topik ini kembali menjadi berita tahun lalu, berkat informasi intelijen AS bahwa Rusia sedang mengembangkan perangkat nuklir untuk diluncurkan ke luar angkasa.

Makalah Vermeer membayangkan AS dengan sengaja meledakkan hulu ledak di luar angkasa untuk melumpuhkan infrastruktur telekomunikasi, listrik, dan komputasi berbasis darat. Diperkirakan diperlukan total 50 hingga 100 ledakan untuk menutupi daratan Amerika dengan kekuatan yang cukup untuk melakukan pekerjaan tersebut.

Ini adalah alat paling tumpul di mana Anda ingin memastikan bahwa obatnya tidak lebih buruk dari penyakitnya. Dampak EMP pada perangkat elektronik modern – yang mungkin mencakup tindakan perlindungan lonjakan arus dalam desainnya atau dapat dilindungi oleh bangunan – belum dipahami dengan baik. Dan jika AI bertahan, maka tidak ideal bagi manusia untuk melumpuhkan sistem listrik dan komunikasi mereka sendiri. Ada juga prospek yang mengkhawatirkan bahwa jika sistem negara lain terkena dampaknya, mereka mungkin akan membalas dengan serangan nuklir, tidak peduli betapa altruistiknya motivasi negara tersebut.

Tidak ada pilihan bagus

Mengingat betapa tidak menariknya masing-masing tindakan tersebut, Vermeer prihatin dengan kurangnya perencanaan yang ia lihat dari pemerintah di seluruh dunia untuk skenario ini. Namun, ia mencatat bahwa baru belakangan ini model AI menjadi cukup cerdas sehingga para pengambil kebijakan mulai mengambil risiko dengan serius. Dia menunjuk pada “contoh kecil hilangnya kendali atas sistem yang kuat yang menurut saya harus menjelaskan kepada beberapa pengambil keputusan bahwa ini adalah sesuatu yang perlu kita persiapkan.”

Dalam email ke Vox, peneliti AI Nate Soares, salah satu penulis buku terlaris dan menimbulkan polemik mimpi buruk, Jika Ada Yang Membangunnya, Semua Orang Akan Matimengatakan bahwa dia “berbesar hati melihat elemen-elemen aparat keamanan nasional mulai terlibat dalam isu-isu pelik ini” dan secara luas setuju dengan kesimpulan artikel tersebut – meskipun dia bahkan lebih skeptis mengenai kelayakan penggunaan AI sebagai alat untuk mengendalikan AI.

Sementara itu, Vermeer percaya bahwa bencana AI pada tingkat kepunahan adalah peristiwa yang kemungkinannya kecil, namun skenario kehilangan kendali cukup besar sehingga kita harus bersiap menghadapinya. Kesimpulan yang bisa diambil dari makalah ini, sejauh yang dia ketahui, adalah bahwa “dalam situasi ekstrem ketika terdapat AI jahat yang tersebar secara global, kita tidak siap. Kita hanya punya pilihan buruk yang tersisa.”

Tentu saja, kita juga harus mempertimbangkan pepatah militer lama bahwa dalam setiap pertanyaan tentang strategi, musuh mendapat suara. Semua skenario ini berasumsi bahwa manusia harus mempertahankan kendali operasional dasar sistem komando dan kendali pemerintah dan militer dalam situasi seperti itu. Seperti yang baru-baru ini saya laporkan untuk Vox, ada alasan untuk khawatir mengenai masuknya AI ke dalam sistem nuklir kita, namun AI yang benar-benar meluncurkan nuklir, setidaknya untuk saat ini, mungkin bukan salah satunya.

Namun, kita mungkin bukan satu-satunya orang yang membuat rencana ke depan. Jika kita mengetahui seberapa buruk pilihan yang tersedia bagi kita dalam skenario ini, AI mungkin juga akan mengetahuinya.

Cerita ini diproduksi bekerja sama dengan Outrider Foundation dan Journalism Funding Partners.


Previous Article

Torvalds Memberitahu Pengembang Kernel Untuk Berhenti Memperdebatkan Kecerobohan AI - Aktor Jahat Tidak Akan Mengikuti Aturan - Slashdot

Next Article

PaiN Gaming menambahkan vsm dan piriajr ke daftar CS2

Write a Comment

Leave a Comment

Your email address will not be published. Required fields are marked *

Subscribe to our Newsletter

Subscribe to our email newsletter to get the latest posts delivered right to your email.
Pure inspiration, zero spam ✨