789BNi
Aplikasi Game Terbesar di Indonesia
DOWNLOAD APP

Sebuah turnamen mencoba menguji seberapa baik para ahli dapat memperkirakan kemajuan AI. Mereka semua salah.

Sebuah turnamen mencoba menguji seberapa baik para ahli dapat memperkirakan kemajuan AI. Mereka semua salah.


Dua robot, satu dengan topi merah dan sarung tangan dan satu dengan topi biru dan sarung tangan, kotak di dalam cincin.

Dua robot tinju dari Unitree di Shanghai New Expo Center pada 28 Juli 2025. | Ying Tang/Nurphoto Via Getty Images

Dua orang terpintar yang saya ikuti di dunia AI baru -baru ini duduk untuk memeriksa bagaimana bidang ini berjalan.

Salah satunya adalah François Chollet, pencipta Perpustakaan Keras yang banyak digunakan dan penulis Benchmark ARC-AGI, yang menguji jika AI telah mencapai “umum” atau intelijen tingkat manusia secara luas. Chollet memiliki reputasi sebagai sedikit beruang AI, ingin mengempiskan prediksi yang paling boosterish dan terlalu optimis tentang ke mana teknologi ini pergi. Namun dalam diskusi, Chollet mengatakan jadwalnya semakin pendek. Para peneliti telah membuat kemajuan besar pada apa yang dilihatnya sebagai hambatan utama untuk mencapai kecerdasan umum buatan, seperti kelemahan model dalam mengingat dan menerapkan hal -hal yang mereka pelajari sebelumnya.

Kisah ini pertama kali ditampilkan di Newsletter Perfect Future.

Daftar di sini untuk mengeksplorasi masalah besar dan rumit yang dihadapi dunia dan cara paling efisien untuk menyelesaikannya. Dikirim dua kali seminggu.

Lawan bicara Chollet – Dwarkesh Patel, yang podcastnya telah menjadi satu -satunya tempat terpenting untuk melacak apa yang dipikirkan oleh para ilmuwan AI top -, sebagai reaksi terhadap pelaporannya sendiri, bergerak ke arah yang berlawanan. Sementara manusia hebat dalam belajar terus menerus atau “di tempat kerja,” Patel menjadi lebih pesimis bahwa model AI dapat memperoleh keterampilan ini dalam waktu dekat.

“[Humans are] belajar dari kegagalan mereka. Mereka mengambil perbaikan dan efisiensi kecil saat bekerja, “kata Patel.” Sepertinya tidak ada cara mudah untuk memasukkan kemampuan kunci ini ke dalam model -model ini. “

Semua itu untuk mengatakan, dua orang pintar yang sangat terhubung, yang mengetahui lapangan dan orang lain dapat sampai pada kesimpulan yang sangat masuk akal namun kontradiktif tentang laju kemajuan AI.

Dalam hal ini, bagaimana seseorang seperti saya, siapa yang tentu saja kurang berpengetahuan dari Chollet atau Patel, seharusnya mencari tahu siapa yang benar?

Perang peramal, tiga tahun masuk

Salah satu pendekatan paling menjanjikan yang pernah saya lihat untuk diselesaikan – atau setidaknya mengadili – ketidaksepakatan ini berasal dari kelompok kecil yang disebut Forecasting Research Institute.

Pada musim panas 2022, Institut memulai apa yang disebutnya Turnamen Persuasi Risiko Eksistensial (singkatnya XPT). XPT dimaksudkan untuk “menghasilkan perkiraan risiko berkualitas tinggi yang dihadapi kemanusiaan selama abad berikutnya.” Untuk melakukan ini, para peneliti (termasuk psikolog Penn dan peramalan perintis Philip Tetlock dan kepala Fri Josh Rosenberg) mensurvei para ahli materi pelajaran yang mempelajari ancaman yang setidaknya dapat membahayakan kelangsungan hidup umat manusia (seperti AI) pada musim panas 2022.

Tetapi mereka juga bertanya “Superforecasters,” sekelompok orang yang diidentifikasi oleh Tetlock dan orang lain yang telah terbukti secara luar biasa akurat dalam memprediksi peristiwa di masa lalu. Kelompok Superforecaster tidak terdiri dari para ahli tentang ancaman eksistensial terhadap kemanusiaan, melainkan generalis dari berbagai pekerjaan dengan rekam jejak prediktif yang solid.

Pada setiap risiko, termasuk AI, ada kesenjangan besar antara para ahli khusus area dan peramal generalis. Para ahli jauh lebih mungkin daripada generalis untuk mengatakan bahwa risiko yang mereka pelajari dapat menyebabkan kepunahan manusia atau kematian massa. Kesenjangan ini bertahan bahkan setelah para peneliti membuat kedua kelompok terlibat dalam diskusi terstruktur yang dimaksudkan untuk mengidentifikasi Mengapa Mereka tidak setuju.

Keduanya hanya memiliki pandangan dunia yang berbeda secara fundamental. Dalam kasus AI, para ahli materi pelajaran mengira beban pembuktian harus pada skeptis untuk menunjukkan mengapa spesies digital yang sangat cerdas tidak menjadi berbahaya. Para generalis mengira beban pembuktian harus pada para ahli untuk menjelaskan mengapa teknologi yang bahkan belum ada yang bisa membunuh kita semua.

Sejauh ini, sangat sulit. Beruntung bagi pengamat AS, masing-masing kelompok diminta tidak hanya untuk memperkirakan risiko jangka panjang selama abad berikutnya, yang tidak dapat dikonfirmasi dalam waktu dekat, tetapi juga peristiwa dalam waktu yang lebih dekat. Mereka secara khusus ditugaskan untuk memprediksi laju kemajuan AI dalam jangka pendek, sedang, dan jangka panjang.

Dalam sebuah makalah baru, penulis – Tetlock, Rosenberg, Simas Kučinskas, Rebecca Ceppas de Castro, Zach Jacobs, Jordan Canedy, dan Ezra Karger – kembali dan mengevaluasi seberapa baik kedua kelompok bernasib dalam memprediksi tiga tahun kemajuan AI sejak musim panas 2022.

Secara teori, ini bisa memberi tahu kita kelompok mana yang harus dipercaya. Jika para ahli AI yang peduli terbukti jauh lebih baik dalam memprediksi apa yang akan terjadi antara tahun 2022-2025, mungkin itu adalah indikasi bahwa mereka memiliki bacaan yang lebih baik tentang masa depan teknologi yang lebih lama, dan oleh karena itu, kita harus memberikan peringatan yang lebih besar.

Sayangnya, dalam kata -kata Ralph Fiennes, “Apakah itu sangat sederhana!” Ternyata hasil tiga tahun meninggalkan kita tanpa lebih banyak pengertian tentang siapa yang harus dipercaya.

Baik ahli AI dan superforecasters secara sistematis meremehkan laju kemajuan AI. Di empat tolok ukur, kinerja aktual model canggih di musim panas 2025 lebih baik daripada superforecasters atau ahli AI yang diprediksi (meskipun yang terakhir lebih dekat). Sebagai contoh, Superforecasters berpikir AI akan mendapatkan emas di Olimpiade Matematika Internasional pada tahun 2035. Para ahli mengira 2030. Itu terjadi musim panas ini.

“Secara keseluruhan, Superforecasters menetapkan probabilitas rata -rata hanya 9,7 persen untuk hasil yang diamati di empat tolok ukur AI ini,” laporan itu menyimpulkan, “dibandingkan dengan 24,6 persen dari para ahli domain.”

Itu membuat para ahli domain terlihat lebih baik. Mereka menempatkan agak Peluang yang lebih tinggi bahwa apa yang sebenarnya terjadi akan terjadi – tetapi ketika mereka menyingkirkan angka -angka di semua pertanyaan, penulis menyimpulkan bahwa tidak ada perbedaan yang signifikan secara statistik dalam akurasi agregat antara para ahli domain dan superforecters. Terlebih lagi, tidak ada korelasi antara seberapa akurat seseorang dalam memproyeksikan tahun 2025 dan seberapa berbahayanya mereka pikir AI atau risiko lain. Prediksi tetap sulit, terutama tentang masa depan, dan khususnya tentang masa depan AI.

Satu -satunya trik yang bekerja dengan andal adalah menggabungkan ramalan semua orang – menyatukan semua prediksi bersama -sama dan mengambil median yang diproduksi secara substansial prakiraan yang jauh lebih akurat daripada satu individu atau kelompok. Kita mungkin tidak tahu mana dari peramal ini yang cerdas, tetapi orang banyak tetap bijak.

Tidak ada nubuat

Mungkin saya seharusnya melihat hasil ini datang. Ezra Karger, seorang ekonom dan rekan penulis di kedua kertas XPT awal dan yang baru ini, memberi tahu saya pada rilis makalah pertama pada tahun 2023 bahwa, “selama 10 tahun ke depan, benar-benar tidak ada banyak ketidaksepakatan antara kelompok orang yang tidak setuju tentang pertanyaan yang lebih lama itu.” Artinya, mereka sudah tahu bahwa prediksi orang -orang khawatir tentang AI dan orang -orang yang kurang khawatir sangat mirip.

Jadi, seharusnya tidak terlalu mengejutkan kita bahwa satu kelompok tidak secara dramatis lebih baik daripada yang lain dalam memprediksi tahun 2022-2025. Ketidaksepakatan yang sebenarnya bukan tentang masa depan AI jangka pendek tetapi tentang bahaya yang ditimbulkannya dalam jangka menengah dan panjang, yang secara inheren lebih sulit untuk dinilai dan lebih spekulatif.

Mungkin, mungkin ada beberapa informasi berharga dalam kenyataan bahwa kedua kelompok meremehkan tingkat kemajuan AI: mungkin itu adalah tanda bahwa kita semua telah meremehkan teknologi, dan itu akan terus meningkat lebih cepat dari yang diperkirakan. Kemudian lagi, prediksi pada tahun 2022 semuanya dibuat sebelum rilis ChatGPT pada bulan November tahun itu. Siapa yang Anda ingat sebelum peluncuran aplikasi itu memprediksi bahwa AI Chatbots akan menjadi ada di mana -mana dalam pekerjaan dan sekolah? Bukankah kita sudah tahu bahwa AI membuat lompatan besar dalam kemampuan pada tahun 2022-2025? Apakah itu memberi tahu kita tentang apakah teknologi mungkin tidak melambat, yang pada gilirannya, akan menjadi kunci untuk meramalkan ancaman jangka panjangnya?

Membaca laporan FRI terbaru, saya berakhir di tempat yang sama dengan mantan kolega saya Kelsey Piper tahun lalu. Piper mencatat bahwa gagal mengekstrapolasi tren, terutama tren eksponensial, ke masa depan telah membuat orang tersesat dengan buruk di masa lalu. Fakta bahwa relatif sedikit orang Amerika yang memiliki Covid pada Januari 2020 tidak berarti Covid bukanlah ancaman; Itu berarti bahwa negara itu berada di awal kurva pertumbuhan eksponensial. Jenis kegagalan serupa akan menyebabkan seseorang meremehkan kemajuan AI dan, dengan itu, potensi risiko eksistensial.

Pada saat yang sama, dalam sebagian besar konteks, pertumbuhan eksponensial tidak dapat berlangsung selamanya; itu maksimal di beberapa titik. Sungguh luar biasa bahwa, katakanlah, hukum Moore secara luas memperkirakan pertumbuhan kepadatan mikroprosesor secara akurat selama beberapa dekade-tetapi hukum Moore terkenal sebagian karena tidak biasa tren tentang teknologi yang diciptakan manusia untuk mengikuti pola yang begitu bersih.

“Saya semakin percaya bahwa tidak ada pengganti untuk menggali jauh ke dalam gulma ketika Anda mempertimbangkan pertanyaan -pertanyaan ini,” piper menyimpulkan. “Meskipun ada pertanyaan yang dapat kami jawab dari prinsip pertama, [AI progress] Bukan salah satunya. “

Saya khawatir dia benar – dan itu, lebih buruk lagi, hormat saja kepada para ahli juga tidak cukup, tidak ketika para ahli tidak setuju satu sama lain pada kedua spesifik dan lintasan luas. Kami tidak benar -benar memiliki alternatif yang baik untuk mencoba belajar sebanyak yang kami bisa sebagai individu dan, gagal itu, menunggu dan melihat. Itu bukan kesimpulan yang memuaskan untuk buletin – atau jawaban yang menghibur untuk salah satu pertanyaan paling penting yang dihadapi kemanusiaan – tetapi itu yang terbaik yang bisa saya lakukan.


Previous Article

Seyni Mbaye Ndiaye memanggil penguatan untuk Senegal - Kongo - 13Football

Next Article

Cloud9 gagal dari kualifikasi Worlds 2025 setelah 100 Pencuri Kehilangan

Write a Comment

Leave a Comment

Your email address will not be published. Required fields are marked *

Subscribe to our Newsletter

Subscribe to our email newsletter to get the latest posts delivered right to your email.
Pure inspiration, zero spam ✨