Dalam kecerdasan buatan (AI), bias adalah penilaian atau kecenderungan yang menyebabkan keputusan tidak akurat. Dalam beberapa kasus, bias ini dapat membantu, seperti ketika bias membantu kita membuat prediksi yang lebih baik. Namun, dalam kasus lain, bias ini bisa berbahaya, sehingga menghasilkan keputusan yang kurang optimal atau bahkan membawa bencana.
Ada berbagai jenis bias yang dapat berdampak pada sistem AI. Beberapa yang paling umum meliputi:
– Bias konfirmasi: Ini adalah kecenderungan untuk mencari informasi yang menegaskan keyakinan kita yang sudah ada sebelumnya dan mengabaikan informasi yang bertentangan dengan keyakinan tersebut.
– Bias seleksi: Ini adalah kecenderungan untuk memilih sampel data yang tidak mewakili populasi secara keseluruhan.
– Overfitting: Hal ini terjadi ketika model terlalu disesuaikan dengan data pelatihan dan tidak dapat digeneralisasi dengan baik pada data baru.
– Underfitting: Hal ini terjadi ketika model tidak cukup kompleks untuk menangkap pola mendasar dalam data.
Bias ini dapat menyebabkan hasil yang tidak akurat dari sistem AI. Misalnya, jika suatu model dilatih pada kumpulan data yang bias, model tersebut mungkin belajar untuk melanggengkan bias tersebut. Hal ini dapat menimbulkan konsekuensi yang berbahaya di dunia nyata, seperti ketika sistem pengenalan wajah dilatih pada kumpulan data yang tidak mewakili keragaman populasi, sehingga menyebabkan kesalahan dalam mengidentifikasi orang kulit berwarna.
Artikel ini akan membahas sejarah bias pada konten buatan AI dan cara mengidentifikasi bias dalam konten buatan AI.
Sejarah Bias dalam Konten Buatan AI
Bias dalam kecerdasan buatan bukanlah fenomena baru. Faktanya, hal ini sudah ada sejak awal penelitian AI. Salah satu contoh bias pertama yang tercatat dalam AI terjadi pada tahun 1956 ketika ilmuwan komputer Alan Turing mengusulkan pengujian untuk menentukan apakah suatu mesin dapat dikatakan menunjukkan perilaku cerdas.
Dalam makalahnya “Mesin Komputasi dan Kecerdasan,” Turing mengusulkan bahwa jika sebuah mesin dapat membodohi manusia dengan berpikir bahwa mesin tersebut adalah manusia lain lebih dari 30%, maka mesin tersebut dapat dianggap cerdas.
Namun, seperti yang diungkapkan oleh peneliti AI, Joy Buolamwini, “tes kecerdasan buatan bias terhadap perempuan dan orang kulit berwarna karena bergantung pada kemampuan mesin untuk membodohi manusia agar mengira bahwa ia adalah manusia lain.”
Dengan kata lain, pengujian ini bias terhadap kelompok orang yang secara tradisional kurang terwakili dalam penelitian dan pengembangan AI. Bias ini telah diterapkan pada aspek lain penelitian dan pengembangan AI, seperti pembuatan kumpulan data.
Kumpulan data adalah kumpulan data yang digunakan untuk melatih dan menguji model pembelajaran mesin. Kumpulan data ini dapat menjadi bias dalam beberapa cara, misalnya karena bias seleksi (yang hanya mencakup jenis data tertentu) atau karena bias konfirmasi (yang hanya mencakup data yang menegaskan keyakinan yang sudah ada sebelumnya).
Kumpulan data yang bias dapat menyebabkan model pembelajaran mesin menjadi bias. Misalnya, jika kumpulan data yang digunakan untuk melatih sistem pengenalan wajah bias, sistem yang dihasilkan mungkin tidak akurat dalam prediksinya.
Hal ini dibuktikan pada tahun 2016 ketika Google Foto merilis fitur baru yang secara otomatis menandai foto dengan label seperti “anjing” atau “kucing”. Namun, sistem tersebut juga melabeli pria kulit hitam sebagai “gorila”, sehingga menimbulkan tuduhan rasisme.
Insiden tersebut menyebabkan Google mengubah nama labelnya dan juga mengakibatkan perusahaan tersebut membuat kumpulan data internal yang berisi lebih dari 100.000 gambar yang digunakan untuk melatih sistemnya agar lebih akurat.
Meskipun ada upaya-upaya ini, bias dalam konten yang dihasilkan AI masih menjadi masalah, seperti terlihat pada grafik di bawah. Pada tahun 2017, para peneliti di Vanderbilt University menemukan bahwa tiga sistem pengenalan wajah komersial akurat ketika mengidentifikasi pria kulit putih, namun kurang akurat ketika mengidentifikasi wanita dan orang kulit berwarna.
Sistem ini lebih cenderung salah mengidentifikasi perempuan kulit hitam sebagai laki-laki, dan mereka juga lebih cenderung memberi label gambar laki-laki kulit putih sebagai “netral” atau “tidak diketahui.”
Para peneliti menyimpulkan bahwa “sistem kecerdasan buatan yang saat ini tersedia bagi masyarakat umum menunjukkan bias ras dan gender yang signifikan.”
Cara Mengidentifikasi Bias dalam Konten Buatan AI
Ada sejumlah cara untuk mengidentifikasi bias dalam konten yang dihasilkan AI. Salah satu caranya adalah dengan memeriksa kumpulan data yang digunakan untuk melatih model pembelajaran mesin.
Jika kumpulan datanya bias, kemungkinan besar model pembelajaran mesin yang dihasilkan juga akan bias. Cara lain untuk mengidentifikasi bias adalah dengan memeriksa keluaran model pembelajaran mesin.
Jika keluaran yang diperoleh secara konsisten tidak akurat untuk kelompok masyarakat tertentu, hal ini mungkin merupakan indikasi adanya bias. Terakhir, penting juga untuk mempertimbangkan konteks penggunaan model pembelajaran mesin.
Misalnya, jika sistem pengenalan wajah digunakan untuk tujuan penegakan hukum, kemungkinan besar sistem tersebut akan berdampak negatif pada orang kulit berwarna, yang sudah menjadi sasaran polisi secara tidak proporsional.
Ada sejumlah cara untuk mengurangi bias dalam konten yang dihasilkan AI. Salah satu caranya adalah dengan menggunakan kumpulan data yang lebih besar dan beragam saat melatih model pembelajaran mesin.
Cara lain untuk mengurangi bias adalah dengan menggunakan teknik yang disebut augmentasi data, yang melibatkan pembuatan titik data tambahan secara artifisial yang beragam dalam hal ras, jenis kelamin, dan karakteristik lainnya.
Terakhir, penting juga untuk mempertimbangkan dampak konten yang dihasilkan AI terhadap kelompok masyarakat rentan sebelum meluncurkan sistem tersebut ke seluruh dunia.
Kesimpulan
Seperti terlihat pada grafik di bawah ini, etika dalam AI telah menjadi topik hangat di dunia AI. Kecerdasan buatan dapat menjadi bias dalam berbagai cara, dan bias ini dapat berdampak negatif pada kelompok masyarakat yang rentan, seperti perempuan dan orang kulit berwarna.
Ada sejumlah cara untuk mengurangi bias dalam konten yang dihasilkan AI, seperti dengan menggunakan kumpulan data yang lebih besar dan beragam saat melatih model pembelajaran mesin. Penting juga untuk mempertimbangkan dampak konten yang dihasilkan AI terhadap kelompok masyarakat rentan sebelum meluncurkan sistem tersebut ke dunia.
Dengan mengambil langkah-langkah ini, kita dapat mulai mengurangi bias dalam konten yang dihasilkan oleh AI dan menciptakan masa depan yang lebih adil bagi semua orang.
Referensi
Phillytrib
Spektrum
SUARA
Waktu New York
Waktu New York
Forbes
McKinsey
Tinjauan Teknologi
Kabel
Alam
Web ACL
Arxiv
Sains Langsung
Waktu New York
Artikel Menemukan Bias pada Konten Buatan AI berasal dari website Arek Skuza.