789BNi
Aplikasi Game Terbesar di Indonesia
DOWNLOAD APP

Konten yang Dibebaskan Ai – Ark Skuza

Konten yang Dibebaskan Ai – Ark Skuza


Dalam kecerdasan buatan (AI), bias adalah penilaian atau kecenderungan yang mengarah pada keputusan yang tidak akurat. Dalam beberapa kasus, bias ini dapat membantu, seperti ketika mereka membantu kita membuat prediksi yang lebih baik. Namun, dalam kasus lain, bias ini dapat berbahaya, yang mengarah ke keputusan suboptimal atau bahkan bencana.

Ada banyak jenis bias yang dapat memengaruhi sistem AI. Beberapa yang paling umum meliputi:

– Bias konfirmasi: Ini adalah kecenderungan untuk mencari informasi yang menegaskan keyakinan kami yang sudah ada sebelumnya dan mengabaikan informasi yang bertentangan dengan kepercayaan itu.

– Bias seleksi: Ini adalah kecenderungan untuk memilih sampel data yang tidak mewakili populasi secara keseluruhan.

– Overfitting: Ini terjadi ketika model terlalu dekat dengan data pelatihan dan tidak menggeneralisasi dengan baik untuk data baru.

– underfitting: Ini terjadi ketika model tidak cukup kompleks untuk menangkap pola yang mendasari data.

Bias ini dapat menyebabkan hasil yang tidak akurat dari sistem AI. Misalnya, jika model dilatih pada dataset yang bias, itu dapat belajar untuk melanggengkan bias tersebut. Ini dapat memiliki konsekuensi dunia nyata yang berbahaya, seperti ketika sistem pengenalan wajah dilatih pada dataset yang tidak mewakili keragaman populasi, yang mengarah pada kesalahan dalam mengidentifikasi orang kulit berwarna.

Artikel ini akan membahas sejarah bias dalam konten yang dihasilkan AI dan cara-cara untuk mengidentifikasi bias dalam konten yang dihasilkan AI.

Sejarah bias dalam konten yang dihasilkan AI

Bias dalam kecerdasan buatan bukanlah fenomena baru. Bahkan, sudah ada sejak awal penelitian AI. Salah satu contoh bias pertama yang tercatat di AI adalah pada tahun 1956 ketika ilmuwan komputer Alan Turing mengusulkan tes untuk menentukan apakah mesin dapat dikatakan menunjukkan perilaku cerdas.

Dalam makalahnya “Komputasi Mesin dan Kecerdasan,” Turing mengusulkan bahwa jika mesin dapat membodohi manusia untuk berpikir bahwa itu adalah manusia lain lebih dari 30% dari waktu, maka itu dapat dianggap cerdas.

Namun, seperti yang ditunjukkan oleh peneliti AI, Joy Buolamwini, “Tes untuk Kecerdasan Buatan bias terhadap wanita dan orang kulit berwarna karena bergantung pada kemampuan mesin untuk membodohi manusia untuk berpikir bahwa itu adalah manusia lain.”

Dengan kata lain, tes ini bias terhadap kelompok orang yang secara tradisional kurang terwakili dalam penelitian dan pengembangan AI. Bias ini telah dibawa ke depan ke dalam aspek lain dari penelitian dan pengembangan AI, seperti penciptaan dataset.

Dataset adalah kumpulan data yang digunakan untuk melatih dan menguji model pembelajaran mesin. Kumpulan data ini dapat bias dalam sejumlah cara, seperti dengan bias seleksi (termasuk hanya jenis data tertentu) atau dengan bias konfirmasi (termasuk hanya data yang mengkonfirmasi keyakinan yang sudah ada sebelumnya).

Dataset yang bias dapat menyebabkan model pembelajaran mesin yang bias. Misalnya, jika dataset yang digunakan untuk melatih sistem pengenalan wajah bias, sistem yang dihasilkan mungkin tidak akurat dalam prediksi.

Ini ditunjukkan pada tahun 2016 ketika Google Foto merilis fitur baru yang secara otomatis menandai foto dengan label seperti “Dog” atau “Cat.” Namun, sistem ini juga menyebut seorang pria kulit hitam sebagai “gorila,” yang mengarah pada tuduhan rasisme.

Insiden ini membuat Google mengubah nama labelnya dan juga mengakibatkan perusahaan membuat dataset internal lebih dari 100.000 gambar yang digunakan untuk melatih sistemnya lebih akurat.

Terlepas dari upaya ini, bias dalam konten yang dihasilkan AI tetap menjadi masalah, seperti yang terlihat pada grafik di bawah ini. Pada tahun 2017, para peneliti di Vanderbilt University menemukan bahwa tiga sistem pengenalan wajah komersial akurat ketika mengidentifikasi pria kulit putih tetapi kurang akurat ketika mengidentifikasi wanita dan orang kulit berwarna.

Sistem ini lebih cenderung salah mengidentifikasi perempuan kulit hitam sebagai pria, dan mereka juga lebih cenderung memberi label gambar pria kulit putih sebagai “netral” atau “tidak diketahui.”

Para peneliti menyimpulkan bahwa “sistem kecerdasan buatan yang saat ini tersedia untuk publik umum menunjukkan bias rasial dan gender yang signifikan.”

Cara mengidentifikasi bias dalam konten yang dihasilkan AI

Ada sejumlah cara untuk mengidentifikasi bias dalam konten yang dihasilkan AI. Salah satu caranya adalah dengan memeriksa dataset yang digunakan untuk melatih model pembelajaran mesin.

Jika dataset bias, maka kemungkinan model pembelajaran mesin yang dihasilkan juga akan bias. Cara lain untuk mengidentifikasi bias adalah dengan memeriksa output dari model pembelajaran mesin.

Jika output secara konsisten tidak akurat untuk kelompok orang tertentu, maka ini mungkin merupakan indikasi bias. Akhirnya, penting juga untuk mempertimbangkan konteks di mana model pembelajaran mesin digunakan.

Misalnya, jika sistem pengenalan wajah digunakan untuk tujuan penegakan hukum, maka lebih mungkin memiliki dampak negatif pada orang kulit berwarna, yang sudah ditargetkan secara tidak proporsional oleh polisi.

Ada sejumlah cara untuk mengurangi bias dalam konten yang dihasilkan AI. Salah satu caranya adalah dengan menggunakan dataset yang lebih besar dan lebih beragam saat melatih model pembelajaran mesin.

Cara lain untuk mengurangi bias adalah dengan menggunakan teknik yang disebut augmentasi data, yang melibatkan menghasilkan titik data tambahan yang beragam dalam hal ras, jenis kelamin, dan karakteristik lainnya.

Akhirnya, penting juga untuk mempertimbangkan dampak konten yang dihasilkan AI pada kelompok orang yang rentan sebelum melepaskan sistem ke dunia.

Kesimpulan

Seperti yang terlihat dalam grafik di bawah ini, etika dalam AI telah menjadi topik hangat di dunia AI. Kecerdasan buatan dapat menjadi bias dalam beberapa cara, dan bias ini dapat berdampak negatif pada kelompok orang yang rentan, seperti wanita dan orang kulit berwarna.

Ada sejumlah cara untuk mengurangi bias dalam konten yang dihasilkan AI, seperti dengan menggunakan dataset yang lebih besar dan lebih beragam saat melatih model pembelajaran mesin. Penting juga untuk mempertimbangkan dampak konten yang dihasilkan AI pada kelompok orang yang rentan sebelum melepaskan sistem ke dunia.

Dengan mengambil langkah-langkah ini, kita dapat mulai mengurangi bias dalam konten yang dihasilkan AI dan menciptakan masa depan yang lebih adil bagi semua orang.

Referensi

Phillytrib

Spektrum

SUARA

Zaman

Zaman

Forbes

McKinsey

Ulasan Teknologi

Kabel

Alam

ACL Web

Arxiv

Sains Direct

Zaman

Artikel menemukan bias dalam konten yang dihasilkan AI berasal dari Arek Skuza.


Previous Article

Cladun x3

Next Article

New on Steam: Building, Strategy, dan The Return of a Legendary Game Series

Write a Comment

Leave a Comment

Your email address will not be published. Required fields are marked *

Subscribe to our Newsletter

Subscribe to our email newsletter to get the latest posts delivered right to your email.
Pure inspiration, zero spam ✨