Detektif AI Membuka Kotak Hitam Pembelajaran Mendalam

Detektif AI Membuka Kotak Hitam Pembelajaran Mendalam

Detektif AI Membuka Kotak Hitam Pembelajaran Mendalam – Jason Yosinski duduk di dalam kotak kaca kecil di kantor pusat Uber di San Francisco, California, dan merenungkan subjek kecerdasan buatan. Ilmuwan Uber Yosinski melakukan semacam operasi otak dengan AI yang berjalan di laptopnya.

 

Detektif AI Membuka Kotak Hitam Pembelajaran Mendalam

Detektif AI Membuka Kotak Hitam Pembelajaran Mendalam

detektiv – Seperti kebanyakan AI yang akan segera memasuki kehidupan modern, termasuk mobil self-driving Uber, program Yosinski adalah jaringan saraf dalam yang arsitekturnya terinspirasi oleh otak. Dan seperti otak, program ini sulit dipahami dari luar: ini adalah kotak hitam.

AI ini dilatih menggunakan beberapa gambar berlabel untuk mengenali objek acak seperti zebra, truk pemadam kebakaran, dan sabuk pengaman. Apakah dia mengenali Yosinski dan reporter yang berdiri di depan webcam? Yosinski memperbesar salah satu node komputasi individual AI – neuron – untuk melihat apa yang memicu respons ini. Dua oval putih pucat muncul dan melayang di layar. Neuron-neuron ini tampaknya telah belajar mendeteksi kontur wajah. “Cocok dengan wajahmu dan wajahku,” dia berkata. “Ia merespons ukuran wajah yang berbeda dan warna wajah yang berbeda.”

Belum ada yang melatih jaringan ini untuk mengenali wajah. Orang-orang tidak diberi tag di foto pelatihan mereka. Tapi mempelajari wajah ya, mungkin untuk mengenali hal-hal terkait seperti dasi dan koboi. topi. Jaringan ini terlalu rumit bagi manusia untuk memahami keputusan yang tepat. Penyelidikan Yosinski telah menerangi sebagian darinya, namun secara umum masih buram. “Kami telah membangun model yang luar biasa,” katanya. “Tetapi kami tidak benar-benar memahaminya. Dan setiap tahun kesenjangannya semakin besar.”

Tampaknya setiap bulan, jaringan saraf dalam, atau pembelajaran mendalam, demikian sebutan bidang ini, menyebar ke bidang lain. Mereka dapat memprediksi cara terbaik untuk mensintesis molekul organik. Mereka dapat mengidentifikasi gen yang terkait dengan risiko autisme. Mereka bahkan mengubah cara sains dikomunikasikan. AI sering kali berhasil dalam apa yang mereka lakukan. Namun hal ini meninggalkan pertanyaan yang mengganggu bagi para peneliti yang usahanya didasarkan pada penjelasan: mengapa, model, mengapa?

Masalah interpretabilitas diketahui menciptakan generasi peneliti baru baik di industri maupun akademisi. Sama seperti mikroskop yang mengungkap sel, para peneliti ini menciptakan alat yang memberikan wawasan tentang bagaimana jaringan saraf mengambil keputusan. Beberapa alat mengeksplorasi AI tanpa menembusnya; Beberapa di antaranya adalah algoritma alternatif yang dapat bersaing dengan jaringan saraf, namun dengan transparansi yang lebih besar; dan beberapa masih menggunakan pembelajaran mendalam untuk masuk ke kotak hitam. Bersama-sama mereka membentuk bidang ilmiah baru. Yosinski menyebutnya sebagai “ilmu saraf AI”.

Marco Ribeiro, seorang mahasiswa pascasarjana di Universitas Washington di Seattle, mencoba memahami kotak hitam dengan alat ilmu saraf kecerdasan buatan yang disebut penelitian kontrafaktual. Idenya adalah mengubah masukan AI secara cerdas—baik berupa teks, gambar, atau apa pun—untuk melihat perubahan apa yang memengaruhi keluaran dan bagaimana pengaruhnya. Ambil contoh, jaringan saraf yang mengambil, katakanlah, kata-kata dari ulasan film dan menandai kata-kata positif.

Program Ribeiro yang disebut Local Model-Agnostic Explanation (LIME) mengasumsikan bahwa deskripsi tersebut positif dan menciptakan variasi halus dengan menghapus atau mengganti kata-kata. Varian-varian ini kemudian dimasukkan ke dalam kotak hitam untuk melihat apakah masih dianggap positif. Berdasarkan ribuan pengujian, LIME dapat mengidentifikasi kata atau bagian gambar atau struktur molekul atau jenis data lain yang paling penting untuk penilaian awal AI. Tes tersebut mungkin mengungkapkan bahwa kata “mengerikan” sorotan yang sangat penting atau “Daniel Day Lewi menghasilkan ulasan positif. Meskipun LIME dapat mendiagnosis kasus-kasus individual ini, hasilnya tidak memberi tahu Anda banyak tentang gambaran keseluruhan jaringan.

Metode kontrafaktual baru seperti LIME bermunculan setiap bulan. Namun ilmuwan komputer lain di Google, Mukund Sundararajan, telah merancang sebuah penyelidikan yang tidak memerlukan pengujian jaringan ribuan kali: sebuah keuntungan ketika mencoba memahami banyak keputusan, bukan hanya beberapa.
Alih-alih mengubah masukan secara sembarangan, Sundararajan dan timnya menyajikan referensi kosong – gambar atau tabel hitam dengan titik nol, bukan teks – dan memindahkannya selangkah demi selangkah ke contoh yang dapat diuji. Saat mereka menjalankan setiap langkah melalui jaringan, mereka mengamati dengan tepat lompatan mana yang terjadi dan menyimpulkan fitur-fitur yang penting untuk prediksi.

Sundararajan membandingkan prosesnya dengan memilih fitur utama yang mengidentifikasi ruangan berdinding kaca tempat dia duduk—dilengkapi dengan mug, meja, kursi, dan komputer—sebagai ruang rapat Google. “Aku bisa memberimu sejuta alasan.” Namun misalkan Anda meredupkan lampu secara perlahan. “Saat lampu redup, hanya penyebab terbesar yang terlihat.

” Pergeseran dari referensi kosong ini memungkinkan Sundararajan mengambil keputusan yang lebih rapi dibandingkan pilihan Ribeiro. Namun, kata Sundararajan, masih ada pertanyaan yang lebih dalam dan belum terjawab, sebuah pola pikir yang dia kenal sebagai orang tua. “Saya memiliki anak berusia 4 tahun yang terus-menerus mengingatkan saya akan kemunduran tak terbatas dari pertanyaan ‘Mengapa?'”

Kecepatan tidak hanya berasal dari sains. Menurut arahan UE, perusahaan yang menggunakan algoritme yang berdampak signifikan pada publik harus membuat “penjelasan” untuk logika internal model mereka pada tahun depan. Badan Proyek Penelitian Lanjutan Pertahanan (Defense Advanced Research Projects Agency), yang merupakan bagian penelitian langit biru milik militer AS, menginvestasikan $70 juta dalam program baru yang disebut AI yang Dapat Dijelaskan untuk menafsirkan pembelajaran mendalam yang mendukung drone dan penambangan data.

Membuka kotak hitam kecerdasan buatan juga datang dari Silicon Valley sendiri, kata Maya Gupta, peneliti pembelajaran mesin di Google di Mountain View, California. Ketika dia bergabung dengan Google pada tahun 2012 dan bertanya kepada para insinyur kecerdasan buatan tentang masalah ini, akurasi bukanlah satu-satunya hal bagi mereka, katanya. “Saya tidak yakin apa fungsinya” mereka berkata. “Aku tidak yakin aku bisa mempercayainya.”

Rich Caruana, ilmuwan teknologi informasi di Microsoft Research di Redmond, Washington, mengetahui secara langsung kurangnya kepercayaan. Pada tahun 1990-an, sebagai mahasiswa pascasarjana di Universitas Carnegie Mellon di Pittsburgh, Pennsylvania, ia bergabung dengan tim yang mencoba mencari tahu apakah pembelajaran mesin dapat memandu pengobatan pasien pneumonia. Biasanya lebih baik memulangkan pasien dengan selamat untuk menghindari infeksi lebih lanjut di rumah sakit. Namun, beberapa pasien, terutama yang memiliki komplikasi seperti asma, perlu segera dibawa ke rumah sakit.

Caruana menerapkan jaringan saraf ke kumpulan data gejala dan hasil dari 78 rumah sakit. Tampaknya berfungsi dengan baik. Namun yang mengkhawatirkan, ia menemukan bahwa model yang lebih sederhana dan transparan yang dilatih berdasarkan catatan yang sama melebih-lebihkan jumlah penderita asma yang dipulangkan, dan menunjukkan beberapa kelemahan dalam data tersebut. Dan dia tidak punya cara mudah untuk mengetahui apakah jaringan sarafnya telah mendapat pelajaran buruk yang sama. “Ketakutan terhadap jaringan saraf sepenuhnya beralasan,” katanya. “Yang benar-benar membuatku takut adalah apa lagi yang diketahui oleh jaringan saraf sebagai hal yang salah?”

 

Baca juga : Menggunakan AI Untuk Memerangi Kejahatan

 

Jaringan saraf saat ini jauh lebih efisien daripada jaringan saraf yang digunakan oleh Caruana sebagai mahasiswa pascasarjana, namun intinya tetap sama. Di sisi lain terdapat kumpulan data yang berantakan – misalnya, jutaan gambar anjing. Data tersebut diserap ke dalam jaringan yang terdiri dari selusin atau lebih lapisan komputer, tempat koneksi mirip neuron “diaktifkan”. sebagai respons terhadap karakteristik data masukan. Setiap lapisan berhubungan dengan fitur-fitur yang semakin abstrak, sehingga lapisan terakhir dapat membedakan, misalnya, seekor terrier dari seekor dachshund.

Awalnya sistem tidak bekerja. Namun setiap hasil dibandingkan dengan gambar anjing yang diberi tag. Dalam proses yang disebut propagasi balik, hasilnya dikirim kembali melalui jaringan, sehingga jaringan dapat menentukan kembali bobot pengaktifan setiap neuron. Proses ini diulangi jutaan kali hingga jaringan belajar – entah bagaimana – untuk membedakan ras dengan jelas. “Dengan menggunakan tenaga kuda modern dan chutzpah, Anda dapat membuat hal-hal ini menjadi sangat menarik,” kata Caruana. Namun kekuatan misterius dan fleksibel ini mengubah mereka menjadi kotak hitam.

Gupta punya taktik lain dengan kotak hitam: dia menghindarinya. Beberapa tahun yang lalu, Gupta, yang bekerja sambilan sebagai perancang teka-teki fisika kompleks, memulai sebuah proyek bernama GlassBox. Tujuannya adalah untuk menjinakkan jaringan saraf dengan membangun prediktabilitas di dalamnya. Prinsip panduannya adalah monotonisitas – hubungan antar variabel dimana peningkatan satu variabel secara langsung meningkatkan variabel lain, seperti ukuran rumah dan harganya.

Gupta memasukkan hubungan monotonik ini ke dalam database besar yang disebut tabel pencarian interpolasi. Pada dasarnya, tabelnya seperti yang ada di bagian belakang buku teks trigonometri sekolah menengah, di mana Anda melihat sinus 0,5. Namun alih-alih berisi lusinan rekaman dalam satu dimensi, tabel tersebut memiliki jutaan rekaman dalam berbagai dimensi. Dia menghubungkan array ke jaringan saraf, yang secara efektif menambahkan lapisan komputasi prediktif lainnya – informasi yang tertanam, menurutnya, pada akhirnya akan membuat jaringan lebih mudah dikelola.

 

Baca juga : AI untuk Membeli Cincin Pertunangan Secara Online 

 

Caruana masih ingat pelajaran yang didapat dari pneumonia. Untuk mengembangkan model yang sesuai dengan akurasi pembelajaran mendalam namun menghindari ketidaktepatan, ia beralih ke komunitas yang tidak selalu menerima pembelajaran mesin dan tujuan-tujuannya yang berbeda: ahli statistik.

Pada tahun 1980an, ahli statistik memperkenalkan metode yang disebut generalized additive modelling (GAM). Hal ini didasarkan pada regresi linier, suatu metode untuk menemukan tren linier dalam kumpulan data. Namun GAM dapat menangani hubungan yang lebih kompleks dengan menemukan beberapa operasi yang dapat bekerja sama untuk mengatur data agar sesuai dengan garis regresi: mengkuadratkan satu kumpulan angka dan mengambil logaritma dari kumpulan variabel lainnya, misalnya.

Caruana meningkatkan prosesnya dengan menggunakan pembelajaran mesin untuk menemukan fitur-fitur ini, yang kemudian dapat digunakan sebagai model pengenalan pola tingkat lanjut. “Kami sangat terkejut, dalam banyak hal hasilnya sangat akurat,” katanya. Dan yang terpenting, dampak setiap tindakan terhadap data yang mendasarinya bersifat transparan.

GAM Caruana tidak sebaik AI ketika menangani beberapa jenis data yang berantakan (misalnya gambar atau suara) di mana beberapa jaringan saraf berkembang. Namun, pola ini dapat bekerja dengan baik untuk beberapa data yang sesuai dengan baris dan kolom spreadsheet, seperti data rumah sakit. Misalnya, Caruana kembali ke rekor pneumonia aslinya. Dengan menganalisis ulang mereka dengan salah satu GAM-nya, dia memahami mengapa AI mengambil pelajaran yang salah dari data akses.

Rumah sakit secara rutin menempatkan penderita asma dengan pneumonia di unit perawatan intensif, sehingga meningkatkan hasil pengobatan. Melihat perkembangannya yang pesat, kecerdasan buatan merekomendasikan untuk memulangkan pasien. (Hal ini akan menyebabkan kesalahan optimis yang sama pada pasien pneumonia yang juga menderita nyeri dada dan penyakit jantung.)