mengambil cara pemikiran mesin lewat software black box

Mengambil Cara Pemikiran Mesin Lewat Software Black Box

Mengambil Cara Pemikiran Mesin Lewat Software Black Box Aplikasi perangkat lunak menyediakan orang dengan berbagai macam keputusan otomatis, seperti mengidentifikasi apa risiko kredit individu, menginformasikan perekrut yang mana kandidat pekerjaan yang akan dipekerjakan, atau menentukan apakah seseorang adalah ancaman bagi publik. Dalam beberapa tahun terakhir, berita utama telah memperingatkan masa depan di mana mesin beroperasi di latar belakang masyarakat, memutuskan jalannya kehidupan manusia saat menggunakan logika yang tidak dapat dipercaya.

Bagian dari ketakutan ini berasal dari cara yang tidak jelas di mana banyak model pembelajaran mesin beroperasi. Dikenal sebagai model black-box, mereka didefinisikan sebagai sistem di mana perjalanan dari input ke output hampir mustahil bahkan bagi pengembang mereka untuk memahami.

“Karena pembelajaran mesin menjadi ada di mana-mana dan digunakan untuk aplikasi dengan konsekuensi yang lebih serius, ada kebutuhan bagi orang untuk memahami bagaimana membuat prediksi sehingga mereka akan mempercayainya ketika melakukan lebih dari melayani iklan,” kata Jonathan Su, seorang anggota dari staf teknis di MIT Lincoln Laboratory’s Informatics and Decision Support Group.

Saat ini, peneliti menggunakan teknik post hoc atau model yang dapat diinterpretasi seperti pohon keputusan untuk menjelaskan bagaimana model black-box mencapai kesimpulannya. Dengan teknik post hoc, peneliti mengamati input dan output dari algoritma dan kemudian mencoba untuk membangun penjelasan perkiraan untuk apa yang terjadi di dalam kotak hitam. Masalah dengan metode ini adalah bahwa peneliti hanya dapat menebak pekerjaan di bagian dalam, dan penjelasannya seringkali bisa salah. Pohon keputusan, yang memetakan pilihan dan potensi konsekuensinya dalam konstruksi seperti pohon, bekerja dengan baik untuk data kategori yang fiturnya bermakna, tetapi pohon-pohon ini tidak dapat diinterpretasikan di domain penting, seperti visi komputer dan masalah data kompleks lainnya.

Su memimpin tim di laboratorium yang berkolaborasi dengan Profesor Cynthia Rudin di Duke University, bersama dengan mahasiswa Duke Chaofan Chen, Oscar Li, dan Alina Barnett, ke metode penelitian untuk mengganti model kotak hitam dengan metode prediksi yang lebih transparan. Proyek mereka, disebut Adaptable Interpretable Machine Learning (AIM), berfokus pada dua pendekatan: jaringan saraf yang dapat diinterpretasi serta daftar aturan Bayesian yang dapat diadaptasi dan diinterpretasikan.

Jaringan saraf adalah sistem komputasi yang terdiri dari banyak elemen pemrosesan yang saling berhubungan. Jaringan ini biasanya digunakan untuk analisis gambar dan pengenalan objek. Sebagai contoh, suatu algoritma dapat diajarkan untuk mengenali apakah suatu foto termasuk seekor anjing dengan terlebih dahulu ditunjukkan foto-foto anjing. Para peneliti mengatakan masalah dengan jaringan saraf ini adalah bahwa fungsi mereka nonlinier dan rekursif, serta rumit dan membingungkan bagi manusia, dan hasil akhirnya adalah sulit untuk menentukan apa sebenarnya yang didefinisikan oleh jaringan sebagai “dogness” di dalam foto-foto. dan apa yang membawanya ke kesimpulan itu. Untuk mengatasi masalah ini, tim mengembangkan apa yang mereka sebut “jaringan saraf prototipe.” Ini berbeda dari jaringan saraf tradisional karena mereka secara alami mengkodekan penjelasan untuk masing-masing prediksi mereka dengan membuat prototipe, yang merupakan bagian representatif dari gambar input. Jaringan-jaringan ini membuat prediksi mereka berdasarkan kesamaan bagian-bagian dari gambar input untuk setiap prototipe.

Sebagai contoh, jika jaringan ditugaskan untuk mengidentifikasi apakah sebuah gambar adalah anjing, kucing, atau kuda, ia akan membandingkan bagian-bagian dari gambar tersebut dengan prototipe bagian-bagian penting dari setiap hewan dan menggunakan informasi ini untuk membuat prediksi. Makalah tentang pekerjaan ini: “Ini terlihat seperti itu: pembelajaran mendalam untuk pengenal gambar yang dapat diinterpretasikan,” baru-baru ini ditampilkan dalam episode podcast “Data Science at Home”. Sebuah makalah sebelumnya, “Pembelajaran Mendalam untuk Penalaran Berbasis Kasus melalui Prototipe: Jaringan Saraf yang Menjelaskan Prediksinya,” menggunakan seluruh gambar sebagai prototipe, bukan bagian.

Area lain yang diteliti oleh tim peneliti adalah BRL, yang merupakan pohon keputusan satu sisi yang kurang rumit yang cocok untuk data tabular dan seringkali sama akuratnya dengan model lainnya. BRL terbuat dari rangkaian pernyataan kondisional yang secara alami membentuk model yang dapat diinterpretasi. Misalnya, jika tekanan darah tinggi, maka risiko penyakit jantung tinggi. Su dan rekannya menggunakan properti BRL untuk memungkinkan pengguna untuk menunjukkan fitur mana yang penting untuk sebuah prediksi. Mereka juga mengembangkan BRL interaktif, yang dapat diadaptasi segera ketika data baru tiba daripada dikalibrasi ulang dari awal pada dataset yang terus berkembang.

Stephanie Carnell, seorang mahasiswa pascasarjana dari University of Florida dan seorang magang musim panas di Kelompok Dukungan Informatika dan Keputusan, menerapkan BRL interaktif dari program AIM ke sebuah proyek untuk membantu mahasiswa kedokteran menjadi lebih baik dalam mewawancarai dan mendiagnosis pasien. Saat ini, mahasiswa kedokteran mempraktikkan keterampilan ini dengan mewawancarai pasien virtual dan menerima skor tentang seberapa banyak informasi diagnostik penting yang dapat mereka temukan. Tetapi skor tidak termasuk penjelasan tentang apa, tepatnya, dalam wawancara yang siswa lakukan untuk mencapai skor mereka. Proyek AIM berharap untuk mengubah ini.

“Saya dapat membayangkan bahwa sebagian besar mahasiswa kedokteran sangat frustrasi untuk menerima prediksi mengenai kesuksesan tanpa alasan yang konkrit mengapa,” kata Carnell. “Daftar aturan yang dihasilkan oleh AIM harus menjadi metode yang ideal untuk memberikan umpan balik yang didorong oleh data dan didorong oleh siswa.”

Program AIM adalah bagian dari penelitian yang sedang berlangsung di laboratorium dalam rekayasa sistem manusia — atau praktik merancang sistem yang lebih kompatibel dengan cara orang berpikir dan berfungsi, seperti dimengerti, daripada tidak jelas, algoritme.

“Laboratorium ini memiliki kesempatan untuk menjadi pemimpin global dalam membawa manusia dan teknologi bersama-sama,” kata Hayley Reynolds, asisten pemimpin Kelompok Dukungan Informatika dan Keputusan. “Kami berada di titik puncak kemajuan besar.”

Melva James adalah anggota staf teknis lain dalam Kelompok Dukungan Informasi dan Keputusan yang terlibat dalam proyek AIM. “Kami di laboratorium telah mengembangkan implementasi Python dari kedua BRL dan BRL interaktif,” katanya. “[Kami] secara bersamaan menguji output BRL dan implementasi BRL interaktif pada berbagai sistem operasi dan platform perangkat keras untuk membangun portabilitas dan reproduktifitas. Kami juga mengidentifikasi aplikasi praktis tambahan dari algoritma ini.”

Su menjelaskan: “Kami berharap dapat membangun kemampuan strategis baru untuk laboratorium — algoritma pembelajaran mesin yang dipercaya orang karena mereka memahaminya.”

Please follow and like us:

About the author: adminyes

Leave a Reply

Your email address will not be published.