Kita dapat merasa nyaman dengan perkiraan bahwa AI akan tetap berada dalam kendali manusia dan dengan mudah, membuang perkiraan dari beberapa mesin yang akan menjadi lebih pintar daripada manusia dengan kecerdasan super buatan (KSB). Namun, jika KSB terwujud, itu akan berada di luar kendali kita. Kita hanya bisa berharap bahwa sebelum hal yang tak terhindarkan terjadi, kita akan ditanamkan dalam mesin norma dan nilai etis dan moral Islam.

Mari kita bicara sedikit tentang risiko “erosi penyumbang”. Ini adalah risiko yang dihadapi semua organisasi amal dan nirlaba. Ini risiko besar. Ini secara signifikan dapat mempengaruhi kemampuan mereka untuk menjaga agar program mereka tetap didanai. Laporan global tentang Efektivitas Penghimpunan Dana [1] menggarisbawahi risiko ini dengan kata-kata sederhana: untuk setiap 100 penyumbang baru dalam setahun, nirlaba kehilangan 99 penyumbang yang ada! Tambahkan keperkiraan ini bahwa biaya organisasi nirlaba sekitar 10 kali lebih banyak untuk mendatangkan penyumbang baru daripada mempertahankan penyumbang yang ada. Anda memiliki masalah nyata yang menatap Anda untuk diatasi. Para pakar penggalangan dana merekomendasikan rencana aksi tiga cabang untuk mengatasi hal ini – mengembangkan dan menggunakan analitik penyumbang, mendapatkan umpan balik, dan menjangkau para penyumbang yang telah pergi.

Sekarang, bayangkan diri Anda sebagai penyumbang yang ada berjalan ke lokasi organisasi nirlaba Islam. Komputer yang ditempatkan dibagian penerima tamu dapat mengenali Anda secara instan, memeriksa ulang basis datanya dari kontribusi masa lalu Anda, dan mengidentifikasi Anda sebagai individu yang memiliki kecenderungan tinggi untuk menyumbang. Detik berikutnya, komputer dengan hangat menyambut Anda menawarkan untuk melayani Anda dengan info tentang kampanye terbaru yang sesuai dengan minat Anda atau untuk memberikan dampak-masukan pada kampanye sebelumnya yang Anda pernah berkontribusi. Tidakkah sikap ini memengaruhi keputusan Anda untuk menyumbang lagi ke organisasi yang sama? Jika Anda seorang pembayar zakat, mesin itu bahkan dapat membantu Anda dengan konseling dan memperkirakan kewajiban zakat Anda. Mesin yang melihat, mendengarkan, dan berbicara tentu saja dapat membantu organisasi nirlaba itu mempertahankan Anda sebagai penyumbang dan pendukung berkelanjutan untuk program-programnya.

Dalam contoh-contoh tersebut, kepuasan pelanggan yang meningkat dimungkinkan, tentu saja, karena mesin yang mendengar, bicara, dan melihat.

Mari kita pertimbangkan skenario lain. Sekarang, bayangkan diri Anda sebagai seseorang yang mencari pinjaman qard atau pembiayaan mikro-murabahah dari LKM syariah. Biasanya, Anda harus siap untuk mengunjungi cabang organisasi terdekat dengan sejumlah besar dokumen untuk kepatuhan Know Your Customer (KYC) untuk membuka akun. Namun, ketika Anda menghubungi cabang untuk membuat janji, Anda diberitahu untuk tidak menempatkan diri Anda dalam ketidaknyamanan kunjungan pribadi. Proses otentikasi visual dan KYC sekarang dimungkinkan dari jarak jauh dengan visi komputer. Apa yang sekarang diperlukan adalah Anda perlu mengirim foto kartu ID Anda, komputer akan memilih gambar wajah Anda, nama Anda dan teks tertulis lainnya pada kartu. Selanjutnya, Anda mengambil selfie dengan ponsel Anda dengan foto pada kartu ID. Komputer akan dapat membandingkan fitur wajah pada foto selfie Anda dengan foto di kartu. Otentikasi Anda selesai.

Dalam dua contoh di atas kepuasan pelanggan yang meningkat dimungkinkan, tentunya, karena mesin yang mendengar, bicara, dan melihat. Sebelum kita melanjutkan, mari kita bahas secara singkat, bagaimana hal ini dimungkinkan. Bagaimana cara mesin menangani suara dan gambar. Bagaimana ia bisa mendengar, berbicara, dan melihat.

Sama seperti merekam dan memutar suara, pita tidak sama dengan pemrosesan bahasa alami, menangkap gambar dan video berkualitas tinggi tidak sama dengan penglihatan komputer. Sama seperti neuro-liguistic programming (NLP) membutuhkan komputer untuk memahami apa yang kita bicarakan dan berbicara kembali kepada kita secara cerdas, penglihatan komputer menuntut komputer untuk mengenali kita serta berbagai objek disekitar kita.

Untuk memahami ucapan, mesin harus mencocokkan suara yang sesuai dengan unit dasar suara yang menjadi dasar bahasa kita. Ada sejumlah kecil bunyi yang berbeda dan tak terpisahkan yang ada dalam bahasa apa pun, yang disebut fonem. Setiap kalimat dapat dipecah menjadi urutan fonem-fonem ini. Setiap fonem dapat “diidentifikasi” oleh mesin, karena ia menciptakan bentuk gelombang yang berbeda berdasarkan pada bagaimana intensitas suara bervariasi ketika Anda mengucapkan fonem. Mesin juga belajar membedakan antara kata dan kalimat berdasarkan “jeda” antara fonem saat Anda mengucapkannya. Setelah mengerti bagaimana Anda berbicara, mesin selalu dapat berbicara kembali.

Berpindah ke gambar, mari kita mengerti bahwa setiap bit gambar dikodekan sebagai kisi piksel dan setiap piksel merekam secara numerik intensitas cahaya di tempat tertentu. Pada dasarnya, mesin melihat gradasi intensitas cahaya pada gambar apa pun. Sementara dalam gambar hitam dan putih piksel dikodekan dengan angka skala abu-abu tunggal, dalam warna, setiap piksel dikodekan pada skala Red, Green, Blue (RGB) sebagai satu set tiga nilai, intensitas cahaya dalam tiga warna utama merah, hijau dan biru. Dibandingkan dengan gambar diam, video hanyalah urutan gambar diam, yaitu rekaman bagaimana setiap piksel berubah dalam intensitas cahaya dari waktu ke waktu. Selanjutnya, bergerak dari merekam gambar ke menafsirkan gambar yang direkam adalah lompatan besar ke depan. Ini melibatkan memanipulasi nilai piksel dan menemukan pola di dalamnya, yaitu mengidentifikasi hubungan antara piksel yang ada di dekatnya. Mesin mengambil objek dengan menemukan pola yang mewakili batas-batas objek. Mesin membaca teks atau gambar atau wajah melibatkan mengidentifikasi pola piksel.

Jadi, sebuah mesin dapat mendengar kita berbicara, berbicara kembali kepada kita, melihat dan mengenali kita. Setelah Anda menambahkan internet-of-things, ia juga dapat melakukan banyak hal. Jadi, mari kita kembali ke pertanyaan yang kita ajukan diblog pertama. Bisakah mesin “cerdas” seperti itu masuk ke dalam kontrak dalam pengertian hukum? Bisakah mesin “cerdas” dianggap “bertanggung jawab” atas tindakannya? Sebagai contoh:

  • Anda mengendarai mobil-AI dan menabrak mobil lain dan pejalan kaki karena “penglihatan” yang salah.
  • Anda didiagnosis mengidap diabetes dengan diagnosa AI dan Anda menyadari setelah menjalani pengobatan selama beberapa waktu bahwa itu adalah kasus prediksi salah-positif.
  • Anda melikuidasi setengah dari portofolio ekuitas Anda atas sinyal dari penasihat investasi robot, hanya untuk melihat pasar bangkit kembali dan mengalami kenaikan besar ke atas.

Sebelum kita mencoba menjawab pertanyaan ini, mari kita bedakan antara tiga level AI yang berbeda. Pertama, kita memiliki Kecerdasan Sempit Buatan (KSUB), yang melakukan satu hal pada satu waktu. Sebagai contoh, algoritma AI memungkinkan kita untuk mengubah ucapan menjadi teks. Kedua, kita memiliki Kecerdasan Umum Buatan (KUB) yang mampu melakukan semua yang kita bisa pada tingkat kemampuan mental yang sama. Dan akhirnya, zona yang ditakuti dari Kecerdasan Super Buatan (KSB) yang mendominasi dan jauh lebih unggul dari kecerdasan manusia. Kita benar-benar tidak tahu apa yang dipikirkan mesin itu. Kita saat ini di KSUB sementara para ahli tidak setuju tentang apakah dan seberapa cepat AI akan mencapai tingkat yang lebih tinggi. Kita dapat merasa nyaman dengan perkiraan bahwa AI akan tetap berada dalam kendali manusia dan dengan mudah membuang perkiraan dari beberapa mesin yang akan menjadi lebih pintar daripada manusia dengan KSB. Namun, jika KSB terwujud, itu akan berada di luar kendali kita (matikan alatnya?). Kita hanya bisa berharap bahwa, sebelum hal yang tak terhindarkan terjadi, kita telah menanamkan dalam mesin norma dan nilai etis dan moral Islam.

Para ahli dalam etika AI mempertimbangkan tiga tingkat perilaku etis oleh mesin. Pertama, AI memiliki batasan etika yang diprogram kedalamnya. Kedua, AI menimbang input dalam kerangka etika yang diberikan untuk memilih tindakan. Pada level tertinggi, AI membuat penilaian etis dan membela alasannya. Relatif mudah untuk melihat level pertama dalam aksi. Penasihat robot investasi Islami tidak akan menyentuh perusahaan penghasil daging babi! Ia tahu Anggur dan pornografi adalah haram dan diluar jangkauannya. Ini karena batasan Syariah yang diprogram ke dalamnya, ia tidak akan pernah mengizinkan investasi ke proyek apa pun yang melanggar persyaratan yang diberlakukan oleh Rabbul maal dalam mudharabah. Jika ia menjadi penasehat zakat, maka ia tidak akan pernah “meloloskan” daftar penerima manfaat yang mencakup orang tidak miskin (kecuali ada alasan lain yang dapat dipertahankan untuk membayar zakat kepada mereka). Jika ia ingin menilai kinerja seorang nazir atau mutawalli, itu akan memberikan peringatan atas manfaat yang mengalir ke proyek-proyek yang tidak sesuai dengan niat wakif.

Jika Saya adalah pelatih kuda dan kuda menolak untuk bergerak satu inci atas latihan yang diberikan untuk bergerak dengan ayunan penuh, saya mungkin pantas dihukum karena kehilangan muka atau kehilangan uang atau kekalahan- dalam-pertempuran atau konsekuensi yang merugikan, karena Saya bisa melatih lebih baik.

Sementara kita masih dalam domain Automatic Number Identification (ANI), tugas itu tampaknya lebih mudah. Mesin jelas tidak dapat dihukum karena konsekuensi dari tindakan mereka. Mereka tidak dapat dipaksa membayar penalti, mereka tidak bisa dipenjara! Kursus yang secara logis dapat dibenarkan akan memperlakukan mereka setara dengan hewan peliharaan, seperti pilihan yang dipilih oleh banyak ahli. Jika Saya adalah pelatih kuda dan kuda menolak untuk bergerak satu inci atas latihan yang diberikan untuk bergerak dengan ayunan penuh, Saya mungkin pantas dihukum karena kehilangan muka atau kehilangan uang atau kekalahan- dalam-pertempuran atau konsekuensi yang merugikan, karena saya bisa melatih lebih baik. Saya menanggung biayanya, sementara kuda itu dilatih ulang! Namun, dalam kasus AI, mungkin ada kompleksitas tambahan. Tidak seperti pelatih kuda tunggal, banyak programmer yang berbeda mungkin telah berkontribusi pada algoritma AI dan memperbaiki tanggung jawab kesalahan mungkin secara praktis tidak mungkin. Solusi yang disarankan adalah menggunakan akuntabilitas sistem [2], meskipun hal ini dapat mendorong orang untuk tidak cukup berhati-hati dan waspada, saat menciptakan AI. Namun, akuntabilitas sistem dapat memberikan hasil yang baik jika dipastikan melalui peraturan pemerintah dan standar industri yang mewajibkan perusahaan pengembang untuk melakukan algoritma dengan teliti terhadap pertanyaan-pertanyaan etis yang mungkin mengintai.

(Bersambung)

(Diterjemahkan oleh:
Yusuf Ali, B.Ec | Qoriatul Hasanah, Lc. MIRK)

Tinggalkan Balasan

Isikan data di bawah atau klik salah satu ikon untuk log in:

Logo WordPress.com

You are commenting using your WordPress.com account. Logout /  Ubah )

Foto Google

You are commenting using your Google account. Logout /  Ubah )

Gambar Twitter

You are commenting using your Twitter account. Logout /  Ubah )

Foto Facebook

You are commenting using your Facebook account. Logout /  Ubah )

Connecting to %s

%d blogger menyukai ini: