Menyoroti tidak adanya bukti pengendalian AI, Dr. Yampolskiy memperingatkan risiko yang ada dan menganjurkan pendekatan yang hati-hati dalam pengembangan AI, dengan fokus pada keselamatan dan minimalisasi risiko.
Saat ini tidak ada bukti bahwa AI dapat dikendalikan dengan aman, menurut tinjauan ekstensif, dan tanpa bukti bahwa AI dapat dikendalikan, maka AI tidak boleh dikembangkan, demikian peringatan seorang peneliti.
Meskipun ada pengakuan bahwa masalah pengendalian AI mungkin merupakan salah satu masalah terpenting yang dihadapi umat manusia, masalah ini masih kurang dipahami, tidak didefinisikan dengan baik, dan kurang diteliti, Dr. Roman V. Yampolskiy menjelaskan.
Dalam bukunya yang akan datang, AI: Tidak dapat dijelaskan, Tidak dapat diprediksi, Tidak dapat dikendalikanPakar Keamanan AI Dr. Yampolskiy melihat potensi AI untuk mengubah masyarakat secara drastis, namun tidak selalu menguntungkan kita.
Ia menjelaskan: “Kita sedang menghadapi peristiwa yang hampir pasti terjadi dan berpotensi menimbulkan bencana besar. Tidak mengherankan jika banyak orang menganggap hal ini sebagai masalah paling penting yang pernah dihadapi umat manusia. Hasilnya adalah kemakmuran atau kepunahan, dan nasib alam semesta berada dalam keseimbangan.”
Kecerdasan super yang tidak terkendali
Yampolskiy telah melakukan tinjauan ekstensif terhadap literatur ilmiah mengenai AI dan menyatakan bahwa ia tidak menemukan bukti bahwa AI dapat dikendalikan dengan aman – dan meskipun terdapat pengendalian parsial, hal tersebut tidak akan cukup.
Dia menjelaskan: “Mengapa begitu banyak peneliti berasumsi bahwa masalah pengendalian AI dapat diselesaikan? Sejauh pengetahuan kami, tidak ada bukti mengenai hal itu, tidak ada bukti. Sebelum memulai upaya untuk membangun AI yang dapat dikendalikan, penting untuk menunjukkan bahwa masalah tersebut dapat diselesaikan.
“Hal ini, dikombinasikan dengan statistik yang menunjukkan bahwa pengembangan superintelligence AI hampir pasti, menunjukkan bahwa kita harus mendukung upaya keselamatan AI secara signifikan.”
Dia berpendapat bahwa kemampuan kita untuk menghasilkan perangkat lunak cerdas jauh melampaui kemampuan kita untuk mengontrol atau bahkan memverifikasinya. Setelah melakukan tinjauan literatur yang komprehensif, ia berpendapat bahwa sistem cerdas yang canggih tidak akan pernah bisa dikendalikan sepenuhnya sehingga akan selalu menghadirkan tingkat risiko tertentu, apa pun manfaat yang diberikannya. Ia percaya bahwa tujuan komunitas AI adalah meminimalkan risiko sekaligus memaksimalkan potensi manfaat.
Apa saja kendalanya?
AI (dan superintelligence), berbeda dari program lain dalam kemampuannya mempelajari perilaku baru, menyesuaikan kinerjanya, dan bertindak semi-otonom dalam situasi baru.
Salah satu permasalahan dalam membuat AI 'aman' adalah kemungkinan pengambilan keputusan dan kegagalan yang dilakukan oleh makhluk super cerdas ketika mereka menjadi lebih mampu tidak terbatas, sehingga terdapat banyak sekali masalah keamanan. Memprediksi masalah saja tidaklah mungkin dan memitigasinya melalui patch keamanan mungkin tidak cukup.
Pada saat yang sama, Yampolskiy menjelaskan, AI tidak dapat menjelaskan apa yang telah diputuskannya, dan/atau kita tidak dapat memahami penjelasan yang diberikan karena manusia tidak cukup pintar untuk memahami konsep yang diterapkan. Jika kita tidak memahami keputusan AI dan hanya memiliki 'kotak hitam', kita tidak dapat memahami masalahnya dan mengurangi kemungkinan terjadinya kecelakaan di masa depan.
Misalnya, sistem AI ditugaskan untuk mengambil keputusan di bidang layanan kesehatan, investasi, ketenagakerjaan, perbankan, dan keamanan, dan masih banyak lagi. Sistem seperti itu harus mampu menjelaskan bagaimana mereka mengambil keputusan, terutama untuk menunjukkan bahwa keputusan tersebut bebas dari bias.
Yampolskiy menjelaskan: “Jika kita terbiasa menerima jawaban AI tanpa penjelasan, pada dasarnya memperlakukannya seperti sistem Oracle, kita tidak akan dapat mengetahui apakah AI mulai memberikan jawaban yang salah atau manipulatif.”
Kendalikan yang tidak bisa dikendalikan
Ketika kemampuan AI meningkat, otonominya juga meningkat tetapi kendali kita terhadapnya menurun, jelas Yampolskiy, dan peningkatan otonomi sama dengan penurunan keselamatan.
Misalnya, agar superintelligence menghindari perolehan pengetahuan yang tidak akurat dan menghilangkan semua bias dari pemrogramnya, superintelligence dapat mengabaikan semua pengetahuan tersebut dan menemukan kembali/membuktikan semuanya dari awal, namun hal ini juga akan menghilangkan bias yang pro-manusia.
“Agen (manusia) yang kurang cerdas tidak dapat secara permanen mengendalikan agen yang lebih cerdas (ASI). Hal ini bukan karena kita mungkin gagal menemukan rancangan yang aman untuk kecerdasan super di antara semua rancangan yang ada, namun karena rancangan seperti itu tidak mungkin, dan tidak ada. “Superintelligence bukan berarti memberontak, melainkan tidak terkendali,” jelasnya.
“Umat manusia sedang menghadapi sebuah pilihan, apakah kita akan menjadi seperti bayi, dirawat tetapi tidak dapat mengendalikan diri kita sendiri, atau apakah kita akan menolak untuk memiliki wali yang membantu namun tetap memegang kendali dan bebas.”
Ia menyatakan bahwa titik ekuilibrium dapat ditemukan ketika kita mengorbankan sejumlah kemampuan tertentu demi mendapatkan sejumlah kendali, dengan mengorbankan penyediaan sistem dengan tingkat otonomi tertentu.
Menyelaraskan nilai-nilai kemanusiaan
Salah satu saran pengendalian adalah merancang mesin yang secara tepat mengikuti perintah manusia, namun Yampolskiy menunjukkan potensi konflik perintah, salah tafsir, atau penggunaan jahat.
Ia menjelaskan: “Manusia yang memegang kendali dapat menghasilkan perintah yang kontradiktif atau jelas-jelas berbahaya, sedangkan AI yang memegang kendali berarti manusia tidak akan menghasilkan perintah tersebut.”
Jika AI lebih berperan sebagai penasihat, maka ia dapat mengatasi masalah salah tafsir atas perintah langsung dan potensi perintah jahat, namun penulis berpendapat bahwa agar AI menjadi penasihat yang berguna, ia harus memiliki nilai-nilai unggul tersendiri.
“Sebagian besar peneliti keamanan AI mencari cara untuk menyelaraskan kecerdasan super masa depan dengan nilai-nilai kemanusiaan. AI yang selaras dengan nilai-nilai akan bias secara definisi, bias yang pro manusia, baik atau buruk tetap saja bias. Paradoks AI yang selaras dengan nilai adalah bahwa seseorang yang secara eksplisit memberi tahu sistem AI untuk melakukan sesuatu mungkin mendapat jawaban “tidak” sementara sistem mencoba melakukan apa yang sebenarnya diinginkan orang tersebut. Kemanusiaan dilindungi atau dihormati, tapi tidak keduanya,” jelasnya.
Minimalkan risiko
Untuk meminimalkan risiko AI, menurutnya AI perlu dimodifikasi dengan opsi 'undo', terbatas, transparan, dan mudah dipahami dalam bahasa manusia.
Ia menyarankan semua AI harus dikategorikan sebagai dapat dikendalikan atau tidak dapat dikendalikan, dan tidak ada satupun yang boleh diabaikan dan moratorium terbatas, dan bahkan larangan sebagian terhadap jenis teknologi AI tertentu harus dipertimbangkan.
Alih-alih berkecil hati, ia berkata: “Ini sebenarnya adalah alasan, bagi lebih banyak orang, untuk menggali lebih dalam dan meningkatkan upaya, serta mendanai penelitian Keselamatan dan Keamanan AI. Kita mungkin tidak akan pernah mencapai AI yang 100% aman, namun kita bisa menjadikan AI lebih aman sesuai dengan upaya kita, dan ini jauh lebih baik daripada tidak melakukan apa pun. Kita perlu menggunakan kesempatan ini dengan bijak.”
NewsRoom.id