Tidak Ada Bukti Bahwa AI Dapat Dikendalikan

- Redaksi

Senin, 12 Februari 2024

facebook twitter whatsapp telegram line copy

URL berhasil dicopy

facebook icon twitter icon whatsapp icon telegram icon line icon copy

URL berhasil dicopy

Penelitian mendalam yang dilakukan oleh Dr. Yampolskiy mengatakan bahwa saat ini tidak ada bukti bahwa AI dapat dikendalikan dengan aman, sehingga muncul seruan untuk menghentikan pengembangan AI sampai keamanannya terjamin. Bukunya yang akan terbit membahas risiko-risiko yang ada dan kebutuhan penting untuk meningkatkan langkah-langkah keamanan AI. Kredit: SciTechDaily.com

Menyoroti tidak adanya bukti pengendalian AI, Dr. Yampolskiy memperingatkan risiko yang ada dan menganjurkan pendekatan yang hati-hati dalam pengembangan AI, dengan fokus pada keselamatan dan minimalisasi risiko.

Saat ini tidak ada bukti bahwa AI dapat dikendalikan dengan aman, menurut tinjauan ekstensif, dan tanpa bukti bahwa AI dapat dikendalikan, maka AI tidak boleh dikembangkan, demikian peringatan seorang peneliti.

Meskipun ada pengakuan bahwa masalah pengendalian AI mungkin merupakan salah satu masalah terpenting yang dihadapi umat manusia, masalah ini masih kurang dipahami, tidak didefinisikan dengan baik, dan kurang diteliti, Dr. Roman V. Yampolskiy menjelaskan.

Dalam bukunya yang akan datang, AI: Tidak dapat dijelaskan, Tidak dapat diprediksi, Tidak dapat dikendalikanPakar Keamanan AI Dr. Yampolskiy melihat potensi AI untuk mengubah masyarakat secara drastis, namun tidak selalu menguntungkan kita.

Ia menjelaskan: “Kita sedang menghadapi peristiwa yang hampir pasti terjadi dan berpotensi menimbulkan bencana besar. Tidak mengherankan jika banyak orang menganggap hal ini sebagai masalah paling penting yang pernah dihadapi umat manusia. Hasilnya adalah kemakmuran atau kepunahan, dan nasib alam semesta berada dalam keseimbangan.”

Kecerdasan super yang tidak terkendali

Yampolskiy telah melakukan tinjauan ekstensif terhadap literatur ilmiah mengenai AI dan menyatakan bahwa ia tidak menemukan bukti bahwa AI dapat dikendalikan dengan aman – dan meskipun terdapat pengendalian parsial, hal tersebut tidak akan cukup.

Dia menjelaskan: “Mengapa begitu banyak peneliti berasumsi bahwa masalah pengendalian AI dapat diselesaikan? Sejauh pengetahuan kami, tidak ada bukti mengenai hal itu, tidak ada bukti. Sebelum memulai upaya untuk membangun AI yang dapat dikendalikan, penting untuk menunjukkan bahwa masalah tersebut dapat diselesaikan.

“Hal ini, dikombinasikan dengan statistik yang menunjukkan bahwa pengembangan superintelligence AI hampir pasti, menunjukkan bahwa kita harus mendukung upaya keselamatan AI secara signifikan.”

Dia berpendapat bahwa kemampuan kita untuk menghasilkan perangkat lunak cerdas jauh melampaui kemampuan kita untuk mengontrol atau bahkan memverifikasinya. Setelah melakukan tinjauan literatur yang komprehensif, ia berpendapat bahwa sistem cerdas yang canggih tidak akan pernah bisa dikendalikan sepenuhnya sehingga akan selalu menghadirkan tingkat risiko tertentu, apa pun manfaat yang diberikannya. Ia percaya bahwa tujuan komunitas AI adalah meminimalkan risiko sekaligus memaksimalkan potensi manfaat.

Apa saja kendalanya?

AI (dan superintelligence), berbeda dari program lain dalam kemampuannya mempelajari perilaku baru, menyesuaikan kinerjanya, dan bertindak semi-otonom dalam situasi baru.

Salah satu permasalahan dalam membuat AI 'aman' adalah kemungkinan pengambilan keputusan dan kegagalan yang dilakukan oleh makhluk super cerdas ketika mereka menjadi lebih mampu tidak terbatas, sehingga terdapat banyak sekali masalah keamanan. Memprediksi masalah saja tidaklah mungkin dan memitigasinya melalui patch keamanan mungkin tidak cukup.

Pada saat yang sama, Yampolskiy menjelaskan, AI tidak dapat menjelaskan apa yang telah diputuskannya, dan/atau kita tidak dapat memahami penjelasan yang diberikan karena manusia tidak cukup pintar untuk memahami konsep yang diterapkan. Jika kita tidak memahami keputusan AI dan hanya memiliki 'kotak hitam', kita tidak dapat memahami masalahnya dan mengurangi kemungkinan terjadinya kecelakaan di masa depan.

Misalnya, sistem AI ditugaskan untuk mengambil keputusan di bidang layanan kesehatan, investasi, ketenagakerjaan, perbankan, dan keamanan, dan masih banyak lagi. Sistem seperti itu harus mampu menjelaskan bagaimana mereka mengambil keputusan, terutama untuk menunjukkan bahwa keputusan tersebut bebas dari bias.

Yampolskiy menjelaskan: “Jika kita terbiasa menerima jawaban AI tanpa penjelasan, pada dasarnya memperlakukannya seperti sistem Oracle, kita tidak akan dapat mengetahui apakah AI mulai memberikan jawaban yang salah atau manipulatif.”

Kendalikan yang tidak bisa dikendalikan

Ketika kemampuan AI meningkat, otonominya juga meningkat tetapi kendali kita terhadapnya menurun, jelas Yampolskiy, dan peningkatan otonomi sama dengan penurunan keselamatan.

Misalnya, agar superintelligence menghindari perolehan pengetahuan yang tidak akurat dan menghilangkan semua bias dari pemrogramnya, superintelligence dapat mengabaikan semua pengetahuan tersebut dan menemukan kembali/membuktikan semuanya dari awal, namun hal ini juga akan menghilangkan bias yang pro-manusia.

“Agen (manusia) yang kurang cerdas tidak dapat secara permanen mengendalikan agen yang lebih cerdas (ASI). Hal ini bukan karena kita mungkin gagal menemukan rancangan yang aman untuk kecerdasan super di antara semua rancangan yang ada, namun karena rancangan seperti itu tidak mungkin, dan tidak ada. “Superintelligence bukan berarti memberontak, melainkan tidak terkendali,” jelasnya.

“Umat manusia sedang menghadapi sebuah pilihan, apakah kita akan menjadi seperti bayi, dirawat tetapi tidak dapat mengendalikan diri kita sendiri, atau apakah kita akan menolak untuk memiliki wali yang membantu namun tetap memegang kendali dan bebas.”

Ia menyatakan bahwa titik ekuilibrium dapat ditemukan ketika kita mengorbankan sejumlah kemampuan tertentu demi mendapatkan sejumlah kendali, dengan mengorbankan penyediaan sistem dengan tingkat otonomi tertentu.

Menyelaraskan nilai-nilai kemanusiaan

Salah satu saran pengendalian adalah merancang mesin yang secara tepat mengikuti perintah manusia, namun Yampolskiy menunjukkan potensi konflik perintah, salah tafsir, atau penggunaan jahat.

Ia menjelaskan: “Manusia yang memegang kendali dapat menghasilkan perintah yang kontradiktif atau jelas-jelas berbahaya, sedangkan AI yang memegang kendali berarti manusia tidak akan menghasilkan perintah tersebut.”

Jika AI lebih berperan sebagai penasihat, maka ia dapat mengatasi masalah salah tafsir atas perintah langsung dan potensi perintah jahat, namun penulis berpendapat bahwa agar AI menjadi penasihat yang berguna, ia harus memiliki nilai-nilai unggul tersendiri.

“Sebagian besar peneliti keamanan AI mencari cara untuk menyelaraskan kecerdasan super masa depan dengan nilai-nilai kemanusiaan. AI yang selaras dengan nilai-nilai akan bias secara definisi, bias yang pro manusia, baik atau buruk tetap saja bias. Paradoks AI yang selaras dengan nilai adalah bahwa seseorang yang secara eksplisit memberi tahu sistem AI untuk melakukan sesuatu mungkin mendapat jawaban “tidak” sementara sistem mencoba melakukan apa yang sebenarnya diinginkan orang tersebut. Kemanusiaan dilindungi atau dihormati, tapi tidak keduanya,” jelasnya.

Minimalkan risiko

Untuk meminimalkan risiko AI, menurutnya AI perlu dimodifikasi dengan opsi 'undo', terbatas, transparan, dan mudah dipahami dalam bahasa manusia.

Ia menyarankan semua AI harus dikategorikan sebagai dapat dikendalikan atau tidak dapat dikendalikan, dan tidak ada satupun yang boleh diabaikan dan moratorium terbatas, dan bahkan larangan sebagian terhadap jenis teknologi AI tertentu harus dipertimbangkan.

Alih-alih berkecil hati, ia berkata: “Ini sebenarnya adalah alasan, bagi lebih banyak orang, untuk menggali lebih dalam dan meningkatkan upaya, serta mendanai penelitian Keselamatan dan Keamanan AI. Kita mungkin tidak akan pernah mencapai AI yang 100% aman, namun kita bisa menjadikan AI lebih aman sesuai dengan upaya kita, dan ini jauh lebih baik daripada tidak melakukan apa pun. Kita perlu menggunakan kesempatan ini dengan bijak.”



NewsRoom.id

Berita Terkait

Bisnis Obamacare Oscar Health Terus Berkembang seiring Kembalinya Trump
Hizbullah Menargetkan Kriot di Utara Haifa dan Membom Beberapa Pertemuan Pendudukan
Menurut Para Ilmuwan, Suplemen Populer Ini Sebenarnya Dapat Melindungi Terhadap Kanker
Mulai besok, lagu Indonesia Raya diputar setiap hari kerja di Gedung DPR dengan sikap sempurna
Warga Palestina menjadi martir, yang lainnya terluka dalam bentrokan dengan IOF di Tulkarem
Israel Menyerang Benteng Utama Hizbullah di Lebanon
Dari Garpu Tala hingga Penginderaan Kuantum: Bagaimana Resonator Nanomekanis Mengubah Teknologi
Kedutaan Besar AS di Irlandia Menghadapi Protes Solidaritas Palestina – NewsRoom.id

Berita Terkait

Kamis, 7 November 2024 - 23:31 WIB

Bisnis Obamacare Oscar Health Terus Berkembang seiring Kembalinya Trump

Kamis, 7 November 2024 - 23:00 WIB

Hizbullah Menargetkan Kriot di Utara Haifa dan Membom Beberapa Pertemuan Pendudukan

Kamis, 7 November 2024 - 22:29 WIB

Menurut Para Ilmuwan, Suplemen Populer Ini Sebenarnya Dapat Melindungi Terhadap Kanker

Kamis, 7 November 2024 - 21:57 WIB

Mulai besok, lagu Indonesia Raya diputar setiap hari kerja di Gedung DPR dengan sikap sempurna

Kamis, 7 November 2024 - 21:26 WIB

Warga Palestina menjadi martir, yang lainnya terluka dalam bentrokan dengan IOF di Tulkarem

Kamis, 7 November 2024 - 20:23 WIB

Dari Garpu Tala hingga Penginderaan Kuantum: Bagaimana Resonator Nanomekanis Mengubah Teknologi

Kamis, 7 November 2024 - 19:52 WIB

Kedutaan Besar AS di Irlandia Menghadapi Protes Solidaritas Palestina – NewsRoom.id

Kamis, 7 November 2024 - 19:21 WIB

Sekretariat Kabinet Republik Indonesia | Pusat Pengembangan Penerjemah Sosialisasikan Jabatan Fungsional Penerjemah

Berita Terbaru