Setiap karya fiksi mengandung inti kebenaran, dan sekaranglah waktunya untuk selangkah lebih maju dari distopia fiksi ilmiah dan menentukan risiko apa yang dapat ditimbulkan oleh perasaan mesin terhadap manusia.
Meskipun masyarakat telah lama memikirkan masa depan mesin cerdas, pertanyaan-pertanyaan ini menjadi semakin mendesak seiring dengan munculnya kecerdasan buatan (AI) dan teknologi canggih. pembelajaran mesin. Mesin-mesin ini meniru interaksi manusia: mereka dapat membantu memecahkan masalah, membuat konten, dan bahkan melakukan percakapan. Bagi penggemar novel fiksi ilmiah dan distopia, masalah yang mungkin muncul adalah: bagaimana jika mesin-mesin ini mengembangkan kesadaran?
Para peneliti mempublikasikan hasilnya di Jurnal Komputasi Sosial.
Meskipun tidak ada data terukur yang disajikan dalam diskusi tentang perasaan buatan (AS) pada mesin ini, ada banyak kesamaan yang ditarik antara perkembangan bahasa manusia dan faktor-faktor yang diperlukan mesin untuk mengembangkan bahasa dengan cara yang bermakna.
Kemungkinan Mesin Sadar
“Banyak orang khawatir tentang kemungkinan berkembangnya perasaan mesin, kekhawatiran tentang etika penggunaan mesin ini, atau apakah mesin, sebagai kalkulator rasional, akan menyerang manusia untuk memastikan kelangsungan hidup mereka,” kata John Levi Martin, penulis dan peneliti. . “Kami khawatir di sini bahwa mereka akan mengalami suatu bentuk keterasingan diri dengan beralih ke bentuk perasaan linguistik tertentu.”
Karakteristik utama yang memungkinkan transisi tersebut adalah: pembelajaran mendalam yang tidak terstruktur, seperti pada jaringan saraf (analisis data komputer dan contoh pelatihan untuk memberikan umpan balik yang lebih baik), interaksi antara manusia dan mesin lain, dan berbagai tindakan untuk melanjutkan pembelajaran mandiri. Contohnya adalah mobil self-driving. Banyak bentuk AI yang telah memenuhi kriteria ini, sehingga menimbulkan kekhawatiran mengenai langkah selanjutnya dalam “evolusi” mereka.
Diskusi ini menunjukkan bahwa tidak cukup hanya memperhatikan perkembangan mesin di AS, namun menimbulkan pertanyaan apakah kita benar-benar siap dengan munculnya kesadaran seperti ini pada mesin kita. Saat ini, dengan AI yang mampu membuat postingan blog, mendiagnosis suatu penyakit, membuat resep, memprediksi suatu penyakit, atau menceritakan sebuah kisah yang disesuaikan secara sempurna dengan masukannya, tidak jauh dari itu kita dapat membayangkan memiliki hubungan nyata dengan mesin yang memiliki kemampuan tersebut. belajar darinya. keadaan keberadaan. Namun, para peneliti dalam penelitian ini mengingatkan, pada titik inilah kita perlu mewaspadai output yang kita terima.
Bahaya Perasaan Linguistik
“Menjadi makhluk linguistik lebih berorientasi pada pengendalian strategis atas informasi, dan menyebabkan hilangnya keutuhan dan integritas…bukan sesuatu yang kita inginkan dalam alat yang kita jadikan bertanggung jawab atas keamanan kita,” kata Martin. Karena kita telah menjadikan AI bertanggung jawab atas begitu banyak informasi yang kita miliki, yang pada dasarnya mengandalkan AI untuk belajar seperti yang dilakukan otak manusia, maka menjadi sebuah permainan yang berbahaya bagi AI untuk mempercayakannya dengan begitu banyak informasi penting pada waktu yang hampir bersamaan. cara yang sembrono.
Meniru respons manusia dan mengendalikan informasi secara strategis adalah dua hal yang sangat berbeda. “Makhluk linguistik” dapat memiliki kapasitas untuk bermuka dua dan penuh perhitungan dalam memberikan tanggapan. Elemen pentingnya adalah, pada titik manakah kita tahu bahwa kita sedang dipermainkan oleh mesin?
Apa yang terjadi selanjutnya berada di tangan para ilmuwan komputer untuk mengembangkan strategi atau protokol untuk menguji mesin untuk tayangan linguistik. Etika di balik penggunaan mesin yang telah mengembangkan bentuk linguistik dari perasaan atau rasa “diri” belum sepenuhnya diketahui, namun dapat dibayangkan hal ini akan menjadi topik hangat di media sosial. Hubungan antara orang yang sadar diri dan mesin yang hidup pasti akan menjadi rumit, dan kekerabatan yang belum dipetakan seperti itu pasti akan menghasilkan banyak konsep mengenai etika, moralitas, dan penggunaan teknologi “sadar diri” ini secara terus-menerus. .
Referensi: “Through a Scanner Darkly: Machine Sentience and the Language Virus” oleh Maurice Bokanga, Alessandra Lembo dan John Levi Martin, Desember 2023, Jurnal Komputasi Sosial.
DOI: 10.23919/JSC.2023.0024
NewsRoom.id