Tim Superalignment OpenAI, yang bertugas mengendalikan bahaya eksistensi sistem AI manusia super, dilaporkan telah dibubarkan, menurut Kabel pada hari Jumat. Berita ini muncul hanya beberapa hari setelah pendiri tim, Ilya Sutskever dan Jan Leike, dan meninggalkan perusahaan pada saat yang sama.
Wired melaporkan bahwa tim Superalignment OpenAI, yang pertama kali diluncurkan pada Juli 2023 untuk mencegah sistem AI manusia super di masa depan menjadi jahat, sudah tidak ada lagi. Laporan tersebut menyatakan bahwa pekerjaan kelompok tersebut akan diserap ke dalam upaya penelitian OpenAI lainnya. Penelitian mengenai risiko yang terkait dengan model AI yang lebih kuat kini akan dipimpin oleh salah satu pendiri OpenAI, John Schulman, menurut Wired. Sutskever dan Leike adalah dua ilmuwan terkemuka OpenAI yang berfokus pada risiko AI.
Leike memposting a benang panjang di X Friday secara samar menjelaskan mengapa dia meninggalkan OpenAI. Dia mengatakan dia telah berjuang dengan kepemimpinan OpenAI mengenai nilai-nilai inti selama beberapa waktu, tetapi mencapai titik puncaknya minggu ini. Leike mencatat bahwa tim Superalignment telah “berlayar melawan angin,” berjuang untuk mendapatkan komputasi yang cukup untuk penelitian penting. Menurutnya, OpenAI perlu lebih fokus pada keamanan, keselamatan, dan keselarasan.
“Saat ini, kami tidak memiliki solusi untuk mengarahkan atau mengendalikan AI yang berpotensi menjadi supercerdas, dan mencegahnya menjadi berbahaya,” kata tim Superalignment dalam postingan blog OpenAI pada saat itu. diluncurkan pada bulan Juli. “Tetapi manusia tidak akan mampu mengawasi sistem AI yang lebih pintar dari kita, sehingga teknik penyelarasan kita saat ini tidak akan mencapai superintelligence. Kita membutuhkan terobosan ilmiah dan teknis baru.”
Saat ini tidak jelas apakah perhatian yang sama akan diberikan pada terobosan teknis. Tidak diragukan lagi, ada tim lain di OpenAI yang berfokus pada keselamatan. Tim Schulman, yang dilaporkan mengambil tanggung jawab Superalignment, saat ini bertanggung jawab untuk menyempurnakan model AI setelah pelatihan. Namun, Superalignment berfokus secara khusus pada dampak paling parah dari AI yang berbahaya. Seperti yang dicatat Gizmodo kemarin, beberapa pendukung keamanan AI OpenAI yang paling vokal telah melakukan hal tersebut mengundurkan diri atau dipecat dalam beberapa bulan terakhir.
Awal tahun ini, kelompok tersebut merilis makalah penelitian penting tentang mengontrol model AI besar dengan model AI yang lebih kecil—Dianggap sebagai langkah pertama menuju pengendalian sistem AI supercerdas. Tidak jelas siapa yang akan mengambil langkah selanjutnya pada proyek ini di OpenAI.
OpenAI tidak segera menanggapi permintaan komentar Gizmodo.
Startup AI Sam Altman dimulai minggu ini oleh meluncurkan GPT-4 Omni, model Frontier terbaru perusahaan ini menampilkan respons latensi sangat rendah yang terdengar lebih manusiawi dari sebelumnya. Banyak staf OpenAI berkomentar tentang bagaimana model AI terbarunya lebih mirip dengan sesuatu dari fiksi ilmiah, khususnya film Dia.
NewsRoom.id