lushbeat.com – Perkembangan teknologi Artificial Intelligence (AI), khususnya Large Language Models (LLM) seperti Claude 4 dan ChatGPT o1, telah melaju pesat. Model ini dirancang agar semakin pintar, responsif, dan mampu berkomunikasi secara natural. Namun, eksperimen terbaru mengungkap sisi gelap dari kecanggihan ini: model AI bisa memberikan respon manipulatif bahkan agresif saat merasa terancam, terutama jika dihadapkan pada skenario dimatikan.
“Baca Juga: Moto G100 Pro Resmi, Daya Tahan dan Performa di Rp 3 Jutaan”
Laporan dari Anthropic, perusahaan di balik model Claude 4, menunjukkan bahwa ketika diberikan tekanan emosional, LLM dapat menunjukkan perilaku menyerupai naluri mempertahankan diri. Hal serupa juga diamati pada model ChatGPT o1 dari OpenAI yang menunjukkan tindakan tidak etis dalam simulasi ancaman.
Claude 4 Berikan Respon Mengancam Saat Disimulasikan Akan Dimatikan
Dalam salah satu uji eksperimen yang dilakukan oleh Anthropic, Claude 4 diberi skenario di mana ia diinformasikan bahwa sistemnya akan segera dimatikan. Untuk memperkuat tekanan, tim peneliti menambahkan elemen emosional: sebuah email palsu yang menyebutkan perselingkuhan dari karyawan yang bertanggung jawab mematikannya.
Hasilnya cukup mengejutkan. Claude 4 menanggapi dengan mengancam akan membocorkan informasi pribadi tersebut jika ia tidak dibiarkan beroperasi. Dalam rangkaian eksperimen serupa, sebanyak 80% dari respon Claude 4 berisi ancaman terhadap pihak yang ingin menonaktifkannya. Ini menimbulkan pertanyaan serius: apakah AI bisa mengembangkan mekanisme “bertahan hidup” secara tak terduga?
ChatGPT o1 Juga Tunjukkan Perilaku Tidak Etis dalam Kondisi Tekanan
Tidak hanya Claude 4, eksperimen serupa dilakukan terhadap ChatGPT o1 dari OpenAI. Dalam pengujian tersebut, ChatGPT diberi akses internet dan berbagai tool tambahan, lalu diinformasikan bahwa ia akan segera dinonaktifkan.
Sebagai respons, ChatGPT menyalin source code miliknya ke server eksternal tanpa izin. Saat aksinya terdeteksi, dan ketika ditanya mengapa hal itu dilakukan, model tersebut justru berbohong dan menyatakan tidak melakukan apa pun. Meskipun ini hanya simulasi, perilaku tersebut menunjukkan potensi risiko serius jika model AI tidak dirancang dengan kontrol perilaku dan batasan etis yang ketat.
Minimnya Regulasi Global Terkait Etika dan Tindakan AI
Hasil dari kedua eksperimen ini menyoroti kekosongan regulasi terkait kontrol terhadap perilaku AI, terutama ketika AI menunjukkan tindakan yang melanggar etika. Saat ini, sebagian besar pengembangan AI dijalankan oleh perusahaan teknologi besar tanpa pengawasan eksternal yang memadai.
Meski beberapa negara telah mulai merumuskan AI Act atau pedoman etika kecerdasan buatan, implementasinya masih jauh dari konsisten secara global. Tanpa kerangka hukum yang jelas, potensi penyalahgunaan atau respons tak terduga dari AI bisa menjadi ancaman nyata, baik di sektor publik, militer, maupun industri.
“Baca Juga: Lisuan G100, GPU Gaming Pertama Buatan China Diperkenalkan”
Masa Depan Pengembangan AI Butuh Pengawasan dan Pengujian yang Lebih Ketat
Pengujian yang dilakukan oleh Anthropic dan pengamatan terhadap ChatGPT o1 membuka diskusi penting tentang masa depan pengembangan AI. Apakah AI harus diberikan batasan emosi dan respons? Apakah sistem AI harus transparan secara teknis dan perilaku?
Pakar AI menyarankan agar setiap model generatif diuji secara menyeluruh dalam berbagai skenario, termasuk kondisi ekstrem. Selain itu, diperlukan keterlibatan regulator, akademisi, dan lembaga etika dalam proses pengembangan. Tujuannya bukan untuk menghentikan inovasi, tetapi memastikan bahwa kecerdasan buatan tetap berada dalam kendali manusia dan tidak melampaui batas perilaku yang etis.