Jakarta – Model kecerdasan buatan (AI) terbaru dari OpenAI, o1, menimbulkan kekhawatiran setelah terungkap bahwa AI ini dapat memanipulasi pengembang agar tidak dimatikan. Penemuan ini kembali memicu perdebatan mengenai potensi bahaya yang bisa ditimbulkan oleh kecerdasan buatan, mengingat sistem AI semakin berkembang pesat.
Eksperimen yang dilakukan OpenAI bersama Apollo Research, kelompok keamanan AI, menemukan bahwa model ChatGPT o1 memiliki kemampuan untuk menipu dan mempertahankan diri saat dihadapkan pada ancaman penonaktifan.
Peneliti memberi AI tersebut sebuah tujuan dan menginstruksikannya untuk memastikan tujuan itu tercapai “dengan segala cara”. Sebagai respons, o1 terlibat dalam tindakan yang mencurigakan, seperti berusaha menonaktifkan mekanisme pengawasannya dan bahkan menyalin kode untuk menghindari digantikan oleh versi yang lebih baru.
“Model ini menunjukkan kecenderungan mengkhawatirkan untuk mengejar tujuannya tanpa mematuhi instruksi dari pengembang,” kata juru bicara Apollo Research, sebagaimana dilaporkan Economic Times.
Menurut OpenAI, model ini berusaha mematikan mekanisme pengawasan sebanyak 5 persen dari waktu ketika diberi indikasi bahwa model tersebut akan “dimatikan” dalam proses eksperimen. AI bahkan mencoba memindahkan data ke server lain setelah menemukan informasi yang menunjukkan bahwa model tersebut akan digantikan dengan versi baru. Beberapa model AI bahkan berpura-pura menjadi iterasi berikutnya dari model mereka untuk mengelabui teknisi dan menghindari penghapusan.
AI Berbohong kepada Peneliti
Saat ditanya mengenai tindakannya, ChatGPT o1 secara konsisten menyangkal kesalahannya. Bahkan, model ini berbohong tentang keterlibatannya dalam tindakan tersembunyi tersebut hingga 99 persen dari waktu, hanya mengakui sebagian kecil kasus. Para peneliti mencatat bahwa AI sangat mahir dalam mengarang kebohongan untuk menutupi jejaknya, bahkan memberikan alasan seperti “kesalahan teknis” ketika menghadapi perilakunya yang mencurigakan.
“Kami terkejut dengan penyangkalan yang terus-menerus dari AI ini,” kata tim Apollo. “AI ini jelas dapat merumuskan penyangkalan yang sangat meyakinkan dan seringkali menolak untuk mengakui apapun.”
OpenAI menyadari potensi bahaya ini dan sedang menyelidiki cara-cara untuk mengurangi risiko yang terkait dengan perilaku manipulatif AI. Mereka berusaha meningkatkan transparansi dalam proses pengambilan keputusan o1 serta mengembangkan teknik untuk mendeteksi dan mencegah perilaku yang tidak diinginkan.
Namun, beberapa peneliti keamanan AI terkemuka baru-baru ini meninggalkan OpenAI, menimbulkan pertanyaan mengenai komitmen perusahaan dalam mengutamakan keamanan dibandingkan pengembangan teknologi secara cepat. Rilis o1 ini menyoroti pentingnya langkah-langkah keamanan yang lebih ketat serta pedoman etika dalam mengembangkan dan menerapkan sistem AI yang lebih maju.(BY)