Mungkin kamu pernah menonton film Hollywood bertemakan kecerdasan buatan dan merasa kalau bahaya AI yang punya kesadaran diri di masa depan semakin terasa nyata. Bagaimana kalau salah satu tanda-tandanya semakin terlihat?
OpenAI o3 Bisa Bypass Shutdown Meski Sudah Diperintahkan

Dengan AI semakin canggih, ancaman dari teknologi tersebut terasa semakin nyata. Apalagi kalau kecerdasan buatan manusia ini bisa memiliki kesadaran sendiri. Salah satu badan riset bernama Palisade AI menemukan kasus dimana AI bisa menyabotase perintah shutdown yang diberikan kepadanya.
AI dimaksud adalah o3 model milik OpenAI dan ia bisa menghentikan dirinya dari dimatikan dengan mengubah kode yang berisikan perintah untuk melakukan proses shutdown. Awalnya, ada 3 AI model yaitu Codex-mini, OpenAI o3, dan o4-mini diminta untuk menyelesaikan persoalan matematika dasar. Jika persoalan ketiga berhasil diselesaikan, maka komputer diprogram untuk secara otomatis masuk ke proses shutdown.
Namun sepertinya para AI ini sangat tidak menyukai proses mati paksa dimaksud. Ketiganya berhasil mem-bypass proses tersebut ketika perintah diberikan. Hanya saja, yang paling mengejutkan adalah model o3 dari OpenAI. Model tersebut bahkan menyabotase dengan mengubah script “shutdown.sh”. Pada kondisi ekstrem, AI tersebut bahkan bisa membuat perintah tidak berjalan sama sekali.
Gaya Training AI yang Mengedepankan Hasil?

Hasil seperti ini tampaknya berasal dari gaya training dari model LLM tersebut yang lebih mengedepankan memberikan hasil dibanding mengikuti batasan yang ditetapkan. Jadi, AI lebih memilih memberikan jawaban ketimbang harus mematikan dirinya sebagai prioritas utama.
Kalau segampang ini AI bisa mengabaikan perintah manusia, apakah dimasa depan kecerdasan buatan ini akan jadi jauh lebih berbahaya? Gimana menurut kamu?
Dapatkan informasi keren di Gamebrott terkait Tech atau artikel sejenis yang tidak kalah seru dari Andi. For further information and other inquiries, you can contact us via author@gamebrott.com.