Artificial Intelligence saat ini bukan tanpa celah sama sekali. Sudah banyak kasus kalau maraknya error masih kerap terjadi. Lantas apakah ada solusi yang dapat ditempuh untuk mengurangi atau bahkan mengeliminasi masalah yang melibatkan keamanan dan keselamatan? OpenAI beranggapan kalau perlu ada metode yang lebih bisa diandalkan ketimbang bergantung dengan software saja.
OpenAI Sebut Perlu Ada Mekanisme ‘Kill Switch’ untuk AI dalam Bentuk Hardware

Berbicara di AI Infra Summit di Santa Clara, Richard Ho sebagai kepala bagian hardware di OpenAI mengatakan kalau mekanisme pengamanan yang diterapkan di AI tidak boleh semata-mata bergantung pada software saja. Memang, selama ini mereka telah memasang guardrail yang berperan untuk menjaga agar AI tidak bergerak menyimpang dari perintah.
Namun, Richard berpendapat kalau tindakan keamanan selama ini hanya bergantung pada software. Ia berasumsi kalau hardware yang digunakan sudah aman dan akan melakukan hal yang diperlukan. Jadi ketika terjadi kesalahan fatal, software ini akan beranggapan kamu akan mencabut daya secara paksa ketika terjadi yang tidak-tidak.

Menurutnya, model AI sebenarnya sangat licik. Sehingga sebagai peracik hardware, Richard ingin mengingatkan kalau kesalahan fatal bisa dikurangi jika mekanisme kill switch diaplikasikan secara hardware.
Dengan begitu, ketika terjadi anomali maka bisa langsung dimitigasi oleh AI cluster-nya. Bagi Richard, saat ini belum ada benchmark yang bagus untuk arsitektur dan hardware yang bisa melakukan observasi dan tidak hanya sebatas sebagai debug tool. hardware harus bisa digunakan untuk memonitor hardware.
Dapatkan informasi keren di Gamebrott terkait Tech atau artikel sejenis yang tidak kalah seru dari Andi. For further information and other inquiries, you can contact us via author@gamebrott.com.

















