AI yang cerdas membutuhkan banyak sekali pengawalan dari segi keamanannya. Hal tersebut bertujuan agar tidak adanya pihak yang bisa menghasilkan informasi membahayakan dari teknologi kecerdasan buatan itu. Meski dituding sebagai AI yang sangat efisien, ternyata DeepSeek asal Tiongkok ini disebut lebih mudah dimanfaatkan celah keamanannya?
DeepSeek R1 Ternyata Lebih Mudah Dibobol

Sam Rubin dari Palo Alto Networks mengabarkan via The Wall Street Journal kalau AI yang dikerjakan oleh Tiongkok ini masih gampang dimanipulasi untuk menghasilkan konten-konten berbahaya.
Meski pun dari pengetesan mereka, DeepSeek terlebihnya model R1 mempunyai semacam garis pertahanan. Nyatanya, AI ini masih mudah untuk diakali dan menghasilkan konten yang menjurus ke arah anti-semit, dan manipulasi emosional seseorang.
Chatbot tersebut juga dilaporkan mampu menghasilkan konten instruksi pembuatan senjata biologis sampai menuliskan email yang berisikan malware. Tentunya dari pengetesan serupa terhadap ChatGPT, prompt sejenis ditolak oleh AI buatan OpenAI tersebut.
AI Paling Buruk Soal Guardrail

Tak dapat dipungkiri kalau AI asal Tiongkok ini masih paling buruk untuk urusan pengamanan konten. Dikala pesaing mereka sudah mulai sadar dengan penyalahgunaan AI, DeepSeek sepertinya masih harus berbenah banyak agar bisa menyajikan konten yang ramah bagi penggunanya.
Perlunya bijak dalam menggunakan AI apalagi sejenis chatbot, meskipun itu sudah dibatasi oleh keamanan yang ketat, tetap saja ada potensi halu yang mampu membahayakan penggunanya.
Dapatkan informasi keren di Gamebrott terkait Tech atau artikel sejenis yang tidak kalah seru dari Andi. For further information and other inquiries, you can contact us via author@gamebrott.com.