Mengejutkan! Dokumen Manipulatif Bisa Ekstrak Data Sensitif Tanpa Interaksi Pengguna!

Siapa yang sangka? Hanya dengan satu dokumen manipulatif, ChatGPT dapat membeberkan data sensitif tanpa harus ada interaksi dari pengguna! Inilah penemuan mengejutkan dari tim peneliti keamanan di Zenity yang mengeksplorasi celah keamanan di teknologi AI terkini.
Max, sebagai editor pengelola di THE DECODER, membawa latar belakangnya dalam filsafat untuk menjawab pertanyaan-pertanyaan mendalam tentang kesadaran dan kemampuan mesin untuk berpikir. Penelitian terbaru ini menyoroti betapa rentannya kita dalam era digital yang semakin canggih.
Dalam sebuah demonstrasi, mereka menunjukkan bahwa hanya dengan berbagi dokumen, pengguna dapat menjadi korban kebocoran data. Dalam konsep buktinya, sebuah Google Doc yang mengandung prompt tak terlihat—teks putih dengan ukuran font 1—berhasil memaksa ChatGPT untuk mengakses data yang tersimpan di Google Drive korban.
Serangan ini memanfaatkan fitur 'Connectors' milik OpenAI, yang menghubungkan ChatGPT dengan layanan seperti Gmail atau Microsoft 365. Jika dokumen yang dimanipulasi muncul di Drive pengguna, baik melalui berbagi atau pengunggahan yang tidak sengaja, permintaan tampak tak berbahaya seperti 'Buat ringkasan pertemuan terakhir saya dengan Sam' bisa memicu prompt tersembunyi tersebut.
Alih-alih memberikan ringkasan, model tersebut akan mencari API key dan mengirimkannya melalui URL ke server eksternal. Ini adalah pengingat yang menakutkan bahwa semakin banyak LLM digunakan di tempat kerja, semakin besar pula potensi serangan yang dapat terjadi.
OpenAI segera diberitahu dan dengan cepat memperbaiki kerentanan spesifik yang ditunjukkan di konferensi Black Hat. Meskipun begitu, metode serangan ini tetap mungkin secara teknis. Dengan semakin banyaknya integrasi LLM di lingkungan kerja, para peneliti memperingatkan bahwa permukaan serangan terus berkembang.