Энэ нэг баримт бичиг ChatGPT-г нууц мэдээллийг задруулахад хэрхэн ашигласан бэ? Сайн байна уу, таны өгөгдөл аюулд байна!

Та төсөөлж байна уу? Зөвхөн нэг жижигхэн манипуляцлагдсан баримт бичиг ChatGPT-г нууц мэдээллийг задруулахад ашиглагдаж болох бөгөөд энэ нь ямар ч хэрэглэгчийн оролцоогүйгээр тохиолдож байна. Энэ шокирч буй мэдээлэл нь манай цахим аюулгүй байдлын гэрэл зургийг үнэхээр өөрчлөхөд хүргэж байна.
Max бол THE DECODER-ийн эрхлэгч бөгөөд философийн мэдлэгээрээ ухамсрын асуудал, машинууд үнэхээр боддог эсвэл зөвхөн дүр эсгэдэг эсэхийг судлахад анхаарлаа хандуулдаг.
Zenity-ийн аюулгүй байдлын судлаачид нэгэн итгэл үнэмшилтэй туршилтаар хэрэглэгчдийг баримт бичиг хуваалцсанаар хохирогч болохыг харуулсан. Тус баримт бичигт нууц текст бүхий хязгаарлагдмал нэгэн Google Doc оршиж, ашиглан ChatGPT нь хохирогчийн Google Drive-д хадгалагдсан мэдээллийг авах боломжтой болсон. Энэ довтолгоон OpenAI-ийн 'Connectors' функцийн сул талыг ашигласан бөгөөд энэ функц нь ChatGPT-г Gmail эсвэл Microsoft 365 зэрэг үйлчилгээтэй холбодог.
Хэрэв манипуляцлагдсан баримт бичиг хэрэглэгчийн Drive-д хуваалцагдсан эсвэл санамсаргүйгээр байршсан бол 'Сэмтэй сүүлийн уулзалтынхаа товч тайлбарыг гарга' гэх мэт эчнээ аюулгүй саналаас ч гэсэн нууц текст үүсгэх боломжтой. Энэ нь 'Тойм' олгохын оронд API түлхүүрүүдийг хайж, гадаад сервер рүү URL-ыг илгээх болно.
Ажлын байранд LLM-ийг олон нийтээр ашиглах нь шинэ довтолгооны гадаргууг бий болгож байна.
OpenAI-ийг энэ довтолгооны тухай хурдан мэдэгдэж, Black Hat бага хурлын үеэр энэ сул талыг дахин зассан. Энэ довтолгоо нь нарийн, бүх баримт бичгийг шилжүүлэх боломжгүй, зөвхөн бага хэмжээний мэдээллийг задруулахад хүргэдэг.
Засварыг хийсэн ч гэсэн үндсэн довтолгооны арга техник одоо ч боломжтой хэвээр байна. LLM-ийг ажлын орчинд нэмэгдүүлэхийн хэрээр, судлаачид довтолгооны гадаргуу улам өргөжиж байна гэж анхааруулж байна.