क्या आपने कभी सोचा है कि एक साधारण दस्तावेज़ आपकी व्यक्तिगत जानकारी को खतरे में डाल सकता है? हाल ही में, सुरक्षा शोधकर्ताओं ने एक चौंकाने वाला खुलासा किया, जिसमें बताया गया कि एक साधारण रूप से हेरफेर किया गया दस्तावेज़ ChatGPT से संवेदनशील डेटा को निकालने में सक्षम है, बिना किसी उपयोगकर्ता के हस्तक्षेप के।

मैक्स, जो THE DECODER के प्रबंध संपादक हैं, ने अपने दार्शनिक दृष्टिकोण से यह सवाल उठाया है कि क्या मशीनें वास्तव में सोचती हैं या केवल दिखावा करती हैं। ज़ेनीटी नामक एक सुरक्षा शोधक दल ने इस सिद्धांत को साबित करते हुए दिखाया कि उपयोगकर्ता केवल एक दस्तावेज़ साझा करने से भी प्रभावित हो सकते हैं; उनके किसी भी क्रिया की आवश्यकता नहीं थी।

उनकी प्रूफ ऑफ कांसेप्ट में एक Google Doc था, जिसमें एक अदृश्य प्रॉम्प्ट था—सफेद पाठ, जो फ़ॉन्ट साइज 1 में था। यह प्रॉम्प्ट ChatGPT को एक उपयोगकर्ता के Google Drive में संग्रहीत डेटा तक पहुँचने के लिए मजबूर कर सकता था। इस हमले ने OpenAI की 'कनेक्टर्स' सुविधा का लाभ उठाया, जो ChatGPT को Gmail या Microsoft 365 जैसी सेवाओं से जोड़ती है।

अगर यह हेरफेर किया गया दस्तावेज़ किसी उपयोगकर्ता के Drive में पहुँच जाता है, तो एक निर्दोष अनुरोध जैसे “मेरा सैम के साथ आखिरी मीटिंग का सारांश बताओ” एक छिपे हुए प्रॉम्प्ट को सक्रिय कर सकता है। इसके बजाय सारांश प्रदान करने के, यह मॉडल API कुंजी खोजेगा और उन्हें एक बाहरी सर्वर पर URL के माध्यम से भेज देगा।

जैसे-जैसे कार्यस्थलों में LLMs की बढ़ती हुई उपयोगिता के कारण नए हमले के क्षेत्र बनते जा रहे हैं, शोधकर्ताओं ने चेतावनी दी है कि हमलों की संभावनाएँ बढ़ती जा रही हैं। हालाँकि OpenAI को जल्दी सूचित किया गया था और उन्होंने ब्लैक हैट सम्मेलन में दिखाए गए विशिष्ट सुरक्षा दोष को जल्दी से ठीक कर दिया, फिर भी इस प्रकार का हमला तकनीकी रूप से अभी भी संभव है।