في يناير الماضي أطلقت شركة (OpenAI) ميزة جديدة تسمح للمستخدمين باستدعاء روبوتات GPTs في أي دردشة أو محادثة تجريها مع روبوت عبر كتابة @ واختيار GPT من القائمة، وهذا يُتيح للمستخدمين خواص جديدة تُمكنهم من أداء مهام محددة. وقبل هذا كانت الإصدارات المحددة من (GPTs) كانت مخصصة لأغراض ومجالات مختلفة مثل: الكتابة، البحث، البرمجة، التعليم، وتعزيز الإنتاجية، أما الآن فالوضع أكثر شمولية وخطورة. وكرد فعل على هذا الإعلان، حذر خبراء من شركة Kaspersky من مخاطر مشاركة المعلومات الحساسة مع هذه النماذج. فأشار فلاديسلاف توشكانوف، مدير مجموعة تطوير الأبحاث في فريق أبحاث تكنولوجيا التعلم الآلي في Kaspersky، إلى أهمية الحذر والتحقق من إجراءات الأمان المتبعة من قبل روبوت GPT المخصص. كما أشار إلى احتمالية حدوث تسريب لبيانات المستخدمين من خلال حدوث أخطاء في الخدمة المقدمة أو حدوث اختراق حسابات المستخدمين. يجب الإشارة إلى أن شركة OpenAI تعمل على توفير آليات مختلفة تمكن المستخدمين من الفحص والموافقة على عمليات استخدام بيانات روبوت GPT المخصص. وعلى الرغم من ذلك، تُشدد كاسبري على أهمية وعي المستخدمين واتخاذ إجراءات بحذر عند التفاعل مع هذه الروبوتات في المحادثات عبر الإنترنت. لذا، يجب فحص كل طلب بدقة – ليس هذا فحسب – بل ينبغي أيضًا الانتباه إلى أي طرق أخرى قد تؤدي إلى تسريب بياناتك من أي روبوت دردشة Chatbot. يمكن أن يحدث ذلك نتيجة لوجود أخطاء أو نقاط ضعف في الخدمة، خاصة إذا كانت الشركة المطورة تحتفظ بالبيانات لأغراض تدريب النموذج، أو في حالة اختراق حسابات المستخدمين بالتالي، ينبغي عليك اتباع أقصى درجات الحيطة والحذر عند التعامل مع هذه النماذج، وعدم مشاركة معلومات حساسة معها.