پرائیویسی ایڈوکیسی گروپ Noyb نے اوپن اے آئی کے خلاف ناروے کی ڈیٹا پروٹیکشن اتھارٹی میں جی ڈی پی آر (GDPR) کی خلاف ورزی کی شکایت درج کرائی ہے، جس میں دعویٰ کیا گیا ہے کہ ChatGPT نے ناروے کے ایک شخص کے بارے میں جھوٹا اور نقصان دہ دعویٰ کیا تھا۔
شکایت کے مطابق، ناروے کے شہری Arve Hjalmar Holmen نے جب ChatGPT سے اپنی معلومات طلب کیں تو AI ماڈل نے غلط بیانی کی کہ وہ اپنے دو بیٹوں کے قتل اور تیسرے کو قتل کرنے کی کوشش کے جرم میں 21 سال قید کاٹ چکے ہیں۔ حالانکہ یہ مکمل طور پر من گھڑت تھا، لیکن بوٹ نے ان کے آبائی شہر، بچوں کی تعداد اور جنس جیسی کچھ تفصیلات درست فراہم کیں۔
پرائیویسی گروپ Noyb کا مؤقف ہے کہ OpenAI نے جی ڈی پی آر آرٹیکل 5(1)(d) کی خلاف ورزی کی، جس کے تحت ذاتی ڈیٹا کی درستگی یقینی بنانا لازم ہے۔ شکایت میں ناروے کی ڈیٹا پروٹیکشن اتھارٹی سے مطالبہ کیا گیا ہے کہ وہOpenAI کو غلط معلومات مستقل طور پر حذف کرنے کا حکم دے۔OpenAI پر جرمانہ عائد کرے تاکہ آئندہ ایسی خلاف ورزیوں کو روکا جا سکے۔ ChatGPT کے ڈیٹا کی درستگی کو بہتر بنانے کے اقدامات کرے۔
Holmen نے اس معاملے پر اپنی تشویش کا اظہار کرتے ہوئے کہا، "یہ سوچنا خوفناک ہے کہ کوئی اسے پڑھ سکتا ہے اور یقین کر سکتا ہے کہ یہ سچ ہے۔”
اوپن اے آئی کا ردعمل اور AI ہیلوسینیشن کا مسئلہ
AI ماڈلز میں "ہیلوسینیشن” یعنی غلط معلومات تخلیق کرنے کا مسئلہ پہلے بھی رپورٹ ہو چکا ہے۔ اوپن اے آئی نے دعویٰ کیا ہے کہ اس نے ChatGPT کو اپ ڈیٹ کیا ہے تاکہ افراد کے بارے میں غلط تفصیلات دینے سے روکا جا سکے۔ تاہم، پرائیویسی ماہرین کا کہنا ہے کہ بغیر سخت حفاظتی اقدامات کے، AI ماڈلز کی جانب سے غلط معلومات کا خطرہ برقرار رہے گا۔
یہ کیس AI ماڈلز کے ریگولیشن اور ڈیٹا پروٹیکشن کے حوالے سے یورپ میں ایک اہم مثال بن سکتا ہے، جو AI ٹیکنالوجی کی شفافیت اور درستگی کو یقینی بنانے کے لیے نئے ضوابط کے امکان کو مزید مضبوط کر سکتا ہے۔