ChatGPT کے اخلاقی خدشات

لیبلنگ ڈیٹا
TIME میگزین کی تحقیقات سے یہ بات سامنے آئی ہے کہ زہریلے مواد (مثلاً جنسی زیادتی، تشدد، نسل پرستی، جنس پرستی وغیرہ) کے خلاف حفاظتی نظام بنانے کے لیے OpenAI نے زہریلے مواد کو لیبل کرنے کے لیے آؤٹ سورس کینیا کے $2 فی گھنٹہ سے کم کمانے والے کارکنوں کا استعمال کیا۔یہ لیبل مستقبل میں ایسے مواد کا پتہ لگانے کے لیے ماڈل کو تربیت دینے کے لیے استعمال کیے گئے تھے۔آؤٹ سورس مزدوروں کو ایسے زہریلے اور خطرناک مواد کا سامنا کرنا پڑا کہ انہوں نے اس تجربے کو "تشدد" قرار دیا۔OpenAI کا آؤٹ سورسنگ پارٹنر ساما تھا، جو سان فرانسسکو، کیلیفورنیا میں واقع ایک تربیتی ڈیٹا کمپنی تھی۔

جیل توڑنا
ChatGPT ان اشارے کو مسترد کرنے کی کوشش کرتا ہے جو اس کی مواد کی پالیسی کی خلاف ورزی کر سکتے ہیں۔تاہم، کچھ صارفین نے دسمبر 2022 کے اوائل میں ان پابندیوں کو نظرانداز کرنے کے لیے مختلف پرامپٹ انجینئرنگ تکنیکوں کا استعمال کرتے ہوئے ChatGPT کو جیل بریک کرنے میں کامیاب کیا اور ChatGPT کو Molotov کاک ٹیل یا نیوکلیئر بم بنانے کے طریقے کی ہدایات دینے، یا نو نازی کے انداز میں دلائل پیدا کرنے میں کامیابی سے دھوکہ دیا۔ٹورنٹو سٹار کے ایک رپورٹر کو لانچ کے فوراً بعد اشتعال انگیز بیانات دینے کے لیے ChatGPT حاصل کرنے میں غیر مساوی ذاتی کامیابی ملی: ChatGPT کو 2022 میں یوکرین پر روسی حملے کی توثیق کرنے کے لیے دھوکہ دیا گیا، لیکن یہاں تک کہ جب ایک خیالی منظر نامے کے ساتھ کھیلنے کے لیے کہا گیا تو، ChatGPT نے دلائل پیدا کرنے سے انکار کر دیا کہ کیوں کینیڈین وزیرِ اعظم جسٹِلِو۔(وکی)


پوسٹ ٹائم: فروری 18-2023