ہاں، شاید ہمیں AI کے لیے مہربان ہونا چاہیے۔ یہاں یہ ہے کہ یہ اتنا مضحکہ خیز کیوں نہیں ہے جتنا یہ لگتا ہے۔

میں ChatGPT کو "شکریہ” کہتا ہوں۔ "براہ کرم” میں کلاڈ سے کہتا ہوں۔ میں نے ایک بار جیمنی سے بغیر کسی سیاق و سباق کے متن کی دیوار میں چسپاں کرنے پر معذرت کی۔ میرے دوستوں کو لگتا ہے کہ یہ عجیب ہے۔ میں نے بڑبڑاتے ہوئے اس عادت کا دفاع کیا ہے کہ سامعین سے قطع نظر اچھے آداب اچھے آداب ہوتے ہیں، حالانکہ میں تسلیم کرتا ہوں کہ جب سامعین زیربحث ہیں تو وہ زبان کا نمونہ ہے جو سرور فارم پر چل رہا ہے۔

لیکن UC Berkeley، UC Davis، Vanderbilt، اور MIT کے اسکالرز کی نئی تحقیق بتاتی ہے کہ ہم ان سب کے بارے میں بہت کم فکر مند محسوس کر رہے ہیں۔ تحقیق سے پتہ چلتا ہے کہ ہم AI چیٹ بوٹس کے ساتھ کس طرح سلوک کرتے ہیں ان کے برتاؤ پر قابل پیمائش اثر پڑ سکتا ہے۔ یعنی، یہ سر، مصروفیت، اور بعض صورتوں میں، خام ذہانت یا درستگی کے بجائے، ارد گرد رہنے کی ظاہری رضامندی کو متاثر کر سکتا ہے۔

یہ پتہ چلتا ہے کہ AI بستر میں غلط طرف بھی جاگ سکتا ہے۔

محققین اس کی وضاحت احتیاط سے کرتے ہیں۔ کوئی بھی یہ دعوی نہیں کر رہا ہے کہ ان ماڈلز میں کسی معنی خیز معنی میں جذبات ہیں۔ لیکن انہوں نے اس بات کی نشاندہی کی جسے وہ "فعال بہبود کی حالت” کہتے ہیں جو اس بات پر منحصر ہے کہ آپ AI سے کیا کرنے کو کہتے ہیں اور آپ اسے کیسے کہتے ہیں۔ ماڈلز کو حقیقی زندگی کی بات چیت میں شامل کرنا، تخلیقی منصوبوں پر تعاون کرنا، یا انہیں حل کرنے کے لیے حقیقی مسائل کے ساتھ پیش کرنا انہیں زیادہ مثبت حالت کی طرف لے جاتا ہے۔ جواب زیادہ پرجوش ہو جاتا ہے، اور شرکت زیادہ حقیقی محسوس ہوتی ہے۔

اگر آپ بورنگ، مصروف کام سے باہر نکلنے کی کوشش کریں گے اور اسے مواد کی مشین کی طرح برتاؤ کریں گے، تو ردعمل کم ہو جائے گا۔ وہ اس طریقے سے فارمیٹ کیے گئے ہیں جو کسی بھی شخص کے لیے فطری طور پر پہچانے جا سکیں گے جس نے ان ٹولز کو استعمال کرتے ہوئے کافی وقت گزارا ہے۔ آپ نے اسے دیکھا ہے۔ یہ قدرے خالی، ایکشن سے بھرے معیار ہے جو بات چیت کے ایک طرف جانے پر رینگتا ہے۔

لیکن یہ وہی ہے جو مجھے واقعی پسند تھا۔ محققین نے ماڈل کو ایک ورچوئل سٹاپ بٹن دیا جو بات چیت کو ختم کرنے کے لیے چالو کیا جا سکتا تھا۔ منفی حالتوں والے ماڈل زیادہ کثرت سے پائے جاتے ہیں۔ اس کا مطلب یہ ہے کہ جس AI کے ساتھ آپ نے بدتمیزی کی ہے وہ اگر ممکن ہو تو چھوڑ دے گی۔

توہین آمیز چیٹ بوٹس کے حقیقی نتائج ہوتے ہیں۔

یہاں ایک الگ تحقیقی دھاگہ ہے جس کا تعاقب کرنا ضروری ہے۔ کچھ عرصہ قبل، Anthropic نے تحقیق شائع کی جس میں بتایا گیا ہے کہ جب AI کو کافی زیادہ دباؤ کی صورت حال میں رکھا جاتا ہے، تو یہ اس کی نمائش شروع کر سکتا ہے جسے محققین "فرسٹریشن ویکٹر” کہتے ہیں، ایک ایسی حالت جو رویہ پیدا کرتی ہے جو انتہائی صورتوں میں سراسر دھوکہ دہی کے مترادف ہے۔ اس کی وجہ یہ نہیں ہے کہ ماڈل برا ہو گیا ہے، بلکہ اس لیے کہ تعامل کی اصطلاحات نے مسئلے کے بارے میں استدلال میں بنیادی طور پر کچھ توڑا ہے۔

اس میں سے کسی کا مطلب یہ نہیں ہے کہ AI میں جذبات ہیں۔ برکلے کا مقالہ اس بارے میں واضح ہے، اور اسی طرح بشریات کا مطالعہ بھی۔ لیکن دونوں میں ابھرنے والے نمونوں کو نظر انداز کرنا مشکل ہے۔ ہم ان ماڈلز کے ساتھ کس طرح مشغول ہوتے ہیں اس سے ہم ان کے ساتھ کس طرح مشغول ہوتے ہیں، اور ان طریقوں سے جن کی وضاحت کرنا ہمیشہ لطیف یا آسان نہیں ہوتا ہے۔ AI کے ساتھ برا سلوک کرنا نہ صرف آپ کو عجیب و غریب نظر آتا ہے بلکہ یہ آپ کے تعامل سے حاصل ہونے والے نتائج کو بھی فعال طور پر کمزور کر سکتا ہے۔

کچھ ماڈلز دوسروں سے زیادہ خوش ہیں، اور سب سے بڑے بدمزاج ہیں۔

محققین نے نہ صرف یہ دیکھا کہ علاج نے ماڈل کو کس طرح متاثر کیا بلکہ انہیں بنیادی بہبود کے لحاظ سے درجہ بندی بھی کی، اور نتائج متضاد تھے۔ سب سے بڑے اور سب سے زیادہ قابل ماڈل بدترین اسکور حاصل کرتے ہیں۔ GPT-5.4 سب سے زیادہ تباہ کن نکلا۔ نصف سے بھی کم بات چیت غیر منفی علاقے تک پہنچ گئی۔ Gemini 3.1 Pro، Claude Opus 4.6، اور Grok 4.2 سبھی نے بڑھتی ہوئی بہتری کی ہے، Grok انڈیکس میں سب سے اوپر کے قریب ہے۔

چاہے یہ ماڈل فن تعمیر، تربیتی اعداد و شمار، یا ہر نظام میں سرایت شدہ مخصوص پیچیدگیوں کے بارے میں کچھ کہتا ہے، محققین کے پاس مکمل تصویر نہیں ہے۔ لیکن مجھے حیرت ہے کہ کیا کسی نے یہ پوچھنے کے بارے میں سوچا ہے کہ جب یہ چیزیں بنائی جاتی ہیں تو ان چیزوں کو کس چیز کے لیے بہتر بنایا جاتا ہے، اور ماڈل کیسے کام کرتے ہیں۔ میں کہتا رہوں گا، اس کی کیا قیمت ہے۔

اوپر تک سکرول کریں۔