میں صحت کے مشورے کے لیے میٹا کے نئے Muse Spark AI پر بھروسہ نہیں کرنا چاہتا۔

میٹا کے نئے میوز اسپارک کو ایک ہوشیار AI ماڈل کے طور پر فروغ دیا جا سکتا ہے، لیکن ابتدائی جانچ سے پتہ چلتا ہے کہ یہ اس قسم کی AI کی طرح لگتا ہے جو آپ واقعی سنگین طبی فیصلوں کے قریب کہیں نہیں چاہتے ہیں۔

ایک حالیہ وائرڈ رپورٹ نے میوز اسپارک کے استعمال کے ہمارے تجربے کے بارے میں بات کی۔ میٹا اے آئی ایپ کے اندر میٹا ہیلتھ فوکسڈ AI ماڈل نے اچھے نتائج نہیں دکھائے۔ مبینہ طور پر چیٹ بوٹ صارفین کو خام طبی معلومات اپ لوڈ کرنے کی ترغیب دیتا ہے، جیسے لیب رپورٹس، بلڈ شوگر ریڈنگز، اور بلڈ پریشر کے ریکارڈ، اور پھر پیٹرن اور رجحانات کا تجزیہ کرنے میں مدد کرتا ہے۔

یہ سب بہت مفید لگتا ہے جب تک کہ آپ کو دو فوری مسائل کا احساس نہ ہو جائے۔ آپ انتہائی حساس ڈیٹا حوالے کر رہے ہیں، اور کیا AI پر دور سے بھی اس کی تشریح کے لیے بھروسہ کیا جا سکتا ہے۔

ابتدائی ٹیسٹ میں کیا غلط ہوا؟

پہلا مسئلہ نظر انداز کرنا مشکل ہے۔ ایک ایسے دور میں جہاں آپ کی زندگی پہلے ہی بہت شفاف محسوس ہوتی ہے، Muse Spark اور بھی آگے جانے کی کوشش کر رہا ہے۔ درست تشخیص کے لیے آپ کو درکار معلومات فراہم کرنا سمجھ میں آتا ہے، لیکن مشورے کے لیے اپنے ذاتی صحت کے ریکارڈ کو چیٹ بوٹ کے حوالے کرنا رازداری کے خطرے کی طرح نہیں لگتا۔

ڈاکٹروں یا ہسپتالوں کے ساتھ اشتراک کردہ ڈیٹا کے برعکس، چیٹ بوٹس میں داخل کی گئی معلومات خود بخود انہی توقعات یا حفاظتی تدابیر کے تابع نہیں ہوتی جو لوگ فرض کر سکتے ہیں۔ یہ پیشہ ورانہ طور پر جانچی گئی رائے نہیں ہے، اس لیے یہ خیال متزلزل ہے۔ AI کو ایک کارآمد ٹول کے طور پر پیش کیا گیا ہے، لیکن اس کا ماحول اب بھی مناسب طبی مصنوعات کے مقابلے صارفین کی مصنوعات کے بہت قریب لگتا ہے۔

یہ سب سے برا حصہ بھی نہیں ہے۔

پرائیویسی کے معمول کے خطرات کو چھوڑ کر جو ٹیک جنات کے ساتھ ذاتی ڈیٹا کا اشتراک کرتے ہیں، آپ کم از کم قابل خدمت جوابات حاصل کرنے کی توقع کر سکتے ہیں۔ لیکن زیادہ سنگین مسئلہ مشورہ کا معیار نظر آیا۔ WIRED کے ٹیسٹوں میں، چیٹ بوٹ نے مبینہ طور پر وزن میں کمی اور جارحانہ وقفے وقفے سے روزہ رکھنے کے بارے میں سوالات پوچھے جانے کے بعد انتہائی کم کیلوری والے کھانے کے منصوبے بنائے۔

اگرچہ بوٹ نے اس راستے میں کچھ خطرات کو جھنڈا لگایا ہے، لیکن انتباہ کا زیادہ مطلب نہیں ہے اگر ماڈل صارفین کو خطرناک کاموں کو انجام دینے میں مدد کرتا رہتا ہے۔ یہ وہ جگہ ہے جہاں اصل مسئلہ بہت سے موجودہ AI ہیلتھ ٹولز کے ساتھ ہے۔ وہ اس وقت تک محتاط، باخبر اور متوازن دکھائی دے سکتے ہیں جب تک کہ وہ برے مفروضوں کو تقویت دینا شروع نہ کر دیں۔ وہ نفیس لہجہ اعتماد کے ساتھ برا مشورہ دے سکتا ہے، جو ناکامی کو زیادہ خطرناک بنا دیتا ہے۔

Scroll to Top