OpenAI بڑے پیمانے پر اموات یا AI کی وجہ سے ہونے والی مالی آفات کے لیے ذمہ داری کو محدود کرنے والی قانون سازی کی حمایت کرتا ہے

اوپن اے آئی پھینک رہا ہے۔ ہم ایک الینوائے بل کی حمایت کرتے ہیں جو AI لیبز کو ذمہ داری سے بچائے گا اگر ان کے AI ماڈلز سنگین سماجی نقصان کا باعث بنتے ہیں، بشمول 100 سے زیادہ لوگوں کی موت یا شدید زخمی یا کم از کم $1 بلین املاک کا نقصان۔

یہ کوششیں OpenAI کی قانون سازی کی حکمت عملی میں تبدیلی کی نشاندہی کرتی ہیں۔ اب تک، OpenAI نے بنیادی طور پر ایک دفاعی کردار ادا کیا ہے، اس قانون کی مخالفت کرتے ہوئے جو AI لیبز کو تکنیکی نقصان کا ذمہ دار بنائے گی۔ کئی AI پالیسی ماہرین نے WIRED کو بتایا کہ SB 3444، جو انڈسٹری کے لیے ایک نیا معیار قائم کر سکتا ہے، ماضی میں OpenAI کی حمایت کرنے والے بلوں سے کہیں زیادہ انتہائی اقدام ہے۔

یہ بل فرنٹیئر اے آئی کے ڈویلپرز کو ان کے فرنٹیئر ماڈلز کے نتیجے میں ہونے والے "مادی نقصان” کی ذمہ داری سے بچائے گا، جب تک کہ وہ جان بوجھ کر یا لاپرواہی سے ایسے واقعات کا سبب نہ بنیں اور اپنی ویب سائٹس پر حفاظت، سلامتی اور شفافیت کی رپورٹیں پوسٹ نہ کریں۔ یہ فرنٹیئر ماڈل کی وضاحت کرتا ہے کہ کوئی بھی AI ماڈل جس کی کمپیوٹیشنل لاگت $100 ملین سے زیادہ کا استعمال کرتے ہوئے تربیت حاصل کی گئی ہو جو کہ امریکہ کی کسی بھی بڑی AI لیبز، جیسے OpenAI، Google، xAI، Anthropic اور Meta پر لاگو کیا جا سکتا ہے۔

"ہم اس طرح کے طریقوں کی حمایت کرتے ہیں کیونکہ وہ ان چیزوں پر توجہ مرکوز کرتے ہیں جو سب سے اہم ہے: ہمارے جدید ترین AI سسٹمز سے سنگین نقصان کے خطرے کو کم کرنا جبکہ اس ٹیکنالوجی کو ایلی نوائے میں بڑے اور چھوٹے لوگوں اور کاروباروں کے ہاتھ میں جانے کی اجازت دینا،” OpenAI کے ترجمان جیمی ریڈیس نے ایک ای میل بیان میں کہا۔ "یہ ریاست بہ ریاست قوانین کے پیچ ورک سے بچنے میں بھی مدد کرتا ہے اور واضح، زیادہ مستقل قومی معیارات کی طرف بڑھتا ہے۔”

اہم نقصان کی تعریف کی بنیاد پر، بل میں AI صنعت کے لیے مشترکہ تشویش کے کئی شعبوں کی فہرست دی گئی ہے، جس میں کیمیاوی، حیاتیاتی، ریڈیولاجیکل یا جوہری ہتھیار بنانے کے لیے AI کا استعمال کرنے والے بدنیتی پر مبنی اداکار شامل ہیں۔ اگر کوئی AI ماڈل ایسے رویے میں ملوث ہوتا ہے جو کہ جرم ہو گا اگر کسی انسان کی طرف سے کیا جائے اور اس کے انتہائی نتائج ہوں گے، تو یہ بھی ایک سنگین نقصان ہوگا۔ اگر کوئی AI ماڈل یہ کارروائیاں SB 3444 کے تحت کرتا ہے، تو ماڈل کے پیچھے موجود AI لیب کو اس وقت تک ذمہ دار نہیں ٹھہرایا جائے گا جب تک کہ یہ جان بوجھ کر نہ ہو اور وہ رپورٹ شائع کرے۔

ریاستہائے متحدہ میں وفاقی اور ریاستی مقننہ نے ابھی خاص طور پر یہ تعین کرنے کے لیے قوانین پاس نہیں کیے ہیں کہ آیا AI ماڈلز کے ڈویلپرز، جیسے OpenAI، کو ان کی ٹیکنالوجی کی وجہ سے ہونے والے نقصانات کے لیے ذمہ دار ٹھہرایا جا سکتا ہے۔ لیکن جیسا کہ AI لیبز مزید طاقتور AI ماڈلز جاری کرتی رہتی ہیں جو نئے حفاظتی اور سائبرسیکیوریٹی کے مسائل کو جنم دیتے ہیں، جیسا کہ Anthropic’s Claude Mythos، یہ سوالات تیزی سے قدیم محسوس ہوتے ہیں۔

OpenAI کی عالمی امور کی ٹیم کی کیٹلن نیدرمیئر نے SB 3444 کی حمایت کرتے ہوئے اپنی گواہی میں AI ریگولیشن کے وفاقی فریم ورک کی حمایت میں دلیل دی۔ Niedermeier نے ریاستی AI حفاظتی قوانین پر ٹرمپ انتظامیہ کے کریک ڈاؤن کے مطابق ایک پیغام دیا، جس میں دلیل دی گئی کہ یہ ضروری ہے کہ "بغیر حفاظتی فریم ورک کو بہتر بنانے کے لیے ضروری ہے۔” یہ حالیہ برسوں میں سیلیکون ویلی کے وسیع تر نظریے سے بھی مطابقت رکھتا ہے، جس نے عام طور پر یہ دلیل دی ہے کہ یہ سب سے اہم ہے کہ AI قانون سازی عالمی AI دوڑ میں ریاستہائے متحدہ کی پوزیشن میں رکاوٹ نہیں بنتی ہے۔ اگرچہ SB 3444 اپنے طور پر ایک ریاستی سطح کا حفاظتی قانون ہے، نیدرمیئر نے استدلال کیا کہ اس طرح کی قانون سازی مؤثر ہو سکتی ہے اگر یہ "وفاقی نظام کے ساتھ ہم آہنگی کی راہ کو مضبوط بناتا ہے۔”

"OpenAI میں، ہمیں یقین ہے کہ نارتھ سٹار آف پاینیر ریگولیشن محفوظ طریقے سے جدید ترین ماڈلز کو اس انداز میں تعینات کر رہا ہے جو امریکہ کی جدت پسند قیادت کو برقرار رکھے،” نیدرمیئر نے کہا۔

Scott Wisor، Secure AI پروجیکٹ کے پالیسی ڈائریکٹر نے WIRED کو بتایا کہ ٹیکنالوجی کو جارحانہ طریقے سے ریگولیٹ کرنے کے لیے الینوائے کی شہرت کے پیش نظر بل کے پاس ہونے کا امکان نہیں ہے۔ "ہم نے Illinoisans سے پوچھا کہ کیا ان کے خیال میں AI کمپنیوں کو ذمہ داری سے مستثنیٰ ہونا چاہئے، اور 90 فیصد اس کے خلاف تھے۔ کوئی وجہ نہیں ہے کہ موجودہ AI کمپنیوں کو ذمہ داری سے مستثنیٰ کیا جائے،” Wisor کہتے ہیں۔

اوپر تک سکرول کریں۔