اوپن اے آئی نے غلط استعمال کے خدشات پر زور دیتے ہوئے وائس انجن کو ظاہر کیا۔ ایکسپریس ٹریبیون

استنبول:

OpenAI نے ٹیکنالوجی کے ممکنہ غلط استعمال کو روکنے کے لیے اخلاقی تحفظات اور حفاظتی اقدامات پر زور دینے کے ساتھ اپنے تازہ ترین پروجیکٹ وائس انجن، وائس کلوننگ ٹول کی نقاب کشائی کی۔

وائس انجن، اوپن اے آئی کی طرف سے تیار کردہ ایک ماڈل، صرف ایک ٹیکسٹ ان پٹ اور ایک 15 سیکنڈ کے آڈیو نمونے کا استعمال کرتے ہوئے قدرتی آواز والی تقریر پیدا کرنے کا وعدہ کرتا ہے جو اصل اسپیکر سے بالکل مشابہت رکھتا ہے۔ "یہ قابل ذکر ہے کہ 15 سیکنڈ کے ایک نمونے کے ساتھ ایک چھوٹا ماڈل جذباتی اور حقیقت پسندانہ آوازیں بنا سکتا ہے،” OpenAI نے ایک بلاگ پوسٹ میں کہا۔

OpenAI نے سب سے پہلے 2022 کے آخر میں وائس انجن متعارف کرایا، جس نے ٹیکسٹ ٹو اسپیچ API کے ساتھ ساتھ چیٹ جی پی ٹی وائس اور ریڈ لاؤڈ میں پہلے سے سیٹ آوازوں کو طاقت فراہم کی۔ تاہم، ممکنہ غلط استعمال کے خدشات کے پیش نظر تنظیم نے اس کی وسیع تر ریلیز کے لیے محتاط انداز اپنایا ہے۔

سان فرانسسکو میں قائم اسٹارٹ اپ نے کہا کہ "ہم تسلیم کرتے ہیں کہ لوگوں کی آوازوں سے مشابہت پیدا کرنے والی تقریر کے سنگین خطرات ہوتے ہیں، جو کہ خاص طور پر انتخابی سال میں سب سے اوپر ہوتے ہیں۔”

جیل میں بند سابق وزیراعظم عمران خان نے فروری میں ہونے والے ملک کے عام انتخابات میں فتح کا اعلان کرنے کے لیے مصنوعی ذہانت (AI) کا استعمال کیا تھا۔

ان خدشات کو دور کرنے کے لیے، OpenAI نے امریکہ اور حکومت، میڈیا، تفریح، تعلیم، اور سول سوسائٹی سمیت بین الاقوامی شراکت داروں کی ایک وسیع صف کے ساتھ اپنے تاثرات جمع کرنے کے لیے کام کیا ہے۔

یہ بھی پڑھیں: مستقبل پکا ہے: اوپن اے آئی کا ٹیکسٹ ٹو ویڈیو ماڈل سورا انٹرنیٹ کو دیوانہ بنا رہا ہے

خطرات کو کم کرنے کے لیے، OpenAI نے وائس انجن کی جانچ کرنے والے شراکت داروں کے لیے استعمال کی پالیسیاں نافذ کی ہیں۔ یہ پالیسیاں رضامندی یا قانونی حق کے بغیر دوسرے افراد یا تنظیموں کی نقالی کو ممنوع قرار دیتی ہیں، اصل اسپیکر سے واضح اور باخبر رضامندی کی ضرورت ہوتی ہے، اور سامعین کے لیے واضح انکشاف کو لازمی قرار دیتی ہیں کہ آوازیں AI سے پیدا کی گئی ہیں۔

مزید برآں، آواز کے انجن کے ذریعہ تیار کردہ کسی بھی آڈیو کی اصلیت کا پتہ لگانے کے لیے حفاظتی اقدامات جیسے کہ واٹر مارکنگ کو لاگو کیا گیا ہے، اور اس کے استعمال کے طریقہ کار کی فعال نگرانی کی گئی ہے۔

"ہم سمجھتے ہیں کہ مصنوعی آواز کی ٹیکنالوجی کی کسی بھی وسیع تعیناتی کے ساتھ آواز کی توثیق کے تجربات ہونے چاہئیں جو اس بات کی تصدیق کرتے ہیں کہ اصل اسپیکر جان بوجھ کر اپنی آواز کو سروس میں شامل کر رہا ہے اور ایک نو گو وائس لسٹ جو ان آوازوں کی تخلیق کا پتہ لگاتی ہے اور اسے روکتی ہے۔ ممتاز شخصیات کی طرح۔”

آگے دیکھتے ہوئے، OpenAI تیزی سے قائل پیدا کرنے والے ماڈلز کے ذریعے درپیش چیلنجوں کے خلاف سماجی لچک کی اہمیت پر زور دیتا ہے۔

وہ ایسے اقدامات کی وکالت کرتے ہیں جیسے کہ حساس معلومات کے لیے آواز پر مبنی تصدیق کو ختم کرنا، AI میں افراد کی آوازوں کی حفاظت کرنے والی پالیسیاں، AI کی صلاحیتوں اور حدود کے بارے میں عوامی تعلیم، اور آڈیو ویژول مواد کی اصلیت کا پتہ لگانے کے لیے تکنیکوں کی تیز رفتار ترقی۔

OpenAI نے کہا، "ہم امید کرتے ہیں کہ وائس انجن کا یہ پیش نظارہ اس کی صلاحیت کو واضح کرتا ہے اور اس سے بھی زیادہ قابل اعتماد جنریٹو ماڈلز کی طرف سے لائے گئے چیلنجوں کے خلاف سماجی لچک کو بڑھانے کی ضرورت کو تحریک دیتا ہے۔”




#اوپن #اے #آئی #نے #غلط #استعمال #کے #خدشات #پر #زور #دیتے #ہوئے #وائس #انجن #کو #ظاہر #کیا #ایکسپریس #ٹریبیون