ٹیکنالوجی

مصنوعی ذہانت کے بڑھتے خطرات، انسان کیسے قابو پا سکتے ہیں؟

ماہرین کے مطابق مصنوعی ذہانت (اے آئی) ایک ایسی تکنیکی تبدیلی ہے جو ماضی کی کسی بھی ایجاد سے مختلف ہے، کیونکہ دیگر ٹیکنالوجیز جہاں صرف انسانی جسمانی صلاحیتوں کو بڑھاتی تھیں، وہیں اے آئی انسان کی بنیادی صلاحیت یعنی علم پیدا کرنے اور استعمال کرنے کی اہلیت کا مقابلہ کر رہی ہے۔

غیر ملکی خبر رساں اداروں اے این آئی اور چائنا ڈیلی کی رپورٹ کے مطابق اے آئی نہ صرف معیشت بلکہ سماجی ڈھانچے اور انسانی شناخت کو بھی گہرائی سے متاثر کرنے کی صلاحیت رکھتی ہے۔ ماہرین کا کہنا ہے کہ اس کے بے شمار فوائد کے ساتھ سنگین خطرات بھی موجود ہیں، اس لیے اس کے مؤثر انتظام کے لیے عالمی سطح پر جامع حکمت عملی ضروری ہے۔

رپورٹ کے مطابق موجودہ مکالماتی اے آئی سسٹمز اور ایسے مکمل خودمختار نظاموں کے درمیان اب بھی واضح فرق موجود ہے جو پیچیدہ اداروں میں انسانی آپریٹرز کی جگہ لے سکیں۔ مثال کے طور پر اسمارٹ شہر، اسمارٹ فیکٹریاں، خودکار گاڑیاں اور اسمارٹ گرڈز جیسے نظام انتہائی پیچیدہ ہوتے ہیں جن میں مختلف خودکار نظام مل کر کام کرتے ہیں۔

ماہرین کا کہنا ہے کہ مستقبل کے قابل اعتماد اے آئی نظاموں کے لیے مضبوط استدلال، تکنیکی، قانونی اور اخلاقی اصولوں کی پابندی اور اعلیٰ معیار کی بھروسہ مندی ضروری ہوگی، جو اب تک ایک مشکل ہدف سمجھی جاتی ہے۔

رپورٹ میں بتایا گیا کہ اے آئی کے خطرات کو تین بنیادی شعبوں میں تقسیم کیا جا سکتا ہے جن میں تکنیکی خطرات، انسانی خطرات اور وسیع نظامی خطرات شامل ہیں۔ تکنیکی خطرات اے آئی کے ’بلیک باکس‘ نظام کی وجہ سے بڑھ جاتے ہیں، جس میں فیصلوں کی مکمل وضاحت ممکن نہیں ہوتی۔

اسی طرح انسانی خطرات میں ٹیکنالوجی کا غلط استعمال، حد سے زیادہ اعتماد اور قواعد کی خلاف ورزی شامل ہیں، جبکہ بڑے نظامی خطرات معیشت، روزگار، ماحول اور معاشرتی ڈھانچوں میں بڑے پیمانے پر تبدیلیاں پیدا کر سکتے ہیں۔

ماہرین کے مطابق ایک اہم مگر کم زیرِ بحث خطرہ یہ ہے کہ اگر علمی کام مکمل طور پر مشینوں کے سپرد کر دیے جائیں تو اس سے انسانی تنقیدی سوچ، ذاتی ذمہ داری اور تخلیقی صلاحیت متاثر ہو سکتی ہے۔

اس پیچیدہ صورتحال سے نمٹنے کے لیے ماہرین انسانی مرکزیت پر مبنی اے آئی پالیسی، عالمی تکنیکی معیارات، مؤثر ضوابط اور بین الاقوامی تعاون کو ناگزیر قرار دیتے ہیں تاکہ مصنوعی ذہانت کی ترقی کو محفوظ اور معاشرے کے لیے مفید بنایا جا سکے۔

تبصرہ کریں

Your email address will not be published. Required fields are marked *