‘اے آئی کے گاڈ فادر’ نے اگلے 30 سالوں میں انسانیت کا صفایا کرنے والی ٹیکنالوجی کی مشکلات کو مختصر کردیا

eAwazدلچسپ و عجیب

برطانوی-کینیڈین کمپیوٹر سائنس دان جو اکثر مصنوعی ذہانت کے "گاڈ فادر” کے طور پر پکارا جاتا ہے، اس نے اگلی تین دہائیوں میں AI کی انسانیت کو مٹانے والی مشکلات کو کم کر دیا ہے، اور خبردار کیا ہے کہ ٹیکنالوجی میں تبدیلی کی رفتار توقع سے زیادہ "زیادہ تیز” ہے۔

پروفیسر جیفری ہنٹن، جنہیں اس سال AI میں ان کے کام کے لیے فزکس کا نوبل انعام دیا گیا تھا، نے کہا کہ "10 سے 20” فیصد امکان ہے کہ اگلی تین دہائیوں میں AI انسانی معدومیت کا باعث بنے گا۔

اس سے قبل ہنٹن نے کہا تھا کہ ٹیکنالوجی کے انسانیت کے لیے تباہ کن نتائج کو جنم دینے کے 10 فیصد امکانات ہیں۔

بی بی سی ریڈیو 4 کے ٹوڈے پروگرام میں یہ پوچھے جانے پر کہ کیا اس نے ممکنہ AI apocalypse اور اس کے ہونے کے 10 میں سے ایک امکان کے بارے میں اپنا تجزیہ تبدیل کر دیا ہے، تو اس نے کہا: "واقعی نہیں، 10 سے 20 [فیصد]۔”

ہنٹن کے اندازے نے ٹوڈے کے مہمان ایڈیٹر، سابق چانسلر ساجد جاوید کو "آپ جا رہے ہیں” کہنے پر اکسایا، جس پر ہنٹن نے جواب دیا: "اگر کچھ ہے۔ آپ نے دیکھا، ہمیں پہلے کبھی بھی خود سے زیادہ ذہین چیزوں سے نمٹنا نہیں پڑا۔

انہوں نے مزید کہا: "اور آپ کو کتنی مثالیں معلوم ہیں کہ زیادہ ذہین چیز کو کم ذہین چیز کے ذریعے کنٹرول کیا جاتا ہے؟ بہت کم مثالیں ہیں۔ ایک ماں اور بچہ ہے۔ ارتقاء نے بچے کو ماں کو کنٹرول کرنے کی اجازت دینے میں بہت کام کیا، لیکن یہ واحد مثال ہے جس کے بارے میں میں جانتا ہوں۔”

لندن میں پیدا ہونے والے ہنٹن، جو یونیورسٹی آف ٹورنٹو کے پروفیسر ایمریٹس ہیں، نے کہا کہ انتہائی طاقتور AI سسٹمز کی ذہانت کے مقابلے انسان چھوٹے بچوں کی طرح ہوں گے۔

"میں اس کے بارے میں سوچنا پسند کرتا ہوں: اپنے آپ کو اور تین سالہ بچے کا تصور کریں۔ ہم تین سال کے بچے ہوں گے،” اس نے کہا۔

AI کو ڈھیلے طریقے سے کمپیوٹر سسٹم کے طور پر بیان کیا جا سکتا ہے جو کام انجام دیتے ہیں جن کے لیے عام طور پر انسانی ذہانت کی ضرورت ہوتی ہے۔

پچھلے سال، ہنٹن نے گوگل میں اپنی ملازمت سے استعفیٰ دینے کے بعد سرخیاں بنائیں تاکہ غیر محدود AI ترقی سے لاحق خطرات کے بارے میں مزید کھل کر بات کی جا سکے، ان خدشات کا حوالہ دیتے ہوئے کہ "برے اداکار” ٹیکنالوجی کو دوسروں کو نقصان پہنچانے کے لیے استعمال کریں گے۔ AI حفاظتی مہم چلانے والوں کی ایک اہم تشویش یہ ہے کہ مصنوعی جنرل انٹیلی جنس، یا ایسے نظاموں کی تخلیق جو انسانوں سے زیادہ ہوشیار ہیں، اس ٹیکنالوجی کو انسانی کنٹرول سے بچنے کے لیے ایک وجودی خطرہ کا باعث بن سکتی ہے۔

اس بات کی عکاسی کرتے ہوئے کہ جب اس نے پہلی بار ٹیکنالوجی پر اپنا کام شروع کیا تو اس نے سوچا کہ AI کی ترقی کہاں تک پہنچ جائے گی، ہنٹن نے کہا: "مجھے نہیں لگتا تھا کہ یہ وہ جگہ ہوگا جہاں ہم [ہیں]۔ میں نے سوچا کہ مستقبل میں کسی وقت ہم یہاں پہنچ جائیں گے۔