له مصنوعي ځيرکتيا پېښېدونکی ګواښ

د ويکيپېډيا، وړیا پوهنغونډ له خوا

له ټوليزه مصنوعي ځيرکتيا پېښېدونکی زيان ( انګلیسي: Existential risk from artificial general intelligence) یوه فرضیه ده چې په ټوليزه مصنوعي ځيرکتيا (AGI) کې د پام وړ پرمختګ کولی شي چې د انسان د ورکېدو یا یو څه نه بدلېدونکي نړیوال ناورین لامل ګرځېدای شي. [۱] [۲]

د موجوده خطر ("x-risk") ښوونځی په لاندې ډول استدلال کوي: د انسانان پر نورو ځمکنيو حيواناتو واکمن دي ځکه چې د انسان مغز ځینې ځانګړې وړتیاوې لري چې نور حیوانات په عمومي ډول دا ځانګړتياوې نه لري. که AI د ټوليزه مصنوعي ځيرکتيا له مخې له انسانیت څخه پرمختګ وکړي او " زبرځواک " شي، نو د انسانانو لپاره به د دې کابو کول ستونزمن یا ناشوني وګرځي. لکه څنګه چې د غرنۍ ګوریلا برخلیک د انسان په حسن نيت پورې اړه لري، په همدې ډول به يوه ورځ د انسانيت او ټوله کې د ټول بشريت برخليک د يو زبرځواک ماشين په حسن نيت پورې اړه ولري.

د دې ډول سناریو رامینځته کېدو احتمال خورا ډېر بحث شوی ، او په کمپیوټر ساینس کې د راتلونکي پرمختګ لپاره په پراخه کچه مختلف سناریوګانو پورې اړه لري. د عالي مصنوعي ځيرکتيا په اړه اندېښنې د کمپیوټر مشهور ساینس پوهانو او د ټیکنالوژۍ اجرایوي رییسانو لکه جیفري هینټن ، [۳] ایلان ټورینګ ، [lower-alpha ۱] ایلون مسک ، [۶] او د OpenAI CEO سیم الټمن لخوا څرګند شوي. [۷] په 2022 کې، د AI څېړونکو یوې سروې وموندله چې ځینې څېړونکي پدې باور دي چې 10 سلنه یا ډېر چانس شته چې د AI کنټرول زمونږ له ولکې ووځي او دا به د موجوده ناورین لامل شي. [۸] [۹]

د گوگل د مصنوعي ځیرکتیا یا AI برخې انجینیر «جیفري هینتون» چې څه موده مخکې یې د مصنوعي ځیرکتیا خطرونو ته د خلکو د توجه لپاره له خپلې دندې استعفا وکړه خبرداری ورکړی چې انسانانو ته د مصنوعي ځیرکتیا خطر د اقلیم تر بدلون ډیر دی. «جیفري هینتون» ویلي چې د اقلیم بدلون هم د نړۍ لپاره یو ستر گواښ دی مگر حل لاره یې معلومه‌ ده. ده زیاته کړې چې مصنوعي ځیرکتیا یا AI لخوا نړۍ ته عاجل خطر مخ دی او په وینا یې د دې خطر رفع کولو لاره هم لا نده څرگنده.

تاريخ[سمول]

د هغه ليکوالانو له ډلې چې په دې باور لري چې پرمختللي ماشينونه به يوه ورځ د انسانانو له ولکې ووځي او د انسانيت لپاره به ترې يو ستر ګواښ پېښ شي، يو هم ناول لیکونکی سمویل بټلر و چې په 1863 کې یې په خپل مقاله ډاروین د ماشینونو په مینځ کې يوه مقاله ليکلې ده.[۱۰]

اړوندې پوښتنې[سمول]

  • د مصنوعي ځيرکتيا د کنټرول مسله
  • د مصنوعي ځيرکتيا فلسفه
  • ډون
  • اغېزمنه سرښندنه
  • روباټيک اخلاق

يادښت[سمول]

کينډۍ:یادداشت‌ها

سرچينې[سمول]

  1. Bostrom, Nick (2002). "Existential risks". Journal of Evolution and Technology. 9 (1): 1–31. الوسيط |CitationClass= تم تجاهله (مساعدة)
  2. Turchin, Alexey (2018-05-03). "Classification of global catastrophic risks connected with artificial intelligence". AI & Society. 35 (1): 147–163. الوسيط |CitationClass= تم تجاهله (مساعدة)
  3. ""Godfather of artificial intelligence" weighs in on the past and potential of AI". www.cbsnews.com (په انګلیسي ژبه کي). د لاسرسي‌نېټه ۱۰ اپرېل ۲۰۲۳. الوسيط |CitationClass= تم تجاهله (مساعدة)
  4. کينډۍ:Cite speech
  5. کينډۍ:Cite episode
  6. (په 14 June 2015 باندې). Science fiction no more? Channel 4's Humans and our rogue AI obsessions. The Guardian.
  7. Jackson, Sarah. "The CEO of the company behind AI chatbot ChatGPT says the worst-case scenario for artificial intelligence is 'lights out for all of us'". Business Insider (په انګلیسي ژبه کي). د لاسرسي‌نېټه ۱۰ اپرېل ۲۰۲۳. الوسيط |CitationClass= تم تجاهله (مساعدة)
  8. "The AI Dilemma". www.humanetech.com (په انګلیسي ژبه کي). د لاسرسي‌نېټه ۱۰ اپرېل ۲۰۲۳. الوسيط |CitationClass= تم تجاهله (مساعدة)
  9. "2022 Expert Survey on Progress in AI". AI Impacts (په انګلیسي ژبه کي). 2022-08-04. د لاسرسي‌نېټه ۱۰ اپرېل ۲۰۲۳. الوسيط |CitationClass= تم تجاهله (مساعدة)
  10. Breuer, Hans-Peter. 'Samuel Butler's "the Book of the Machines" and the Argument from Design.' Archived 15 March 2023 at the Wayback Machine. Modern Philology, Vol. 72, No. 4 (May 1975), pp. 365–383