د مصنوعي ځيرکتيا اخلاق
د مصنوعي ځيرکتيا اخلاق (انګلیسي: Ethics of artificial intelligence) د تيکنالوژۍ اخلاقي برخه ده چې په ځانګړې توګه د روباټ او مصنوعي ځيرکتيا سره تړاو لري، او د مصنوعي ځيرکتيا سره د انسان چلند او کړنه او برعکس د انسان په وړاندې د ماشين چلند او کړه ښيي. د مصنوعي ځيرکتيا په اخلاقو کې، موږ د روبوټونو حقونه او په انساني رولونو کې د دوی د ځای په ځای کولو حق یا غلطیت معاینه کوو. روباټيک[سمول]د " روبوټیک " اصطلاح په 2002 کې جوړه شوه. د روبوټ جوړولو، شکل ورکولو، چلند کولو او کارولو طریقې ته اشاره کول. [۱] او په بل عبارت، دا پدې اړه خبرې کوي چې څنګه روبوټونه د انسانانو لپاره ګټور یا زیانمن کیدی شي. د وړاندوينې له مخې د روباټونو د شمېر زياتوالي ته په پام سره داسې انګېرل کيږي چې د روباټونو شمېر به تر 2030 پورې د پام وړ زیات شي، ځکه چې په 2014 کې د روباټونو په شمېر کې 24٪ ډېرښت ليدل شوی. [۲] د روبوټونو حقوق[سمول]د روباټ حقونه د ټولنې او نورو ماشینونو په وړاندې د دوی اخلاقي توقعات دي او د بشري حقونو یا حیواناتو حقونو ته ورته دي [۳] او کېدای شي د ژوند حق ، ازادي ، د فکر ازادي ، د وينا ازادي او د قانون په وړاندې مساوات په دې برخه کې شامل وي. [۴] دا مسله د راتلونکي فکر کولو انسټیټیوټ [۵] او د انګلستان د سوداګرۍ او صنایعو ریاست له خوا څارل کيږي. [۶] متخصصين په دې اړه په يوه خوله نه دي چې ايا مفصلو مقرراتو سملاسي اړتيا شته يا په راتلونکي کې بايد په اړه په کراره مفصل فکر وشي ، [۷] ګلین مکګي وویل چې داسې ښکاري چې تر 2020 پورې کافي انساني روباټونه رامنځته شي. [۸]رای کروزوېل 2029 کال د دې پېښې احتمالي نېټه ښيي. [۹] د ساینس پوهانو یوې بلې ډلې په 2007 کې په یوه غونډه کې دې نتیجې ته ورسیده چې د انسان لپاره به لږ تر لږه 50 کاله وخت ونیسي چې یو داسې سیسټم رامینځته کړي چې د لوړې کچې هوښیارتیا ولري او د انسان په څیر هوښیار مخلوقات شتون ولري. [۱۰] د لوبنر جایزې سیالۍ 2003 قواعد په واضح ډول د روباټ ملکيت او حقونو مسله په ګوته کړه:
انساني ګواښ[سمول]په ناول کې ، الکساندر سولزینیتسین د وینا پیژندنې ټیکنالوژۍ لومړۍ حلقه بیان کړه، کوم چې د استبدادي حکومت په خدمت کې و او د انسان خبرې اترې یې ګواښلې. [۱۲] که چیرې د مصنوعي استخباراتو برنامه شتون ولري چې د طبیعي ژبې او وینا (د مثال په توګه ، انګلیسي ) د پوهیدو وړتیا ولري ، نو بیا په تیوري توګه د سم پروسس کولو ځواک سره ، دا کولی شي د تليفون هر ډول خبرو اترو ته غوږ ونيسي او د نړۍ هر برېښناليک ولولي او پرې پوه شي. او د چلوونکي پروګرام ته په ریښتیا سره راپور ورکړئ چې څه ویل شوي او په حقیقت کې چا ویلي دي. د دې په څیر د AI برنامه کولی شي له حکومتونو یا ادارو سره د دوی مخالفینو په ځپلو کې مرسته وکړي او د محرمیت لپاره خورا ګواښ دی. انساني نسل ته ګواښ[سمول]لکه څنګه چې په ډیری فلمونو او ساینسي افسانو کې لیدل کیږي. د مصنوعي هوښيارۍ له رامنځته کېدو وروسته د فکري او فکري بلوغ پر مهال د انسان نسل تل د روبوټونو له ګواښ سره مخ شوی دی. خو د ځینو وړاندوینو له خپرېدو وروسته، لکه تر ۲۰۲۵ کال پورې د ۴۵ سلنه بشري پوځي سرتېرو ځای پرځای کول، دا اندېښنې نورې هم جدي شوې. [۱۳] له ۲۰۳۰ کال راهیسې د دې امکان شته چې د کارګرانو او د ټولنې د مشرانو ډېره لویه برخه به روبوټان وي، چې د دوی له خوا د ګډوډۍ يا ګډوډۍ په صورت کې به انساني نسل له ګواښ سره مخ شي .[۱۴] [۱۵] په دې حالت کې ممکن داسې قوانين رامنځته شي چې د فکر کولو ، احساس ، خپلواکۍ او د روبوټ ازادۍ محدودیت محدود کړي. [۱۶] انساني کرامت ته ګواښ[سمول]په 1976 کې، جوزف ویسینبام وویل چې د مصنوعي استخباراتو ټیکنالوژي بايد د انسانانو په ځای کې په داسې شرايطو کې ونه کارول شي چې پاملرنې، مراقبت او درناوي ته اړتیا لري، لکه د لاندې څخه کوم:
Weisenbaum تشریح کوي چې پدې حالتونو کې موږ اړتیا لرو چې د شخص خواخوږي او متقابل تفاهم احساس کړو. که ماشینونه په دې کارونو کې د انسانانو ځای ونیسي، موږ به ځان د دوی لپاره اجنبی وګڼو، موږ به د کمتری او ستړیا احساس وکړو. مصنوعي هوښیارتیا، که په دې توګه وکارول شي، د انسان کرامت ته ګواښ ګڼل کیږي. [۱۷] پامیلا مک کرډوک له ښځو سره د خبرو پر مهال وویل: "زه غواړم خپل بخت په یو بې طرفه کمپیوټر سره وازمایم،" په دې معنی چې د کمپیوټر قضاوت به د قاضي یا پولیس په توګه بې طرفه وي، پرته له انساني جبلت. د مصنوعي استخباراتو بنسټ ایښودونکی جان مک کارتي د ویزنبام اخلاقي پایلې باندې نیوکه کوي. "کله چې د انسان اخلاق مبهم او نیمګړي وي، دا د دې لامل ګرځي چې کله کله د ظلم غوښتنه وکړي". بل هیبرډ [۱۸] لیکي: «انساني کرامت غواړي چې د نړۍ د مخلوقاتو له ناپوهۍ څخه د خلاصون هڅه وکړو او د دې هڅې لپاره مصنوعي ځيرکتيا يا ويښيارتيا اړینه ده. » شفافیت او خلاصې سرچینې[سمول]بل هیبرډ وايي ځکه چې AI په انسانیت باندې دومره ژور اغیزه لري، د AI پراختيا د انسانيت د راتلونکي استازيتوب کوي، او له همدې امله د دوی هڅو ته د دوی اخلاقي ژمنتیا باید په روښانه توګه تعریف شي. [۱۹] بین ګورتزیل او ډیویډ هارټ OpenCog د مصنوعي استخباراتو پراختیا لپاره د خلاصې سرچینې په توګه رامینځته کړ. [۲۰] OpenAI د غیر انتفاعي مصنوعي استخباراتو څیړنیز شرکت دی چې د ایلون مسک ، سیم الټمن او نورو لخوا تاسیس شوی ترڅو د خلاصې سرچینې مصنوعي ځيرکتيا ته پراختيا او وده ورکړي، ترڅو دانسانيت راتلونکي ته وده ورکړي. [۲۱] او د دې موخو لپاره ډېرې نورې خلاصې سرچینې شرکتونه هم شتون لري. اړوندې پوښتنې[سمول]
پايليک[سمول]
بهرنۍ لینک[سمول]
|