د مصنوعي ځيرکتيا اخلاق

د ويکيپېډيا، وړیا پوهنغونډ له خوا

د مصنوعي ځيرکتيا اخلاق (انګلیسي: Ethics of artificial intelligence) د تيکنالوژۍ اخلاقي برخه ده چې په ځانګړې توګه د روباټ او مصنوعي ځيرکتيا سره تړاو لري، او د مصنوعي ځيرکتيا سره د انسان چلند او کړنه او برعکس د انسان په وړاندې د ماشين چلند او کړه ښيي. د مصنوعي ځيرکتيا په اخلاقو کې، موږ د روبوټونو حقونه او په انساني رولونو کې د دوی د ځای په ځای کولو حق یا غلطیت معاینه کوو.

روباټيک[سمول]

د " روبوټیک " اصطلاح په 2002 کې جوړه شوه. د روبوټ جوړولو، شکل ورکولو، چلند کولو او کارولو طریقې ته اشاره کول. [۱] او په بل عبارت، دا پدې اړه خبرې کوي چې څنګه روبوټونه د انسانانو لپاره ګټور یا زیانمن کیدی شي. د وړاندوينې له مخې د روباټونو د شمېر زياتوالي ته په پام سره داسې انګېرل کيږي چې د روباټونو شمېر به تر 2030 پورې د پام وړ زیات شي، ځکه چې په 2014 کې د روباټونو په شمېر کې 24٪ ډېرښت ليدل شوی. [۲]

د روبوټونو حقوق[سمول]

د روباټ حقونه د ټولنې او نورو ماشینونو په وړاندې د دوی اخلاقي توقعات دي او د بشري حقونو یا حیواناتو حقونو ته ورته دي [۳] او کېدای شي د ژوند حق ، ازادي ، د فکر ازادي ، د وينا ازادي او د قانون په وړاندې مساوات په دې برخه کې شامل وي. [۴] دا مسله د راتلونکي فکر کولو انسټیټیوټ [۵] او د انګلستان د سوداګرۍ او صنایعو ریاست له خوا څارل کيږي. [۶]

متخصصين په دې اړه په يوه خوله نه دي چې ايا مفصلو مقرراتو سملاسي اړتيا شته يا په راتلونکي کې بايد په اړه په کراره مفصل فکر وشي ، [۷] ګلین مکګي وویل چې داسې ښکاري چې تر 2020 پورې کافي انساني روباټونه رامنځته شي. [۸]رای کروزوېل 2029 کال د دې پېښې احتمالي نېټه ښيي. [۹] د ساینس پوهانو یوې بلې ډلې په 2007 کې په یوه غونډه کې دې نتیجې ته ورسیده چې د انسان لپاره به لږ تر لږه 50 کاله وخت ونیسي چې یو داسې سیسټم رامینځته کړي چې د لوړې کچې هوښیارتیا ولري او د انسان په څیر هوښیار مخلوقات شتون ولري. [۱۰]

د لوبنر جایزې سیالۍ 2003 قواعد په واضح ډول د روباټ ملکيت او حقونو مسله په ګوته کړه:

د انځورګرۍ روبوټ چې په راتلونکي کې د انساني انځورګرانو ځای ناستی کیدی شي

۶۱ مه شمېره قانون: که په کوم کال کې د سرې پوهنتون یا کیمبرج پوهنتون لخوا د خلاصې سرچینې سافټویر پروژه داخله شوې وي د سپینو زرو مډال یا د سرو زرو مډال وګټي ، نو د سيالۍ مډال يا پيسې به هغه وګړو ته ورکړل شي چې د دې پروژې دپوستغالي (سافټوير) د پراختيا مسؤلين وي. که چېرې مسؤلين نامالوم وي يا دا چې د پروژې د مسؤلينو ترمنځ اختلاف موجود وي. د مډال او انعام پیسې به تر هغه وخته پورې ساتل کیږي چې دا پروژه په قانوني توګه د يو چا ملکیت وګرځي او بیا به مډال او جایزه په قانوني توګه هماغه شخص ته ورکولي چې روباټ د چا ملکيت ګرځي. [۱۱]

انساني ګواښ[سمول]

محرمیت ته ګواښ[سمول]

په ناول کې ، الکساندر سولزینیتسین د وینا پیژندنې ټیکنالوژۍ لومړۍ حلقه بیان کړه، کوم چې د استبدادي حکومت په خدمت کې و او د انسان خبرې اترې یې ګواښلې. [۱۲] که چیرې د مصنوعي استخباراتو برنامه شتون ولري چې د طبیعي ژبې او وینا (د مثال په توګه ، انګلیسي ) د پوهیدو وړتیا ولري ، نو بیا په تیوري توګه د سم پروسس کولو ځواک سره ، دا کولی شي د تليفون هر ډول خبرو اترو ته غوږ ونيسي او د نړۍ هر برېښناليک ولولي او پرې پوه شي. او د چلوونکي پروګرام ته په ریښتیا سره راپور ورکړئ چې څه ویل شوي او په حقیقت کې چا ویلي دي. د دې په څیر د AI برنامه کولی شي له حکومتونو یا ادارو سره د دوی مخالفینو په ځپلو کې مرسته وکړي او د محرمیت لپاره خورا ګواښ دی.

انساني نسل ته ګواښ[سمول]

لکه څنګه چې په ډیری فلمونو او ساینسي افسانو کې لیدل کیږي. د مصنوعي هوښيارۍ له رامنځته کېدو وروسته د فکري او فکري بلوغ پر مهال د انسان نسل تل د روبوټونو له ګواښ سره مخ شوی دی. خو د ځینو وړاندوینو له خپرېدو وروسته، لکه تر ۲۰۲۵ کال پورې د ۴۵ سلنه بشري پوځي سرتېرو ځای پرځای کول، دا اندېښنې نورې هم جدي شوې. [۱۳] له ۲۰۳۰ کال راهیسې د دې امکان شته چې د کارګرانو او د ټولنې د مشرانو ډېره لویه برخه به روبوټان وي، چې د دوی له خوا د ګډوډۍ يا ګډوډۍ په صورت کې به انساني نسل له ګواښ سره مخ شي .[۱۴] [۱۵] په دې حالت کې ممکن داسې قوانين رامنځته شي چې د فکر کولو ، احساس ، خپلواکۍ او د روبوټ ازادۍ محدودیت محدود کړي. [۱۶]

انساني کرامت ته ګواښ[سمول]

په 1976 کې، جوزف ویسینبام وویل چې د مصنوعي استخباراتو ټیکنالوژي بايد د انسانانو په ځای کې په داسې شرايطو کې ونه کارول شي چې پاملرنې، مراقبت او درناوي ته اړتیا لري، لکه د لاندې څخه کوم:

  • د پیرودونکي خدمت استازی (مصنوعي استخباراتو ټیکنالوژي اوس مهال د IVRs لپاره کارول کیږي)
  • یو معالج
  • د لویانو او ماشومانو لپاره نانی
  • یو عسکر
  • یو قاضي
  • یو پولیس افسر

Weisenbaum تشریح کوي چې پدې حالتونو کې موږ اړتیا لرو چې د شخص خواخوږي او متقابل تفاهم احساس کړو. که ماشینونه په دې کارونو کې د انسانانو ځای ونیسي، موږ به ځان د دوی لپاره اجنبی وګڼو، موږ به د کمتری او ستړیا احساس وکړو. مصنوعي هوښیارتیا، که په دې توګه وکارول شي، د انسان کرامت ته ګواښ ګڼل کیږي. [۱۷]

پامیلا مک کرډوک له ښځو سره د خبرو پر مهال وویل: "زه غواړم خپل بخت په یو بې طرفه کمپیوټر سره وازمایم،" په دې معنی چې د کمپیوټر قضاوت به د قاضي یا پولیس په توګه بې طرفه وي، پرته له انساني جبلت. د مصنوعي استخباراتو بنسټ ایښودونکی جان مک کارتي د ویزنبام اخلاقي پایلې باندې نیوکه کوي. "کله چې د انسان اخلاق مبهم او نیمګړي وي، دا د دې لامل ګرځي چې کله کله د ظلم غوښتنه وکړي".

بل هیبرډ [۱۸] لیکي: «انساني کرامت غواړي چې د نړۍ د مخلوقاتو له ناپوهۍ څخه د خلاصون هڅه وکړو او د دې هڅې لپاره مصنوعي ځيرکتيا يا ويښيارتيا اړینه ده. »

شفافیت او خلاصې سرچینې[سمول]

بل هیبرډ وايي ځکه چې AI په انسانیت باندې دومره ژور اغیزه لري، د AI پراختيا د انسانيت د راتلونکي استازيتوب کوي، او له همدې امله د دوی هڅو ته د دوی اخلاقي ژمنتیا باید په روښانه توګه تعریف شي. [۱۹] بین ګورتزیل او ډیویډ هارټ OpenCog د مصنوعي استخباراتو پراختیا لپاره د خلاصې سرچینې په توګه رامینځته کړ. [۲۰] OpenAI د غیر انتفاعي مصنوعي استخباراتو څیړنیز شرکت دی چې د ایلون مسک ، سیم الټمن او نورو لخوا تاسیس شوی ترڅو د خلاصې سرچینې مصنوعي ځيرکتيا ته پراختيا او وده ورکړي، ترڅو دانسانيت راتلونکي ته وده ورکړي. [۲۱] او د دې موخو لپاره ډېرې نورې خلاصې سرچینې شرکتونه هم شتون لري.

اړوندې پوښتنې[سمول]

څېړونکي
سازمان

پايليک[سمول]

  1. Veruggio, Gianmarco (2007). "The Roboethics Roadmap" (PDF). Scuola di Robotica: 2. د اصلي (PDF) آرشيف څخه پر ۱۵ اوت ۲۰۱۱ باندې. د لاسرسي‌نېټه ۲۸ مارچ ۲۰۱۱. الوسيط |CitationClass= تم تجاهله (مساعدة); الوسيط |archiveurl= و |archive-url= تكرر أكثر من مرة (مساعدة); الوسيط |archivedate= و |archive-date= تكرر أكثر من مرة (مساعدة); Cite journal requires |journal= (مساعدة); تحقق من التاريخ في: |archive-date= (مساعدة)
  2. کينډۍ:یادکرد وب
  3. Evans, Woody (2015). "Posthuman Rights: Dimensions of Transhuman Worlds". Universidad Complutense Madrid. د لاسرسي‌نېټه ۰۷ اپرېل ۲۰۱۶. الوسيط |CitationClass= تم تجاهله (مساعدة); Cite journal requires |journal= (مساعدة)
  4. The American Heritage Dictionary of the English Language, Fourth Edition
  5. (په December 21, 2006 باندې). Robots could demand legal rights. BBC News
  6. (په April 24, 2007 باندې). Human rights for robots? We're getting carried away. The Times Online. The Times of London
  7. (په April 24, 2007 باندې). Human rights for robots? We're getting carried away. The Times Online. The Times of London
  8. McGee, Glenn. "A Robot Code of Ethics". The Scientist. د اصلي آرشيف څخه پر ۹ آوریل ۲۰۱۱ باندې. د لاسرسي‌نېټه ۵ ژوئن ۲۰۱۶. الوسيط |CitationClass= تم تجاهله (مساعدة); تحقق من التاريخ في: |access-date=, |archive-date= (مساعدة)
  9. Kurzweil, Ray (2005). The Singularity is Near. Penguin Books. د کتاب نړيواله کره شمېره 0-670-03384-7. الوسيط |CitationClass= تم تجاهله (مساعدة)CS1 maint: ref=harv (link)
  10. The Big Question: Should the human race be worried by the rise of robots?, Independent Newspaper,
  11. Loebner Prize Contest Official Rules — Version 2.0 Archived ۳ مارس ۲۰۱۶, at the Wayback Machine. The competition was directed by David Hamill and the rules were developed by members of the Robitron Yahoo group.
  12. کينډۍ:Harvard citation
  13. "تهدید نژاد انسان به وسیله ربات ها". الوسيط |CitationClass= تم تجاهله (مساعدة)
  14. کينډۍ:یادکرد وب
  15. کينډۍ:یادکرد وب
  16. کينډۍ:یادکرد وب
  17. Joseph Weizenbaum, quoted in کينډۍ:Harvard citation no brackets
  18. Hibbard, Bill (2014): "Ethical Artificial Intelligence".
  19. Open Source AI.
  20. OpenCog: A Software Framework for Integrative Artificial General Intelligence.
  21. Inside OpenAI, Elon Musk’s Wild Plan to Set Artificial Intelligence Free Cade Metz, Wired 27 April 2016.

بهرنۍ لینک[سمول]