د مصنوعي ځيرکتيا خونديتوب

د ويکيپېډيا، وړیا پوهنغونډ له خوا
د مصنوعي ځيرکتيا خوندیتوب یو انډولیزه ساحه ده چې د ناوړه ګټې اخیستنې، پېښو، یا نورو زیان رسوونکو پایلو مخنیوي پورې اړه لري چې د مصنوعي ځيرکتيا (AI) سیسټمونو څخه رامینځته کېدی شي. په دې موضوع (سکالو) کې د ماشین اخلاقي اصول شامل دي، چې موخه یې د مصنوعي ځيرکتيا سیسټمونه اخلاقي او ګټور کول دي، او تخنیکي ستونزې او د خطر څارنې سیسټمونه په داسې بڼه تيارول دي چې د باور وړ وي. د څېړنې هاخوا، د نورمونو او پالیسیو رامینځته کول چې د AI خوندیتوب ته وده ورکوي د AI خوندیتوب اهدافو څخه دي.
ځینې لارې چې په کې پرمختللې مصنوعي ځيرکتيا (AI) کولی شي د ډېر ځواک ترلاسه کولو هڅه وکړي. کېدای شي ځينې وختونه د ځواک ترلاسه کولو په پار له ځانه ځينې خپلسري چلندونه ښکاره کړي، ځکه چې ځواک د هر ډول موخو د ترسراوي لپاره اړين دی.

سرچينې[سمول]

  • ويکيپېډيا ګډونوال. «AI safety». انګليسي ويکيپېډيا، ۱۳ جون ۲۰۲۳.