د ويکيپېډيا، وړیا پوهنغونډ له خوا
د مصنوعي ځيرکتيا خوندیتوب یو انډولیزه ساحه ده چې د ناوړه ګټې اخیستنې، پېښو، یا نورو زیان رسوونکو پایلو مخنیوي پورې اړه لري چې د مصنوعي ځيرکتيا (AI) سیسټمونو څخه رامینځته کېدی شي. په دې موضوع (سکالو) کې د ماشین اخلاقي اصول شامل دي، چې موخه یې د مصنوعي ځيرکتيا سیسټمونه اخلاقي او ګټور کول دي، او تخنیکي ستونزې او د خطر څارنې سیسټمونه په داسې بڼه تيارول دي چې د باور وړ وي. د څېړنې هاخوا، د نورمونو او پالیسیو رامینځته کول چې د AI خوندیتوب ته وده ورکوي د AI خوندیتوب اهدافو څخه دي.
- ويکيپېډيا ګډونوال. «AI safety». انګليسي ويکيپېډيا، ۱۳ جون ۲۰۲۳.
|