الگوریتمي انحراف

د ويکيپېډيا، وړیا پوهنغونډ له خوا

الګوریتمي انحراف (Algorithmic bias) په یو کمپیوټري سیسټم کې سیستماتیکې او تکرار کېدونې تېروتنې توصیف کوي؛ هغه چې «ناسمې» پایلې رامنځته کوي لکه د الګوریتم د پام وړ عملکرد له مخې د متفاوتو لارو چارو څخه په ګټنې یو ډلې ته د بلې په پرتله «امتیاز» قائلېږي.

دغه ډول انحراف کېدای شي د ګڼ شمېر لاملونو له مخې وي چې کېدای شي په هغو کې د الګوریتم طراحي، معلوماتو ته د کوډ ورکولو، راغونډولو او انتخاب ډول چې د الګوریتم څخه د ګټنې په زده کړه کې ترې کار اخیستل کېږي شامل شي، خو دغو ته محدود نه دی. د بېلګې په توګه، الګوریتمي انحراف د پلټونکو سیسټمونو او ټولنیزو رسنیو په اساساتو کې لیدل کېږي. دغه انحراف کېدلای شي د خصوصي حریم له غیر عمدي سرغړونې څخه د نژادي، جنسیتي، جنسي او قومي ټولنیز انحراف تر پیاوړتیا پورې اغېز ولري. د الګوریتمي انحراف مطالعه تر ډېره پورې هغو الګوریتمونو ته اړوندېږي چې «سیستماتیک او غیرعادلانه» انحراف منعکس کوي. په وروستیو کې دغه انحراف ته په قانوني اډانه لکه د اروپايي اتحادیې له خوا د اطلاعاتو د خوندیتوب په عمومي مقررې (۲۰۱۸ زکال) او د مصنوعي ځیرکتیا په وړاندیز شوي قانون (۲۰۲۱ زکال) کې پام شوی.

په داسې حال چې الګوریتمونه د ټولنې، سیاست، بنسټونو او چلن د تنظیم په برخه کې خپلې وړتیاوې پراخوي، ټولن پوهانو هغو لارو ته پام کړی چې په هغو کې له وړاندې نه څرګندې شوې د وتو لارې او د اطلاعاتو لاس وهنه کولای شي په فزیکي نړۍ اغېز ولري. له دې امله چې الګوریتمونه تر ډېره پورې شنډ او بې پلوه په پام کې نیول کېږي خو په ناسمه توګه کولای شي چې له انساني تخصص څخه په زیاته کچه ځواک وړاندې کړي (تر یوه بریده د اتوماتیک کولو د اروايي انحراف د ښکارندې له امله)؛ همدارنګه په ځینو مواردو کې په الګوریتمونو باندې تکیه کولای شي دانساني مسئولیت ځایګی ونیسي. دغه ډول انحراف کېدای شي له وړاندې څخه د موجودو کلتوري، ټولنیزو یا سازماني تمو د پایلې په توګه د الګوریتم په طراحي کې د تخنیکي محدودیتونو له امله او یا هم د هغو مخاطبینو د نه انګېرل شوې استفادې له امله چې د یو سافټ ویر په لومړنۍ طراحي کې په پام کې نه دي نیول شوي؛ الګوریتمي سیسټم ته داخل کړای شي.

الګوریتمي انحراف د ټاکنو له پایلو څخه نیولې په انلاین توګه د نفرت جوړونکو خبرو اترو د خپراوي تر مواردو پورې یادول کېږي. همدارنګه د جنايي عدالت، روغتیايي پالنو او استخدام په برخو کې د نژادي، ټولنیز – اقتصادي او جنسیتي تبعیض د ترکیب په مواردو کې یادول کېږي. دڅېرې پېژندلو په ټکنالوژۍ کې نسبي کمزورتیا چې له امله یې ډېرې تورې څېرې په سمه توګه نشي تشخیص کېدلای د تور پوستو وګړو له یو شمېر ناقانونه نیونو سره اړونده ده؛ هغه ستونزه چې له یو شمېر نا متعادله اطلاعاتو څخه سرچینه اخلي. د الګوریتمي انحراف په درک، تحقیق او کشف کې ستونزې د الګوریتمونو د ځانګړي ماهیت له امله چې معمولا د سوداګریزو اسرارو په توګه ګڼل کېږي دوام لري. آن هغه مهال چې کامله روڼتیا وړاندې کېږي، د ځانګړو الګوریتمونو پیچلتیا د هغو د عملکرد په درک کې ستونزې جوړوي. له دې سربېره الګوریتمونه کېدای شي تغیر وکړي او د وردوي او خروجي اړوند داسې غبرګون وښيي چې د وړاندوینې وړ نه وي او یا هم په اسانۍ سره د تحلیل په موخه بیاځلي تولید نه شي. په ډېری مواردو کې آن په یوه ویب پانه یا پروګرام کې د ارزونې په موخه واحد «الګوریتم» شتون نه لري، بلکې د هماغه سرویس د کار کوونکو ترمنځ د پروګرامونو او اطلاعاتو یو بل ته اړونده شبکه شتون لري.

اغېز[سمول]

سوداګریز اغېز[سمول]

شرکتي الګوریتمونه کولای شي په ناڅرګنده توګه د مالي تنظیماتو یا د شرکتونو ترمنځ هوکړو ته انحراف وکړي، پرته له دې چې کاروونکی یې وپوهېږي هغه چې کېدای شي په غلطۍ سره فکر وکړي چې دا بې پلوه دي. د بېلګې په توګه امریکن ایرلاین په ۱۹۸۰ مه لسیزه کې د الوتنو د لټون یو الګوریتم جوړ کړ. دغه پروګرام د بېلابېلو هوايي شرکتونو الوتنې خپلو پیرودونکو ته وړاندې کولې، خو له دې سره یې قیمت یا هوساینې ته له پام پرته د خپلو الوتنو تقویت په کې سنجش کړی و. د متحده ایالاتو په کانګرس کې د دغه هوايي شرکت مشر په زغرده توګه څرګنده کړه چې دغه سیسټم یې د سیالي کونکي مزیت په موخه د ترجیجي چلن له مخې جوړ کړی دی.  [۱][۲]

په ۱۹۹۸ زکال کې هغې مقالې چې ګوګل لټون کونکی سیسټم په کې تشریح شوی و په کې راغلي و چې د دغې کمپنۍ بنسټګر د لګښت ورکړل شوې ځای ټاکنې اړوند د شفافیت پالیسي د خپل لټون په پایلو کې تعقیبوي او استدلال یې کاوه چې «د تبلیغاتو پر بنسټ لټون کوونکي سیسټمونه په ذاتي توګه د مصرف کوونکو پر ځای د تبلیغ کوونکو لوري ته انحراف لري». دغه انحراف کېدای شي د کاروونکي لپاره یوه «نه څرګندېدونکې» لاسوهنه وي. [۳]

انلاین کرکه پاروونکې څرګندونې[سمول]

د فیس بوک د داخلي اسنادو پر بنسټ، فیس بوک په ۲۰۱۷ زکال کې داسې الګوریتم طراحي کړ چې د تور پوستو ماشومانو اړوند یې د سپین پوستو نارینه وو پر لیکه/انلاین کرکې پاروونکې څرګندونې او هغه څرګندونې چې د ارزونې پر بنسټ یې دغه ډول اعتراضي محتوا لرله؛ هیسته کولې. دغه الګوریتم چې د کمپیوټري پروګرامو او د محتوا د انساني ارزونکو له ترکیب څخه جوړ و د ځانګړو ډلو پر ځای د پراخو ټولګو څخه د خوندیتوب په موخه رامنځه شو. د بېلګې په توګه هغه لیکنې چې «مسلمانان» یې محکوم کول، بلاک کېدلې، په داسې حال کې چې نورو هغو به چې یوازې «راډیکال مسلمانان» یې په نښه کول اجازه یې لرله. [۴][۵][۶][۷]

څارنه[سمول]

د یو بل سره تړلو کمرو سافټ ویر کېدای شي په ذاتي توګه سیاسي وګڼل شي ځکه داسې الګوریتمونو ته اړتیا لري څو عادي او غیر عادي چلندونه سره جلا او مالوم کړي چې کوم کسان په ځانګړي مهال کې ځانګړي مکان ته اړوند دي. ښوول شوې چې په یوه نژادي طیف کې د څېرو د پېژندنې لپاره په انځورونو کې د نژادي توپیرونو له امله د هغو اطلاعاتي زېرمې له محدودیت سره مخ کېږي. که چېرې ډیری انځورونه یو نژاد یا جنسیت ته اړوند وي سافټ ویر یې د هغه نژاد یا جنسیت نور غړي په ښه توګه تشخیص کولای شي.  [۸][۹][۱۰][۱۱]

جنسي تبعیض[سمول]

په ۲۰۱۱ زکال کې د همجنسګرایانو د اړیکې نیولو اپلیکیشن ګرینډر (Grindr) راپور خپور کړ چې د اندروید سټور د پلورنځي الګوریتم د هغوی اپلیکیشن له هغو پروګرامونو سره اړوند ښيي چې د جنسي مجرمانو د موندلو په موخه طراحي شوي او نیوکه کوونکي یې وايي چې هغوی په ناسمه توګه همجنسګرايي له پدوفیلي سره اړونده بولي. لیکوال مایک آنانی په دغه شرکت باندې په اتلانتیک مجله کې نیوکه وکړه او استدلال یې وکړ چې دغه ډول بنسټونه د همجنسګرایانو نارینه و په واسطه بدنامه کېږي. په ۲۰۰۹ زکال کې د امازون انلاین پلورنځي هغه مهال چې د «لویانو د محتویاتو» د بلاک کولو اړوند الګوریتم ته یې پراختیا ورکړه ۵۷۰۰۰ هغه کتابونه چې جنسي یا د همجنسګرایانو موضوعاتو ته اړوند کېدل لکه د Brokeback Mountain په نامه ناول چې د هغو د منتقدینو له خوا یې هم هیسته کول وستایل شول؛ د خپل پلورنځي له لیست هیسته کړل. [۱۲][۱۳][۱۴][۱۵]

په ۲۰۱۹ زکال کې فیسبوک وموندله چې «زما د ښځینه ملګرو د انځورونو» لپاره لټون له یو شمېر لنډیزونو لکه «په لنډو جامو» یا د «ساحل په غاړه» سره شتون درلود. بر خلاف «زما د نارینه ملګرو د انځورونو» لپاره لټون هېڅ پایله نلرله. [۱۶]

همدارنګه موندل شوې چې د څېرې د تشخیص ټکنالوژي د درې جنسه وګړو د څېرې پېژندلو په برخه کې ستونزې لري. په ۲۰۱۸ زکال کې د اوبر د څېرې د تشخیص له سافټ ویرونو سره چې د خپل داخلي امنیتي سیسټم په موخه یې ترې ګټنه کوله د اوبر د هغو موټر چلونکو د ستونزو راپور شتون درلود چې جنسیتي تغیر یې درلود او یا هم د جنسیتي تغیر په حالت کې و. په پایله کې د اوبر د یو شمېر درې جنسه و چلوونکو اکونټونه وځنډول شول او د هغو لپاره یې د کرایې په بیه او همدارنګه شغلي بالقوه لګښت له ځانه سره درلود، دا ټول له دې امله و چې د څېرې پېژندلو سافټ ویر د هغو چلوونکو د څېرې په تشخیص کې ستونزه لرله چې جنسیت یې د بدلون په حال کې و. [۱۷][۱۸]

د ګوګل لټون[سمول]

په داسې حال کې چې کاروونکي په بشپړ ډول اتوماتیکې پایلې تولید کوي؛ ګوګل نه دی توانېدلی څو جنسي او نژاد پرسته متون په اتوماتیک ډول لرې کړي. د بېلګې په توګه صفیا نوبل په خپل کتاب ځپونکي الګوریتمونه: څه ډول لټون کوونکي سیسټمونه نژادپرستي پیاوړې کوي (Algorithms of Oppression: How Search Engines Reinforce Racism) کې د «تور پوستو نجونو» د پلټنې نمونې ته اشاره کوي چې په پایله کې یې فورنوګرافیک انځورونه را اوړي. ګوګل ادعا کړې چې د دغو پاڼو د پاکولو واک نلري او یوازې هغه مهال دغه چاره امکان لري چې غیرقانوني وګڼل شي. [۱۹]

سرچينې[سمول]

  1. Sandvig, Christian; Hamilton, Kevin; Karahalios, Karrie; Langbort, Cedric (22 May 2014). "Auditing Algorithms: Research Methods for Detecting Discrimination on Internet Platforms" (PDF). 64th Annual Meeting of the International Communication Association. د لاسرسي‌نېټه ۱۸ نومبر ۲۰۱۷. الوسيط |CitationClass= تم تجاهله (مساعدة)
  2. Friedman, Batya; Nissenbaum, Helen (July 1996). "Bias in Computer Systems" (PDF). ACM Transactions on Information Systems. 14 (3): 330–347. doi:10.1145/230538.230561. S2CID 207195759. د لاسرسي‌نېټه ۱۰ مارچ ۲۰۱۹. الوسيط |CitationClass= تم تجاهله (مساعدة)
  3. Sandvig, Christian; Hamilton, Kevin; Karahalios, Karrie; Langbort, Cedric (22 May 2014). "Auditing Algorithms: Research Methods for Detecting Discrimination on Internet Platforms" (PDF). 64th Annual Meeting of the International Communication Association. د لاسرسي‌نېټه ۱۸ نومبر ۲۰۱۷. الوسيط |CitationClass= تم تجاهله (مساعدة)
  4. Angwin, Julia; Grassegger, Hannes (28 June 2017). "Facebook's Secret Censorship Rules Protect White Men From Hate Speech But Not Black Children — ProPublica". ProPublica. د لاسرسي‌نېټه ۲۰ نومبر ۲۰۱۷. الوسيط |CitationClass= تم تجاهله (مساعدة)
  5. (په 14 September 2017 باندې). Facebook Enabled Advertisers to Reach 'Jew Haters' — ProPublica. ProPublica.
  6. کينډۍ:Cite conference
  7. Ghaffary, Shirin (15 August 2019). "The algorithms that detect hate speech online are biased against black people". Vox. د لاسرسي‌نېټه ۱۹ فبروري ۲۰۲۰. الوسيط |CitationClass= تم تجاهله (مساعدة)
  8. Furl, N (December 2002). "Face recognition algorithms and the other-race effect: computational mechanisms for a developmental contact hypothesis". Cognitive Science. 26 (6): 797–815. doi:10.1207/s15516709cog2606_4. الوسيط |CitationClass= تم تجاهله (مساعدة)
  9. Raji, Inioluwa Deborah; Gebru, Timnit; Mitchell, Margaret; Buolamwini, Joy; Lee, Joonseok; Denton, Emily (7 February 2020). "Saving Face: Investigating the Ethical Concerns of Facial Recognition Auditing". Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society. Association for Computing Machinery: 145–151. arXiv:2001.00964. doi:10.1145/3375627.3375820. S2CID 209862419. د کتاب نړيواله کره شمېره 9781450371100. الوسيط |CitationClass= تم تجاهله (مساعدة)
  10. Introna, Lucas; Wood, David (2004). "Picturing algorithmic surveillance: the politics of facial recognition systems". Surveillance & Society. 2: 177–198. د لاسرسي‌نېټه ۱۹ نومبر ۲۰۱۷. الوسيط |CitationClass= تم تجاهله (مساعدة)
  11. Buolamwini, Joy; Gebru, Timnit (2018). "Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification" (PDF). Proceedings of Machine Learning Research. 81: 1 – عبر MLR Press. الوسيط |CitationClass= تم تجاهله (مساعدة)
  12. Ananny, Mike (2011-04-14). "The Curious Connection Between Apps for Gay Men and Sex Offenders". The Atlantic. د لاسرسي‌نېټه ۱۸ نومبر ۲۰۱۷. الوسيط |CitationClass= تم تجاهله (مساعدة)
  13. Kafka, Peter. "Did Amazon Really Fail This Weekend? The Twittersphere Says 'Yes,' Online Retailer Says 'Glitch.'". AllThingsD. د لاسرسي‌نېټه ۲۲ نومبر ۲۰۱۷. الوسيط |CitationClass= تم تجاهله (مساعدة)
  14. Kafka, Peter. "Amazon Apologizes for 'Ham-fisted Cataloging Error'". AllThingsD. AllThingsD. د لاسرسي‌نېټه ۲۲ نومبر ۲۰۱۷. الوسيط |CitationClass= تم تجاهله (مساعدة)
  15. Gillespie, Tarleton; Boczkowski, Pablo; Foot, Kristin (2014). Media Technologies. Cambridge: MIT Press. د کتاب پاڼي 1–30. د کتاب نړيواله کره شمېره 9780262525374. الوسيط |CitationClass= تم تجاهله (مساعدة)
  16. (په 2019-02-22 باندې). A 'Sexist' Search Bug Says More About Us Than Facebook.
  17. "Some AI just shouldn't exist". 2019-04-19. الوسيط |CitationClass= تم تجاهله (مساعدة)
  18. Samuel, Sigal (2019-04-19). "Some AI just shouldn't exist". Vox (په انګلیسي ژبه کي). د لاسرسي‌نېټه ۱۲ ډيسمبر ۲۰۱۹. الوسيط |CitationClass= تم تجاهله (مساعدة)
  19. Noble, Safiya Umoja (2018-02-20). Algorithms of Oppression: How Search Engines Reinforce Racism. New York. OCLC 987591529. د کتاب نړيواله کره شمېره 9781479837243. الوسيط |CitationClass= تم تجاهله (مساعدة)