د معلوماتو نظریه

د ويکيپېډيا، وړیا پوهنغونډ له خوا
و اصلی برخی ته ورشی د پلټنې ځای ته ورټوپ کړی

د معلوماتو نظریه د ډیجیتلي معلوماتو د مقدار کولو، ذخیره کولو او د ارتباط له علمي زده کړې څخه بحث کوي. دا رشته اساساً په ۱۹۲۰ ز کلونو کې د هري نایکویسټ او رالف هارتلي او په ۱۹۴۰ ز کلونو کې د کلوډ شانون د آثارو پرمټ رامنځته شوه. دا څانګه د احتمالاتو تیوري، احصایه، کمپیوټر ساینس، احصایوي میخانیک، معلوماتي انجنیرۍ او د برېښنا انجینرۍ ګډه څانګه ده.   [۱][۲]

د معلوماتو په نظریه کې مهم مقیاس انتروپي ده. انټروپي د تصادفي متحول د قیمت یا د تصادفي پروسې په پایله کې د موجود احتمال مقدار اندازه کوي. مثلا د صافې سکې (چې دوې مساوي احتمالي پایلې لري) د اچولو د پایلو تشخیص، د کمسایي (چې شپږ مساوي احتمالي پایلې لري) د اچولو د پایلېو د تشخیص په پرتله لږ معلومات (ټيټه انټروپی) چمتو. د معلوماتو په تیوري کې ځینې نور مهم مقیاسونه، متقابل معلومات، د کانال ظرفیت، د خطا توانونه او نسبي انتروپي دي. د معلوماتو تیورۍ مهمې فرعي برخې عبارت دي له د سرچینې کوډینګ، د پېچلتیا الګورتمي تیوري، د معلوماتو الګورتمي تیوري او د معلوماتو تیوریک امنیت.  

د معلوماتو نظریې د اساسي موضوعاتو کارونې د سرچینې کوډینګ / د ډېټا تراکم (مثلا د زېپ فایلونو لپاره) او د کانال کوډینک/ د خطا تشخیص او سمون (مثلا د DSL لپاره) دي. ژورې فضا ته د وویجر د ماموریتونو په بریالیتوب، د سي ډي په کشف، د ګرځنده تلیفونونو په امکان کېدل او د انټرنټ په پراختیا باندې يې ډېرې مهمې اغېزې درلودې. دې تیوري په نورو برخو کې لکه په احصایوي استنباط، کریپټوګرافي، عصبي بیولوژي، ادراک، ژبپوهنه، د مالیکولي کوډونو تکامل او کارکرد (بایو انفورماتیک)، حرارتي فزیک، مالیکولي ډینامیک، کوانتمي محاسبې، تور سوري، د معلوماتو ترلاسه کول، د معلوماتو راټولول، د ادبي غلا تشخیص، د نمونې پېژندنه، د بې نظمۍ تشخیص او حتی د هنر په خلقت کې کارونې لري.   [۳][۴][۵][۶][۷][۸][۹][۱۰][۱۱]

کتنه[سمول]

د معلوماتو نظریه د معلوماتو لېږد، پروسس، استخراج، او کارونه تر بحث لاندې نیسي. په فرضي ډول، معلومات د احتمال د حل لارې په توګه ګڼل کېدای شي. له شور نه په ډک  کانال کې د معلوماتو د ارتباط په صورت کې، دا فرضي مفهوم په ۱۹۴۸ کال کې د کلوډ شانون له لوري د ارتباط د ریاضیکي نظریې په نوم په یوه مقاله کې رسمي شو، چې په دې مقاله کې معلومات د ممکنه پیغامونو یوه ټولګه فرض کېږي، او موخه  داده چې پیغامونه له شور نه د ډک چینل له لارې واستول شي او پیغام اخیستونکی د چینل د شورماشور ترڅنګ د خطا لږ احتمال سره پیغام بېرته ترلاسه کړي. د شانون اصلي پایلې، د شورماشوري-چینل کوډینګ تیورې وښودله چې د چینل د ډېرې کارونې د محدودیت په صورت کې، د معلوماتو کچه چې په جانبي ډول لاسته راتلای شي، د چینل له ظرفیت سره مساوي ده، هغه کمیت چې یوازې د چینل په احصایه پورې چې پیغامونه په کې استول کېږي، تړاو لري. [۱۲]

د کوډینګ تیوري د روښانه مېتودونو، چې کوډونه بلل کېږي، د موندلو سره تړاو لري، چې په شورماشوري چینلونو کې موثریت زیات کړي او د ډېټا د ارتباط د خطا کچې کمې کړي ترڅو د چینل ظرفیت ته نږدې شي. دا کوډونه تقریباً د ډېټا د تراکم (د سرچینې کوډینګ) او د خطا د اصلاح (د چینل کوډینګ) په تخنیکونو وېشل کېږي. په دوهم حالت کې، د هغو مېتودونو موندولو ډېر کلونه ونیول چې د شانون د کار په پر مټ ثابت او ممکن شول.  

د معلوماتو نظریې د کوډونو دریمه طبقه کریپټوګرافیک الګوریتمونه (دواړه کوډونه او رمزي پيغامونه یا شیفرونه) دي. د کوډینګ نظریې او د معلوماتو نظریې مفهومونه، مېتودونه او پایلې په کریپټوګرافي او کریپټوانالیز کې کارول کېږي. د تاریخي کارونو لپاره د بان (واحد) مقاله وګورئ.  

سرچينې[سمول]

  1. "Claude Shannon, pioneered digital information theory". FierceTelecom (په انګلیسي ژبه کي). د لاسرسي‌نېټه ۳۰ اپرېل ۲۰۲۱. الوسيط |CitationClass= تم تجاهله (مساعدة)
  2. Shannon, Claude Elwood (1998). The mathematical theory of communication. Warren Weaver. Urbana: University of Illinois Press. OCLC 40716662. د کتاب نړيواله کره شمېره 0-252-72546-8. الوسيط |CitationClass= تم تجاهله (مساعدة)
  3. Burnham, K. P. and Anderson D. R. (2002) Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach, Second Edition (Springer Science, New York) کينډۍ:ISBN.
  4. F. Rieke; D. Warland; R Ruyter van Steveninck; W Bialek (1997). Spikes: Exploring the Neural Code. The MIT press. د کتاب نړيواله کره شمېره 978-0262681087. الوسيط |CitationClass= تم تجاهله (مساعدة)
  5. Delgado-Bonal, Alfonso; Martín-Torres, Javier (2016-11-03). [اصطلاحي تېروتنه: د ناپېژندلې ليکنښې لوښه "۱". "Human vision is determined based on information theory"] (in En). Scientific Reports 6 (1): 36038. doi:10.1038/srep36038. ISSN 2045-2322. PMID 27808236. Bibcode2016NatSR...636038D. 
  6. cf; Huelsenbeck, J. P.; Ronquist, F.; Nielsen, R.; Bollback, J. P. (2001). [اصطلاحي تېروتنه: د ناپېژندلې ليکنښې لوښه "۱". "Bayesian inference of phylogeny and its impact on evolutionary biology"]. Science 294 (5550): 2310–2314. doi:10.1126/science.1065889. PMID 11743192. Bibcode2001Sci...294.2310H. 
  7. Allikmets, Rando; Wasserman, Wyeth W.; Hutchinson, Amy; Smallwood, Philip; Nathans, Jeremy; Rogan, Peter K. (1998). "Thomas D. Schneider, Michael Dean (1998) Organization of the ABCR gene: analysis of promoter and splice junction sequences"]. Gene 215 (1): 111–122. doi:10.1016/s0378-1119(98)00269-8. PMID 9666097. http://alum.mit.edu/www/toms/. 
  8. Jaynes, E. T. (1957). "Information Theory and Statistical Mechanics". Phys. Rev. 106 (4): 620. doi:10.1103/physrev.106.620. Bibcode1957PhRv..106..620J. http://bayes.wustl.edu/. 
  9. Talaat, Khaled; Cowen, Benjamin; Anderoglu, Osman (2020-10-05). [اصطلاحي تېروتنه: د ناپېژندلې ليکنښې لوښه "۱". "Method of information entropy for convergence assessment of molecular dynamics simulations"] (in En). Journal of Applied Physics 128 (13): 135102. doi:10.1063/5.0019078. Bibcode2020JAP...128m5102T. 
  10. Bennett, Charles H.; Li, Ming; Ma, Bin (2003). "Chain Letters and Evolutionary Histories". Scientific American 288 (6): 76–81. doi:10.1038/scientificamerican0603-76. PMID 12764940. Bibcode2003SciAm.288f..76B. http://sciamdigital.com/index.cfm?fa=Products.ViewIssuePreview&ARTICLEID_CHAR=08B64096-0772-4904-9D48227D5C9FAC75. Retrieved 2008-03-11. 
  11. David R. Anderson (November 1, 2003). "Some background on why people in the empirical sciences may want to better understand the information-theoretic methods" (PDF). د اصلي (PDF) آرشيف څخه پر July 23, 2011 باندې. د لاسرسي‌نېټه ۲۳ جون ۲۰۱۰. الوسيط |CitationClass= تم تجاهله (مساعدة)
  12. F. Rieke; D. Warland; R Ruyter van Steveninck; W Bialek (1997). Spikes: Exploring the Neural Code. The MIT press. د کتاب نړيواله کره شمېره 978-0262681087. الوسيط |CitationClass= تم تجاهله (مساعدة)