د معلوماتو نظریه

د ويکيپېډيا، وړیا پوهنغونډ له خوا

د معلوماتو نظریه د ډیجیتلي معلوماتو د مقدار کولو، ذخیره کولو او د ارتباط له علمي زده کړې څخه بحث کوي. دا رشته اساساً په ۱۹۲۰ ز کلونو کې د هري نایکویسټ او رالف هارتلي او په ۱۹۴۰ ز کلونو کې د کلوډ شانون د آثارو پرمټ رامنځته شوه. دا څانګه د احتمالاتو تیوري، احصایه، کمپیوټر ساینس، احصایوي میخانیک، معلوماتي انجنیرۍ او د برېښنا انجینرۍ ګډه څانګه ده.   [۱][۲]

د معلوماتو په نظریه کې مهم مقیاس انتروپي ده. انټروپي د تصادفي متحول د قیمت یا د تصادفي پروسې په پایله کې د موجود احتمال مقدار اندازه کوي. مثلا د صافې سکې (چې دوې مساوي احتمالي پایلې لري) د اچولو د پایلو تشخیص، د کمسایي (چې شپږ مساوي احتمالي پایلې لري) د اچولو د پایلېو د تشخیص په پرتله لږ معلومات (ټيټه انټروپی) چمتو. د معلوماتو په تیوري کې ځینې نور مهم مقیاسونه، متقابل معلومات، د کانال ظرفیت، د خطا توانونه او نسبي انتروپي دي. د معلوماتو تیورۍ مهمې فرعي برخې عبارت دي له د سرچینې کوډینګ، د پېچلتیا الګورتمي تیوري، د معلوماتو الګورتمي تیوري او د معلوماتو تیوریک امنیت.  

د معلوماتو نظریې د اساسي موضوعاتو کارونې د سرچینې کوډینګ / د ډېټا تراکم (مثلا د زېپ فایلونو لپاره) او د کانال کوډینک/ د خطا تشخیص او سمون (مثلا د DSL لپاره) دي. ژورې فضا ته د وویجر د ماموریتونو په بریالیتوب، د سي ډي په کشف، د ګرځنده تلیفونونو په امکان کېدل او د انټرنټ په پراختیا باندې يې ډېرې مهمې اغېزې درلودې. دې تیوري په نورو برخو کې لکه په احصایوي استنباط، کریپټوګرافي، عصبي بیولوژي، ادراک، ژبپوهنه، د مالیکولي کوډونو تکامل او کارکرد (بایو انفورماتیک)، حرارتي فزیک، مالیکولي ډینامیک، کوانتمي محاسبې، تور سوري، د معلوماتو ترلاسه کول، د معلوماتو راټولول، د ادبي غلا تشخیص، د نمونې پېژندنه، د بې نظمۍ تشخیص او حتی د هنر په خلقت کې کارونې لري.   [۳][۴][۵][۶][۷][۸][۹][۱۰][۱۱]

کتنه[سمول]

د معلوماتو نظریه د معلوماتو لېږد، پروسس، استخراج، او کارونه تر بحث لاندې نیسي. په فرضي ډول، معلومات د احتمال د حل لارې په توګه ګڼل کېدای شي. له شور نه په ډک  کانال کې د معلوماتو د ارتباط په صورت کې، دا فرضي مفهوم په ۱۹۴۸ کال کې د کلوډ شانون له لوري د ارتباط د ریاضیکي نظریې په نوم په یوه مقاله کې رسمي شو، چې په دې مقاله کې معلومات د ممکنه پیغامونو یوه ټولګه فرض کېږي، او موخه  داده چې پیغامونه له شور نه د ډک چینل له لارې واستول شي او پیغام اخیستونکی د چینل د شورماشور ترڅنګ د خطا لږ احتمال سره پیغام بېرته ترلاسه کړي. د شانون اصلي پایلې، د شورماشوري-چینل کوډینګ تیورې وښودله چې د چینل د ډېرې کارونې د محدودیت په صورت کې، د معلوماتو کچه چې په جانبي ډول لاسته راتلای شي، د چینل له ظرفیت سره مساوي ده، هغه کمیت چې یوازې د چینل په احصایه پورې چې پیغامونه په کې استول کېږي، تړاو لري. [۱۲]

د کوډینګ تیوري د روښانه مېتودونو، چې کوډونه بلل کېږي، د موندلو سره تړاو لري، چې په شورماشوري چینلونو کې موثریت زیات کړي او د ډېټا د ارتباط د خطا کچې کمې کړي ترڅو د چینل ظرفیت ته نږدې شي. دا کوډونه تقریباً د ډېټا د تراکم (د سرچینې کوډینګ) او د خطا د اصلاح (د چینل کوډینګ) په تخنیکونو وېشل کېږي. په دوهم حالت کې، د هغو مېتودونو موندولو ډېر کلونه ونیول چې د شانون د کار په پر مټ ثابت او ممکن شول.  

د معلوماتو نظریې د کوډونو دریمه طبقه کریپټوګرافیک الګوریتمونه (دواړه کوډونه او رمزي پيغامونه یا شیفرونه) دي. د کوډینګ نظریې او د معلوماتو نظریې مفهومونه، مېتودونه او پایلې په کریپټوګرافي او کریپټوانالیز کې کارول کېږي. د تاریخي کارونو لپاره د بان (واحد) مقاله وګورئ.  

سرچينې[سمول]

  1. Lua error in Module:Lang at line 48: attempt to index field 'lang_name' (a nil value).
  2. Shannon, Claude Elwood (1998). The mathematical theory of communication. Warren Weaver. Urbana: University of Illinois Press. OCLC 40716662. د کتاب نړيواله کره شمېره 0-252-72546-8. منځګړی |CitationClass= له پامه غورځول شوی (لارښود)
  3. Burnham, K. P. and Anderson D. R. (2002) Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach, Second Edition (Springer Science, New York) ISBN 978-0-387-95364-9.
  4. F. Rieke; D. Warland; R Ruyter van Steveninck; W Bialek (1997). Spikes: Exploring the Neural Code. The MIT press. د کتاب نړيواله کره شمېره 978-0262681087. منځګړی |CitationClass= له پامه غورځول شوی (لارښود)
  5. Lua error in Module:Lang at line 48: attempt to index field 'lang_name' (a nil value).
  6. cf; Huelsenbeck, J. P.; Ronquist, F.; Nielsen, R.; Bollback, J. P. (2001). "Bayesian inference of phylogeny and its impact on evolutionary biology". Science. 294 (5550): 2310–2314. Bibcode:2001Sci...294.2310H. doi:10.1126/science.1065889. PMID 11743192. S2CID 2138288. منځګړی |CitationClass= له پامه غورځول شوی (لارښود)
  7. Allikmets, Rando; Wasserman, Wyeth W.; Hutchinson, Amy; Smallwood, Philip; Nathans, Jeremy; Rogan, Peter K. (1998). "Thomas D. Schneider], Michael Dean (1998) Organization of the ABCR gene: analysis of promoter and splice junction sequences". Gene. 215 (1): 111–122. doi:10.1016/s0378-1119(98)00269-8. PMID 9666097. منځګړی |CitationClass= له پامه غورځول شوی (لارښود)
  8. Jaynes, E. T. (1957). "Information Theory and Statistical Mechanics". Phys. Rev. 106 (4): 620. Bibcode:1957PhRv..106..620J. doi:10.1103/physrev.106.620. منځګړی |CitationClass= له پامه غورځول شوی (لارښود)
  9. Lua error in Module:Lang at line 48: attempt to index field 'lang_name' (a nil value).
  10. Bennett, Charles H.; Li, Ming; Ma, Bin (2003). "Chain Letters and Evolutionary Histories". Scientific American. 288 (6): 76–81. Bibcode:2003SciAm.288f..76B. doi:10.1038/scientificamerican0603-76. PMID 12764940. د اصلي آرشيف څخه پر ۰۷ اکتوبر ۲۰۰۷ باندې. د لاسرسي‌نېټه ۱۱ مارچ ۲۰۰۸. منځګړی |CitationClass= له پامه غورځول شوی (لارښود); څوځلي تکرار شوی |archiveurl= و |archive-url= منځګړی (لارښود); څوځلي تکرار شوی |archivedate= و |archive-date= منځګړی (لارښود)
  11. David R. Anderson (November 1, 2003). "Some background on why people in the empirical sciences may want to better understand the information-theoretic methods" (PDF). د اصلي (PDF) آرشيف څخه پر July 23, 2011 باندې. د لاسرسي‌نېټه ۲۳ جون ۲۰۱۰. منځګړی |CitationClass= له پامه غورځول شوی (لارښود)
  12. F. Rieke; D. Warland; R Ruyter van Steveninck; W Bialek (1997). Spikes: Exploring the Neural Code. The MIT press. د کتاب نړيواله کره شمېره 978-0262681087. منځګړی |CitationClass= له پامه غورځول شوی (لارښود)