Теория на информацията

от Администрация и управление
Направо към: навигация, търсене
Клод Шенън, баща на Теорията на информацията

Основоположник на Теорията на Информацията е, Клод Шенън. Теорията представя описание на информацията като нематериална субстанция.

Същност

Теорията се обуславя от четири основни закона и описва няколко постулата, които я определят като такава. В началото на 20 век е обърнато внимание на ролята и значението на информацията във връзка с използването и в съобщителните системи и с необходимостта от измерването и. Така се появява теорията на Шенън за информацията. В тази теория информацията се разглежда като средство за намаляване на неопределеността. Разпространено е възприетото в теорията на Шенън понятие за количество информация в дадено съобщение, определено като разликата в степените на неопределеност преди и след получаване на съобщението.

A scheme.
Вход и изход на сигналите в една затворена система, и взаимодействието им в нея.

Основни направления в Теорията на информацията са в рамките на:

  • Апостерна информация - информация която е получена, известна, налична /преди въвеждането на съответният експеримент /наблюдение, опит//
  • Апреорна информация - информация получена във резултат на провеждането на определен експеримент. В зависимост от това какво е структурирана в нея, информацията може да бъде кфалифицирана в няколко групи:
  • Събитие - първичен / недеим елемент от представянето на информацията/. Такива форми се явяват 1,0, потвърждение, отрицание, наличие, нещо което не може да се раздели на малки части.
  • Величина- съвкупност от събития, подредени във едно определено измерение. Величината приема определен набор от събития имаме така нар. Дискретни величини. Когато величината приема още брой събития, се приема да бъде непрекъсната.
  • Функция представлява взаимовръзка между 2 величини, между величина и време,величина и пространство. В зависимост от типа на аргумента, функциите биват дискретни и непрекъснати.

Обща теория

A scheme.
Сигналите, които постъпват отвън в дадена система, и се използват от нея.

Според Александър Дьомин

През 1996 г. руският учен и последовател на Норбърт Винер, Акад. Александър Дьомин публикува своя научен труд “Парадигма дуализма: Пространство - время, энергия - информация”, с което официално обявява създаваната от него в продължение на 30 години “Обща теория на информацията” и формулира следното определение, което бе регистрирано като откритие: “Информацията е всеобщо нематериално свойство на взаимодействие на материалния свят, определящо посоката на движение на енергията и веществото. Това всеобщо нематериално свойство на взаимодействие включва в себе си първична и вторична информация, като под първична информация се разбира посоката на движението на веществото, при която възниква не само направление на неговото движение в пространството, но и форма, като резултат на насочеността на движение на съставляващите веществото елементи, а вторичната информация е отражение на първичната във вид на поле под формата (структура, модулация) на пространствените сили, съпровождащи всяко движение на веществото.” То за пръв път разкрива същността на информацията като всеобщо свойство на взаимодействие на материалния свят, определящо посоката на движение и развитие и като свързващо звено между енергията, материята, времето и пространството. Под нематериално свойство на материалния свят ще се уговорим да разбираме такива свойства на материята, които не могат да бъдат измерени нито в единици енергия, нито в единици инерциална маса или техни производни единици и поради тази причина съществуват независимо от масата и енергията, без да ги изразходват за своето съществуване. Това съвсем не означава, че тези свойства са “нефизични”, т.е. могат да съществуват извън материалния свят, когото те характеризират.

A scheme.
Концепция за информационния процес.

Според Клод Шенън

Американският учен Клод Шенън представя обществената комуникация като система от три елемента (източник, съобщение и адресат) и два процеса кодиране и декодиране. Той е един от създателите на математическата теория на информацията. Основните му трудове са по теория на релейно-контактните схеми, математическата теория на връзките, кибернетика. Шенън завършва Мичиганския университет, където получава две дипломи — по математика и по електротехника. След това в Масачузетския технологичен институт работи под ръководството на професор Ваневар Буш на неговия диференциален анализатор. През 1938 година защитава докторска дисертация, в която разработва принципите на логическото устройство на компютъра, свързвайки булевата алгебра с работата на електрическите схеми. Тази разработка става повратна точка в историята на развитието на съвременната информатика и изчислителна техника. Формулата на Шенън за изчисляване на количеството информация:

Teoriqnainformaciqta4.png

По-късно Шенън работи в Bell Telephone Laboratories, където прилага новите принципи в разработката на телефонни станции. През 1948 година публикува своя труд «Математическа теория на връзките», в която представя своята унифицирана теория за предаване и обработка на информацията. Информацията в този контекст включва всички видове съобщения, включително тези, които се предават по нервните влакна в живите организми. Шенън предложил да се измерва информацията в математическия смисъл, свеждайки я към избора между две значения, или двоични разряди, — «да» или «не», полагайки по такъв начин основите на съвременната теория на връзките, която в днешно време играе важна роля в много области.

Приложение

Всеки от домовете на хороскопа конкретизира една или друга сфера на живота, определяйки областта на действие на планетите. Тази конкретизация се осъществява на базата на теория на времето, теория на информацията и дискретна математика.

Вижте още

Източници

  • Claude E. Shannon, N.J.A. Sloane, Aaron D.Wyner - Claude Elwood Shannon: Collected Papers
  • Claude E. Shannon and Warren Weaver - Mathematical Theory of Communication
  • John Robinson Pierce - An Introduction to Information Theory: Symbols, Signals and Noise
  • G.J. Chaitin - The Limits of Mathematics A Course on Information Theory and the Limits of Formal Reasoning
  • G. Chaitin - Information, Randomness Incompleteness
  • David J.C. MacKay - Information Theory, Inference, and Learning Algorithms
  • Robert M. Losee - A Discipline Independent Definition of Information
  • Tom Carter - An Introduction to Information Theory and Entropy
  • G. Chaitin - Algorithmic Information Theory
  • D. MacKay - A Short Course in Information Theory
  • C.E. Shannon - A Mathematical Theory of Communication

Външни препратки