+7(996)961-96-66
+7(964)869-96-66
+7(996)961-96-66
Заказать помощь

Контрольная работа на тему Контрольная работа 031030-2

ОПИСАНИЕ РАБОТЫ:

Предмет:
ИНФОРМАТИКА
Тема:
Контрольная работа 031030-2
Тип:
Контрольная работа
Объем:
10+ страниц
Дата:
30.10.03
Идентификатор:
idr_1909__0003178
ЦЕНА:
 

150
руб.
Внимание!!!
Ниже представлен фрагмент данной работы для ознакомления.
Вы можете купить данную работу прямо сейчас!
Просто нажмите кнопку "Купить" справа.

Оплата онлайн возможна с Яндекс.Кошелька, с банковской карты или со счета мобильного телефона (выберите, пожалуйста).
ЕСЛИ такие варианты Вам не удобны - Отправьте нам запрос данной работы, указав свой электронный адрес.
Мы оперативно ответим и предложим Вам более 20 способов оплаты.
Все подробности можно будет обсудить по электронной почте, или в Viber, WhatsApp и т.п.
 

Контрольная работа 031030-2 - работа из нашего списка "ГОТОВЫЕ РАБОТЫ". Мы помогли с ее выполнением и она была сдана на Отлично! Работа абсолютно эксклюзивная, нигде в Интернете не засвечена и Вашим преподавателям точно не знакома! Если Вы ищете уникальную, грамотно выполненную курсовую работу, контрольную, реферат и т.п. - Вы можете получить их на нашем ресурсе.
Вы можете заказать контрольную Контрольная работа 031030-2 у нас, написав на адрес ready@referatshop.ru.
Обращаем ваше внимание на то, что скачать контрольную Контрольная работа 031030-2 по предмету ИНФОРМАТИКА с сайта нельзя! Здесь представлено лишь несколько первых страниц и содержание этой эксклюзивной работы - для ознакомления. Если Вы хотите получить контрольную Контрольная работа 031030-2 (предмет - ИНФОРМАТИКА) - пишите.

Фрагмент работы:






Задача 1. Доказать, что:
а) энтропия ;

б) максимум энтропии дискретных сообщений достигается при их равновероятности.

а) энтропия ;

Находим выражение для каждого слагаемого ld(pi):
Пусть yi = ld(pi), тогда:

Логарифмируем:

По определению вероятность лежит в интервале от 0 до 1, значит ln(pi) всегда будет меньше или равно нулю. (нулю равно при вероятности, равной p = 1). Таким образом, сумма отрицательных чисел - число отрицательное, следовательно:


б) максимум энтропии дискретных сообщений достигается при их равновероятности.
Для источника сообщений с n знаками и произвольными Pi
,
то есть энтропия достигает максимального значения, когда вероятности сообщений одинаковы. Это еще одно свойство энтропии дискретных сообщений.


Правая часть формуле показывает число двоичных знаков, которыми можно закодировать все символы: