Воскресенье, 19 Май 2024, 18:27
Uchi.ucoz.ru
Меню сайта
Форма входа

Категории раздела
Авиация и космонавтика [0]
Административное право [0]
Арбитражный процесс [0]
Архитектура [0]
Астрология [0]
Астрономия [0]
Банковское дело [0]
Безопасность жизнедеятельности [1930]
Биографии [0]
Биология [2350]
Биология и химия [0]
Биржевое дело [78]
Ботаника и сельское хоз-во [0]
Бухгалтерский учет и аудит [4894]
Валютные отношения [0]
Ветеринария [0]
Военная кафедра [0]
География [2269]
Геодезия [0]
Геология [0]
Геополитика [46]
Государство и право [13375]
Гражданское право и процесс [0]
Делопроизводство [0]
Деньги и кредит [0]
Естествознание [0]
Журналистика [660]
Зоология [0]
Издательское дело и полиграфия [0]
Инвестиции [0]
Иностранный язык [0]
Информатика [0]
Информатика, программирование [0]
Исторические личности [0]
История [6878]
История техники [0]
Кибернетика [0]
Коммуникации и связь [0]
Компьютерные науки [0]
Косметология [0]
Краеведение и этнография [540]
Краткое содержание произведений [0]
Криминалистика [0]
Криминология [0]
Криптология [0]
Кулинария [923]
Культура и искусство [0]
Культурология [0]
Литература : зарубежная [2115]
Литература и русский язык [0]
Логика [0]
Логистика [0]
Маркетинг [0]
Математика [2893]
Медицина, здоровье [9194]
Медицинские науки [100]
Международное публичное право [0]
Международное частное право [0]
Международные отношения [0]
Менеджмент [0]
Металлургия [0]
Москвоведение [0]
Музыка [1196]
Муниципальное право [0]
Налоги, налогообложение [0]
Наука и техника [0]
Начертательная геометрия [0]
Оккультизм и уфология [0]
Остальные рефераты [0]
Педагогика [6116]
Политология [2684]
Право [0]
Право, юриспруденция [0]
Предпринимательство [0]
Промышленность, производство [0]
Психология [6212]
психология, педагогика [3888]
Радиоэлектроника [0]
Реклама [910]
Религия и мифология [0]
Риторика [27]
Сексология [0]
Социология [0]
Статистика [0]
Страхование [117]
Строительные науки [0]
Строительство [0]
Схемотехника [0]
Таможенная система [0]
Теория государства и права [0]
Теория организации [0]
Теплотехника [0]
Технология [0]
Товароведение [21]
Транспорт [0]
Трудовое право [0]
Туризм [0]
Уголовное право и процесс [0]
Управление [0]
Управленческие науки [0]
Физика [2737]
Физкультура и спорт [3226]
Философия [0]
Финансовые науки [0]
Финансы [0]
Фотография [0]
Химия [1714]
Хозяйственное право [0]
Цифровые устройства [34]
Экологическое право [0]
Экология [1778]
Экономика [0]
Экономико-математическое моделирование [0]
Экономическая география [0]
Экономическая теория [0]
Этика [0]
Юриспруденция [0]
Языковедение [0]
Языкознание, филология [1017]
Новости
Чего не хватает сайту?
500
Статистика
Зарегистрировано на сайте:
Всего: 51636


Онлайн всего: 5
Гостей: 5
Пользователей: 0
Яндекс.Метрика
Рейтинг@Mail.ru

База рефератов


Главная » Файлы » База рефератов » Математика

Теория информации


Гость, для того чтобы скачать БЕСПЛАТНО ПОЛНУЮ ВЕРСИЮ РЕФЕРАТА, Вам нужно кликнуть по любой ссылке после слова оплачиваемая реклама.
12 Апр 2013, 06:04
Реферат на тему: ТЕОРИЯ ИНФОРМАЦИИ Выполнила:

                                                Ученица 10 А класса ГОУ РМЭ ЦО № 18

                                                Коробкова Анна    

г. Йошкар-Ола, 2004

                                        Содержание:


1) Введение. Понятие энтропии.

2) Понятие информации.

3) Решение некоторых типовых задач.

4) Заключение

5) Список использованной литературы.

                        Введение. Понятие энтропии.

Главным свойством случайных событий является отсутствие полной уверенности в их наступлении, создающее известную неопределённость при выполнении связанных с этими событиями опытов. Однако совершенно ясно, что степень этой неопределённости в различных случаях будет совершенно разной. Возникновение математической теории информации стало возможным после того, как было осознанно, что количество информации  можно задать числом.

Для практики очень важно уметь численно оценивать степень неопределённости самых разнообразных опытов. Начнём с рассмотрения опытов, имеющих к равновероятных исходов. Очевидно, что степень неопределённости каждого такого опыта определяется числом к: если при к=1 исход опыта вообще не является случайным, то при большом к предсказать исход опыта очень и очень сложно. Таким образом, искомая численная степень неопределённости должна являться функцией числа к, при к =1 обращаться в нуль и возрастать при возрастании числа к.

Теперь рассмотрим два независимых опыта А и В. Пусть опыт А имеет к равновероятных исходов, а опыт В – равновероятных исходов. Очевидно, что степень неопределённости двойного опыта АВ равна сумме степеней неопределённости опытов А и В. А так как опыт АВ имеет ks равновероятных исходов, приходим к следующему условию, которому должна удовлетворять наша функция f(k):

f(ks)=f(k)+f(s).

Это условие наталкивает на мысль принять за меру неопределённости опыта, имеющего к равновероятных исходов, число    log k, так как логарифмическая функция – единственная, удовлетворяющая всем вышеперечисленным условиям. Заметим, что выбор основания системы логарифмов здесь несуществен, так как в силу известной формулы

logbk = logba logak

переход от одной системы логарифмов к другой сводится лишь к простому изменению единицы измерения степени неопределённости. Как правило, используются логарифмы при основании 2. Такая единица измерения называется двоичной единицей или битом.

Общая неопределённость опыта, имеющего к исходов, равна сумме неопределённостей, вносимых каждым исходом.  Это число называют энтропией опыта А, будем его обозначать через Н(А). Рассмотрим некоторые свойства энтропии. Прежде всего, она не может принимать отрицательные значения: т.к. всегда

0 ≤ p(A) ≤ 1, то log p(A) не может быть положительным, а – p(A) log p(A) – отрицательным (р(А) – вероятность получения исхода А в опыте). Также заметим, что если р очень мало, то и произведение – p(A) log p(A) тоже будет весьма малым, хотя и положительным, т.е. при р  произведение – p log p неограниченно убывает. Энтропия опыта равна нулю, когда один из его исходов имеют степень вероятности 1, а остальные – степень вероятности 0. Наибольшую энтропию имеет опыт с равновероятными исходами.

                            Понятие об информации.

Пусть какое-либо измерение или наблюдение Б, предшествующее опыту А, может ограничить количество возможных исходов опыта А и тем самым уменьшить степень его неопределённости. Для того, чтобы результат Б сказался на последующем опыте А, нужно, чтобы его результат не был известен заранее; поэтому Б можно рассматривать как вспомогательный, также имеющий несколько допустимых исходов.  При этом, если опыт А не зависит от опыта Б, то осуществление Б не уменьшает энтропии А; если же наоборот результат Б полностью предопределяет исход А, то энтропия А уменьшается до 0.

Таким образом, разность

I(A,Б)= H(A) – Hб(A)

указывает, насколько осуществление опыта Б уменьшает неопределённость А. Эту разность называют количеством информации относительно опыта А, содержащемся в опыте Б, или, короче, информацией о А, содержащейся в Б. Таким образом, мы получаем возможность численного изменения информации.

Часто может случиться, что, желая узнать исход какого-либо опыта А, мы можем с этой целью по-разному выбирать опыты Б. В этом случае всегда рекомендуется начинать с того опыта Б0, который содержит наибольшую информацию относительно А, так как при другом опыте Б мы вероятно добьемся менее значительного уменьшения степени неопределённости А. Реально же, конечно, может получиться и наоборот.

Также необходимо заметить, хотя это и не относится к той части теории, которая пригодится нам для решения задач, что информация имеет ярко выраженный материальный характер — то есть она может передаваться только с помощью вещества или энергии. 

               Решение некоторых типовых задач.  

* Пусть известно, что житель некоторого города  А всегда говорят правду, а жители соседнего города Б всегда обманывают. Наблюдатель Н. знает, что он находится в одном из этих двух городов, но не знает, в каком именно. Путём опроса встречного ему требуется определить, в каком городе он находится, или в каком городе живёт его собеседник (жители А могут заходить в Б и наоборот), или то и другое вместе. Спрашивается, каково наименьшее число вопросов, которые должен задать Н. (на все вопросы встречные отвечают лишь да или нет)?

     Решение:

    Пусть Н. надо определить, в каком городе он находится. Здесь опыт А может иметь 2 равновероятных исхода. Энтропия Н(А) опыта А равна одному биту. Далее, опыт Б в составе одного вопроса, также может иметь два исхода, поэтому энтропия Н(Б) самое большее равна одному биту. Следовательно, можно надеяться, что при удачно поставленном вопросе Б будет иметь место равенство

I(Б,А) = Н(А)

Для этого только необходимо, чтобы оба ответа на вопрос Б были равновероятны, и исход Б полностью определял результат А. Всем этим условиям удовлетворяет вопрос «Живёте ли вы в этом городе?» (положительный ответ может быть дан только в городе А, а отрицательный – в Б).

Ещё проще узнать, в каком городе живёт его собеседник – для этого достаточно задать какой-нибудь вопрос, ответ на который Н. знает заранее (например, равно ли дважды два четырём?).   

Если же Н. должен узнать ответы на оба вопроса, ему предстоит определить исход сложного опыта А1А2. В этом случае он нуждается в информации, большей 1 бита. Таким образом, оценки количества информации дают нам строгое доказательство того, что за один вопрос выяснить, где находится Н. и откуда родом отвечающий. Для этого нужно как минимум 2 вопроса.

* Сколько вопросов надо задать, чтобы отгадать задуманное число, не превосходящее 10, если спрашиваемый отвечает на вопросы лишь «да» и «нет»?

Решение:

Опыт А, состоящий в выяснении задуманного числа, может иметь 10 различных исходов. До ответа на первый вопрос все эти исходы можно считать равновероятными, так что энтропия Н(А) опыта А равна log 10  3,32 бита. Рассмотрим сложный опыт Бк = б1б2б3…бк, заключающийся в том, что спрашивающий задаёт к вопросов. Для того чтобы исход опыта Бк полностью определял исход А, необходимо, чтобы имело место равенство I (Бк, А) = Н (А). Отсюда:

log 10 = Н (А) = I (Бк, А)  Н (Бк)  к

то есть

к  log 10  3,32

или, так как к - целое число,

к  4.

Теперь рассмотрим, какие вопросы выгоднее всего задавать. Во-первых, нужно, чтобы энтропия была возможно большей (то есть действительно равнялась одному биту), а значит оба варианта ответа должны быть равновероятны. Далее нужно, чтобы информация  I(б1, А) относительно А, заключённая в б1, равнялась энтропии Н (б1) опыта б1, а не была бы меньше этой величины. Для этого надо, чтобы ответ на первый вопрос не содержал «посторонней» информации, то есть чтобы условная энтропия На1) равнялась нулю.  Эти условия достаточно ясно указывают на то, как нужно поставить первый вопрос. Разобьём множество всех возможных значений нашей переменной (то есть множество целых положительных чисел от 1 до 10) на две равные по численности группы (так как исходы опыта б1 должны быть равновероятны) и спросим, относится ли задуманное число к одной или другой из них (например, больше ли оно пяти). Далее нужно разбивать оставшееся множество чисел на две возможно близкие по численности части, и тогда мы определим задуманное число с помощью четырёх вопросов. Нужно сказать, что с помощью тех же четырёх вопросов мы угадаем не только одно из 10 задуманных чисел, но даже одно из 16, так как после того как уже выяснено, что число имеет одно из Х значений, где Х нечётно, невозможно добиться строгой равновероятности исходов последующего опыта, следовательно, энтропия этого опыта будет меньше 1. Это означает, что наш опыт не особенно выгоден с точки зрения полученной информации, то есть что с помощью того же числа вопросов можно найти загаданное число, имеющее не одно из 10, а одно из 24 = 16 возможных значений. 

Вообще, наименьшее число k вопросов, позволяющее найти заданное число Х, имеющее одно из n допустимых значений, определяется неравенствами

k – 1< log n ≤ k    или    2k - 1 < n ≤ 2k.       

Также можно заметить, что независимо от значения n

k ≥ log n;

при этом k = log n только в том случае, когда число n является целой степенью числа 2.

 

* Имеется 25 монет одного достоинства; 24 из них имеют одинаковый вес, а одна – фальшивая – несколько легче остальных. Спрашивается, сколькими взвешиваниями на чашечных весах без гирь можно обнаружить эту фальшивую монету.

Решение:

Опыт А, результат которого требуется определить, имеет в этом случае 25 возможных исходов, значит, так как эти исходы равновероятны, Н(Б) = log 25. Опыт б1, состоящий в одном взвешивании, может иметь 3 исхода (либо перевесит левая чашка, либо правая, либо веса останутся в равновесии); поэтому Н (б1) = log 3 и информация I(б1, А), получаемая при проведении такого опыта, не превосходит log 3. Рассмотрим теперь сложный опыт Бк = б1б2…бк, заключающийся в k последовательных взвешиваниях; он даёт информацию, не превосходящую k log 3. Если опыт Бк позволяет полностью определить исход опыта А, то должно выполняться

Н (Бк) ≥ I (Бк, А) ≥ Н (А) или k log 3 ≥ log 25.

Отсюда заключаем, что 3к ≥ 25, то есть

K ≥ log3 25 =

Или, так как k – целое число, k ≥ 3.

Нетрудно показать, что с помощью трёх взвешиваний всегда можно определить фальшивую монету. Предположим, что на каждую чашку весов нами положено по n монет, не положены на весы будут 25 - 2n монет. Так как вероятность того, что фальшивая монета окажется в данной группе из n монет, равна , то три исхода опыта б1 будут иметь наиболее близкие вероятности, если n = 8 и 25 - 2n = 9. При любом исходе опыта при втором взвешивании (опыт б2) на обе чашки весов следует положить по 3 монеты из определившейся после предыдущего опыта группы, а третьим взвешиванием мы из группы из трёх монет найдём фальшивую, положив по одной монете на обе чашки весов.

   

* Имеется 12 монет одного достоинства; 11 из них имеют одинаковый вес, а о

***** Скачайте бесплатно полную версию реферата !!! *****
Категория: Математика | Добавил: Lerka
Просмотров: 160 | Загрузок: 3 | Рейтинг: 0.0/0 | Жаловаться на материал
Всего комментариев: 0
html-cсылка на публикацию
BB-cсылка на публикацию
Прямая ссылка на публикацию
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]
Профиль
Воскресенье
19 Май 2024
18:27


Вы из группы: Гости
Вы уже дней на сайте
У вас: непрочитанных сообщений
Добавить статью
Прочитать сообщения
Регистрация
Вход
Улучшенный поиск
Поиск по сайту Поиск по всему интернету
Наши партнеры
Интересное
Популярное статьи
Портфолио ученика начальной школы
УХОД ЗА ВОЛОСАМИ ОЧЕНЬ ПРОСТ — ХОЧУ Я ЭТИМ ПОДЕЛИТ...
Диктанты 2 класс
Детство Л.Н. Толстого
Библиографический обзор литературы о музыке
Авторская программа элективного курса "Практи...
Контрольная работа по теме «Углеводороды»
Поиск
Учительский портал
Используются технологии uCoz