Подобные работы
Теория статистики
echo "Составными элементами сводки являются: 1) программа сводки; 2) подсчет групповых итогов; 3) оформление конечных результатов сводки в виде таблиц и графиков. Программа статистической сводки соде
Статистические величины
echo "Средняя величина всегда именованная, имеет ту же размерность (единицу измерения), что и признак у отдельных единиц совокупности. Основным условием научного использования средней величины являет
Структура исчисления предикатов построение логического вывода
echo "Потребность в общих именах при употреблений ЯЛП сохранится лишь для описания областей возможных значений этих переменных, что относится уже не к самому языку, а к метаязыку. Нужны также знаки св
Квадратные уравнения
echo "Определение. Неполные кв. уравнения. Полное кв. уравнение. Теорема Виета. Теорема, обратная теореме Виета. Кв. уравнения с комплексными переменными. Решение кв. уравнений с помощью графиков
Теория информации
echo "Понятие энтропии. 2) Понятие информации. 3) Решение некоторых типовых задач. 4) Заключение 5) Список использованной литературы. "; echo ''; echo " Главным свойством случайных событий является от
Экстремумы функций многих переменных
echo "Необходимый признак экстремума : Если в точке "; echo ''; echo " дифференцируемая функция "; echo ''; echo " имеет экстремум, то ее частные производные в этой точке равны нулю : "; echo ''; echo
Применение двойных интегралов к задачам механики и геометрии
echo "Реферат. Применение двойных интегралов к задачам механики и геометрии. Выполнила: студентка группы ТЭ-97-1 Мелкоступова С.С. Проверил преподаватель кафедры высшей математики Седых Е.И. Иркутск
Шпаргалки по высшей математике (1 курс)
echo "Совокупность всех числовых значений переменой величины наз областью изменения этой переменной. Окрестность х0 наз производный интервал (a;b) содержащий эту . If каждому значению переменной х э
Теория информацииПонятие энтропии. 2) Понятие информации. 3) Решение некоторых типовых задач. 4) Заключение 5) Список использованной литературы. Однако совершенно ясно, что степень этой неопределённости в различных случаях будет совершенно разной. Возникновение математической теории информации стало возможным после того, как было осознанно, что количество информации можно задать числом. Для практики очень важно уметь численно оценивать степень неопределённости самых разнообразных опытов. Начнём с рассмотрения опытов, имеющих к равновероятных исходов. Очевидно, что степень неопределённости каждого такого опыта определяется числом к: если при к=1 исход опыта вообще не является случайным, то при большом к предсказать исход опыта очень и очень сложно. Таким образом, искомая численная степень неопределённости должна являться функцией числа к, при к =1 обращаться в нуль и возрастать при возрастании числа к. Теперь рассмотрим два независимых опыта А и В. Пусть опыт А имеет к равновероятных исходов, а опыт В – равновероятных исходов. Очевидно, что степень неопределённости двойного опыта АВ равна сумме степеней неопределённости опытов А и В. А так как опыт АВ имеет ks равновероятных исходов, приходим к следующему условию, которому должна удовлетворять наша функция f ( k ): f ( ks )= f ( k )+ f ( s ). Это условие наталкивает на мысль принять за меру неопределённости опыта, имеющего к равновероятных исходов, число log k , так как логарифмическая функция – единственная, удовлетворяющая всем вышеперечисленным условиям. Заметим, что выбор основания системы логарифмов здесь несуществен, так как в силу известной формулы Прежде всего, она не может принимать отрицательные значения: т.к. всегда 0 p ( A ) 1, то log p ( A ) не может быть положительным, а – p ( A ) log p ( A ) – отрицательным (р(А) – вероятность получения исхода А в опыте). Также заметим, что если р очень мало, то и произведение – p ( A ) log p ( A ) тоже будет весьма малым, хотя и положительным, т.е. при р Энтропия опыта равна нулю, когда один из его исходов имеют степень вероятности 1, а остальные – степень вероятности 0. Наибольшую энтропию имеет опыт с равновероятными исходами. Наблюдатель Н. знает, что он находится в одном из этих двух городов, но не знает, в каком именно. Путём опроса встречного ему требуется определить, в каком городе он находится, или в каком городе живёт его собеседник (жители А могут заходить в Б и наоборот), или то и другое вместе. Спрашивается, каково наименьшее число вопросов, которые должен задать Н. (на все вопросы встречные отвечают лишь да или нет)? Энтропия Н(А) опыта А равна одному биту. Далее, опыт Б в составе одного вопроса, также может иметь два исхода, поэтому энтропия Н(Б) самое большее равна одному биту. Следовательно, можно надеяться, что при удачно поставленном вопросе Б будет иметь место равенство I (Б,А) = Н(А) Для этого только необходимо, чтобы оба ответа на вопрос Б были равновероятны, и исход Б полностью определял результат А. Всем этим условиям удовлетворяет вопрос «Живёте ли вы в этом городе?» (положительный ответ может быть дан только в городе А, а отрицательный – в Б). Ещё проще узнать, в каком городе живёт его собеседник – для этого достаточно задать какой-нибудь вопрос, ответ на который Н. знает заранее (например, равно ли дважды два четырём?). Если же Н. должен узнать ответы на оба вопроса, ему предстоит определить исход сложного опыта А1А2. В этом случае он нуждается в информации, большей 1 бита. Таким образом, оценки количества информации дают нам строгое доказательство того, что за один вопрос выяснить, где находится Н. и откуда родом отвечающий. Для этого нужно как минимум 2 вопроса. Рассмотрим сложный опыт Б к = б 1 б 2 б 3 …б к , заключающийся в том, что спрашивающий задаёт к вопросов. Для того чтобы исход опыта Б к полностью определял исход А, необходимо, чтобы имело место равенство I (Б к , А) = Н (А). Отсюда: log 10 = Н (А) = I (Б к , А) Разобьём множество всех возможных значений нашей переменной (то есть множество целых положительных чисел от 1 до 10) на две равные по численности группы (так как исходы опыта б 1 должны быть равновероятны) и спросим, относится ли задуманное число к одной или другой из них (например, больше ли оно пяти). Далее нужно разбивать оставшееся множество чисел на две возможно близкие по численности части, и тогда мы определим задуманное число с помощью четырёх вопросов. Нужно сказать, что с помощью тех же четырёх вопросов мы угадаем не только одно из 10 задуманных чисел, но даже одно из 16, так как после того как уже выяснено, что число имеет одно из Х значений, где Х нечётно, невозможно добиться строгой равновероятности исходов последующего опыта, следовательно, энтропия этого опыта будет меньше 1. Это означает, что наш опыт не особенно выгоден с точки зрения полученной информации, то есть что с помощью того же числа вопросов можно найти загаданное число, имеющее не одно из 10, а одно из 2 4 = 16 возможных значений. Вообще, наименьшее число k вопросов, позволяющее найти заданное число Х, имеющее одно из n допустимых значений, определяется неравенствами k – 1 log n k или 2 k - 1 n 2 k . Спрашивается, сколькими взвешиваниями на чашечных весах без гирь можно обнаружить эту фальшивую монету. Предположим, что на каждую чашку весов нами положено по n монет, не положены на весы будут 25 - 2 n монет. Так как вероятность того, что фальшивая монета окажется в данной группе из n монет, равна Энтропия Н (А) опыта А равна log 24. Таким образом, нам нужно получить log 24 единиц информации. Так как, произведя сложный опыт А к = а 1 а 2 …а к , состоящий в k взвешиваниях, мы можем получить информацию, не большую, чем k log 3 = log 3, а 3 3 = 27, то с первого взгляда кажется ясным, что трёх взвешиваний будет достаточно. Пусть при первом взвешивании мы положили на обе чашки по n монет. Если чашки весов при этом остались в равновесии, то фальшивой является одна из 12 2 n отложенных монет, что отвечает 2(12 2 n ) исходам рассматриваемого опыта А (из общего числа 24 исходов). Если перевесила правая чашка, то либо фальшивой и более тяжёлой является одна из n «правых» монет, либо фальшивой и более лёгкой является одна из n «левых» монет эти случаи отвечают 2 n исходам А, точно так же, случаю, когда перевесила левая чашка, отвечают 2 n исходов А. Таким образом, три исхода первого взвешивания имеют вероятности Однако рано говорить, что трёх взвешиваний недостаточно для выполнения задачи – ведь у нас ещё остались заведомо настоящие монеты после завершения первого опыта. Обозначим через а m , n опыт, состоящий в том, что на правую чашку весов кладутся m из наших подозрительных монет, а на левую n m из этих монет и ещё m n заведомо настоящих монет. Через р(Р), р(П) и р(Л) мы обозначим соответственно вероятности того, что при опыте а m , n чашки весов останутся в равновесии и что перетянет правая или левая чашка весов. Так как, очевидно, m + n 4, то все опыты а m , n легко перечислить: отвечающие им значения вероятностей р(Р), р(П) и р(Л) собраны в таблице, в которой также указана энтропия в битах Н(а m , n ) опыта а m , n (равная р(Р) log р(Р) р(П) log р(П) р(Л) log р(Л)).
Нетрудно видеть, что в обоих случаях мы можем затем третьим взвешиванием полностью определить исход А. 2). При первом взвешивании одна из двух чашек весов (например, правая) перетянула. В таком случае, либо одна из четырёх «правых» монет является фальшивой и более тяжёлой, либо одна из четырёх «левых» фальшивой и более лёгкой. При втором взвешивании мы можем на правую чашку весов положить n 1 «правых» монет и n 2 «левых», а на левую чашку m 1 «правых» монет, m 2 «левых» и ( n 1 + n 2 ) ( m 1 + m 2 ) заведомо настоящих из числа не участвовавших в первом взвешивании. Здесь тоже можно составить таблицу энтропий опытов а n 1, n 2; m 1, m 2 , однако, так как число всевозможных вариантов тут слишком велико, то некоторые из них целесообразно исключить с самого начала. Заметим, что после двух взвешиваний у нас должно остаться не более трёх возможных исходов опыта А. Отсюда следует, что число сомнительных монет, не участвующих во втором взвешивании, не должно превосходить 3. Перечислим теперь все случаи, удовлетворяющие этим условиям.
Энтропия каждого из них достаточна, чтобы иметь возможность полностью определить исход А с помощью ещё одного, третьёго, взвешивания. |