Шпаргалки к экзаменам и зачётам

студентам и школьникам

  • Increase font size
  • Default font size
  • Decrease font size

Шпаргалки к экзамену–обработка и фильтрация сигналов - Измерение информации. Энтропия

Cмотрите так же...
Шпаргалки к экзамену–обработка и фильтрация сигналов
Динамическое представление сигналов
Спектральное представление сигналов
Основные свойства преобразований Фурье
Спектральные плотности модулируемых сигналов
Понятие случайного процесса
Связь корреляционной и спектральной теории случайного процесса
Прохождение сигналов через системы преобразования информации
Классификация помех. Электрические помехи
Измерение информации. Энтропия
Информационная модель сигнала в интроскопии и акустике
Передача сигналов по непрерывному каналу
Согласование характеристик сигнала и канала передачи
Согласованные фильтры
Оптимальная фильтрация по критерию минимума среднеквадратичной ошибки
Неразрушающий контроль изделий и обнаружение сигналов
Обнаружение сигналов на фоне реверберационной помехи
Последовательные обнаружители
Основные параметры и характеристики систем ОИ
Частотные коэффициенты передачи основных звеньев приборов НК
Выбор полосы пропускания, расчёт пороговой чувствительности
All Pages

 

 

Измерение информации. Энтропия


Информацию можно измерить, т.е. точно определить её количественно. Существует три основных направления:

1. Структурное – при дискретном строении массива информации измерение количества информации происходит путём подсчёта информационных элементов. Теория применяется для оценки информационных возможностей аппаратуры, каналов связи, запоминающих и регистрирующих устройств, не зависимо от области их применения.
2. Статистическое – оперирует понятием энтропии, как меры неопределённости ситуации. Энтропия учитывает вероятность появления, а, следовательно, и информативность сообщения. Теория позволяет оценить информационные возможности устройств.(Напр.: при передаче по каналу связи информации с определёнными характеристиками.)
3. Семантическое – учитывает ценность, полезность информации. Используется при оценке эффективности логических опытов, применение ограничено, т.к. теория недостаточно разработана.
В общем, сущность процесса измерения информации заключает в себе:
1) Мера информации д.б. общей, независимо от природы объектов.
2) Д.б. общие законы обработки, передачи и хранения информации.
3) Д.б. общие зависимости, определяющие влияние тех или иных факторов на преобразование, скорость передачи, потери и возможность хранения информации.
Энтропия – мера неопределённости ситуации.
При оценке информации важной закономерностью является зависимость её количества от неопределённости ситуации, сообщение о которой рассматривается. Т.е. сообщение, получаемое о некотором событии, несёт в себе количество информации равное неопределённости, существовавшей до получения сообщения о данном событии. Также справедлив принцип аддитивности, т.е. зависимость количества информации от длины сообщения.
Воплощением концепции неопределённости является алфавит сообщения – количество состояний элемента, из которых производится выбор при передаче сообщения. Увеличение алфавита ведёт к увеличению неопределённости ситуации и, следовательно, к увеличению количества информации в каждом сообщении. Количество информации, содержащееся в одном элементе сообщения, равно неопределённости ситуации, которая зависит от размерности алфавита.
clip_image106,
где H – энтропия, m – размерность алфавита сообщения.
Если об одной ситуации передаётся n равновероятных сообщений, то количество информации I равно:
clip_image108


Энтропия дискретного сигнала

Большой класс дискретных сообщений может представлять совокупность из n элементов, при этом каждый элемент может принимать m различных состояний. Такие сигналы называют дискретными по состоянию элементов. Всего число возможных сообщений, которое м.б. сформировано в данной ситуации окажется равной: clip_image110
Рассмотрим произвольное сообщение, которое состоит из n-элементов и может принимать m состояний clip_image112 с вероятностью clip_image114.
Количество информации содержащееся в 1-м элементе указанного сообщения равно:
clip_image116.
Физический смысл: она показывает информативность k-го состояния при размерности алфавита = m.
Свойства энтропии:
Энтропия – величина неотрицательная.
Энтропия равна 0, когда вероятность одного события равна 1. Это значит, что сообщение известно заранее, факт его получения не приносит никакой инфы.
Если число состояний сообщений = 2, то энтропия max и составляет 1 при условии, что вероятности p1 = p2.
Неопределенность max, когда события равновероятны.


Энтропия непрерывных сигналов.

Сообщения, элементы которых могут принимать любые состояния из некоторого интервала называют непрерывными по состоянию элемента.
Состояние каждого из n элементов непрерывного сообщения можно охарактеризовать функцией распределения плотности вероятности, которая обозначается f(x).
(*) clip_image118
Представим непрерывный сигнал в виде дискретного с шагом квантования ∆x. В этом случае можно утверждать, что сигнал будет иметь m фиксированных уровней. Вероятность попадания элемента сообщения в произвольный к-ый уровень clip_image120.
Используя ранее полученные выражения для расчета энтропии дискретного сигнала:
clip_image122
clip_image124
Устремим интервал квантов-яclip_image126,соотв-но clip_image128
clip_image130clip_image132clip_image134 clip_image136
Данное выражение определяет энтропию непрерывного сигнала.
Первое слагаемое в данной формуле есть величина, которая зависит от функции распределения плотности вероятности и она определяет информативность непрерывного сигнала.
Второе слагаемое logΔx определяет потери информации при квантовании непрерывной физической величины. Интеграл квантования определяется разрешающей способностью применяемого средства измерения.



Энтропия статистически зависимых сигналов.

Даны 2 сигнала х и у – дискретные. х принимает уровни х1, х2, …, хm с соотв вер. р(х1), р(х2), … , р(хm) и y – у1, у2, … ,уn с вер. р(у1), р(у2), … , р(уn).
Степень статистической связи сигналов х и у:
clip_image138
Энтропия сигналов Н(х,у):
clip_image140
Для дискретных сигналов энтропия:
clip_image142
Условная энтропия:
clip_image144
х – информационный, у – помеха:
Энтропия сигналов Н(х,у):
clip_image145
х, у – непрерывные:
Энтропия сигналов Н(х,у):
clip_image147
Энтропия сигнала у при условии, что х пришел:
clip_image149