Логотип
Юнионпедия
Связь
Доступно в Google Play
Новый! Скачать Юнионпедия на вашем Android™ устройстве!
Свободно
Более быстрый доступ, чем браузер!
 

Теоремы Шеннона для канала с шумами

Индекс Теоремы Шеннона для канала с шумами

Теоремы Шеннона для канала с шумами (теоремы Шеннона для передачи по каналу с шумами) связывают пропускную способность канала передачи информации и существование кода, который возможно использовать для передачи информации по каналу с ошибкой, стремящейся к нулю (при увеличении длины блока).

6 отношения: Код с малой плотностью проверок на чётность, Отношение сигнал/шум, Случайная величина, Фазовая манипуляция, Взаимная информация, 2007 год.

Код с малой плотностью проверок на чётность

Код с малой плотностью проверок на чётность (LDPC-код от Low-density parity-check code, LDPC-code, низкоплотностный код) — используемый в передаче информации код, частный случай блочного линейного кода с проверкой чётности.

Новый!!: Теоремы Шеннона для канала с шумами и Код с малой плотностью проверок на чётность · Узнать больше »

Отношение сигнал/шум

Отношение сигнал/шум (ОСШ; signal-to-noise ratio, сокр. SNR) — безразмерная величина, равная отношению мощности полезного сигнала к мощности шума.

Новый!!: Теоремы Шеннона для канала с шумами и Отношение сигнал/шум · Узнать больше »

Случайная величина

Случайная величина — это переменная, значения которой представляют собой исходы какого-нибудь случайного феномена или эксперимента.  Простыми словами: это численное выражение результата случайного события.

Новый!!: Теоремы Шеннона для канала с шумами и Случайная величина · Узнать больше »

Фазовая манипуляция

Модулирующий сигнал, несущая и фазоманипулированный сигнал системы спутниковой навигации NAVSTAR GPS Фа́зовая манипуля́ция (ФМн, phase-shift keying (PSK)) — один из видов фазовой модуляции, при которой фаза несущего колебания меняется скачкообразно в зависимости от информационного сообщения.

Новый!!: Теоремы Шеннона для канала с шумами и Фазовая манипуляция · Узнать больше »

Взаимная информация

Взаимная информация — статистическая функция двух случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой.

Новый!!: Теоремы Шеннона для канала с шумами и Взаимная информация · Узнать больше »

2007 год

* Международные годы ООН.

Новый!!: Теоремы Шеннона для канала с шумами и 2007 год · Узнать больше »

Перенаправления здесь:

Теорема Шеннона для канала с шумами, Прямая теорема Шеннона для канала с помехами.

ИсходящиеВходящий
Привет! Мы на Facebook сейчас! »