Изменения
некоторые неточности формулировок
'''Кодирование энтропии''' — [[кодирование]] словами (кодами) переменной длины, при которой длина кода символа обратно пропорциональна [[вероятность|вероятности]] появления символа в передаваемом сообщении. Обычно [[энтропия (теория информации)|энтропийные]] кодировщики используют для сжатия данных длины кодов, которые пропорциональны отрицательному [[логарифм|логарифму]] вероятности. Таким образом, наиболее вероятные символы используют кратчайшие коды.
'''Кодирование энтропии''' — [[кодирование]] словами (кодами) переменной длины, при которой длина кода символа имеет обратную зависимость от [[вероятность|вероятности]] появления символа в передаваемом сообщении. Обычно [[энтропия (теория информации)|энтропийные]] кодировщики используют для сжатия данных длины кодов, которые пропорциональны отрицательному [[логарифм|логарифму]] вероятности. Таким образом, наиболее вероятные символы используют кратчайшие коды.
Согласно [[Теорема Шеннона|теореме Шеннона]] оптимальная длина кода для символа — это -log''<sub>b</sub>P'', где ''b'' — это количество символов, использованных для изготовления выходного кода и ''P'' — это вероятность входного символа.
Три самых распространённых техники кодирования энтропиии — это [[кодирование Хаффмана]], [[кодирование расстояний]] и [[арифметическое кодирование]].
Три самых распространённых техники кодирования энтропиии — это [[кодирование Хаффмана]], [[кодирование расстояний]] и [[арифметическое кодирование]].