Звук: немного теории

Звук: немного теории (Из теории звука)

1. Вступление



Цифровые технологии изо дня в день все больше наполняют окружающий нас мир, и этот процесс со временем только ускоряется. В повседневном обиходе любого из нас уже сегодня присутствует большое число самых различных цифровых устройств, каждое из которых имеет характеристики и свойства, значение которых оказывается не всегда известным и понятным для потребителя. Некоторые из ставших уже абсолютно привычными электронные устройства, равно как и компьютерные программы, остаются для потребителя некими черными ящиками, устройство и принцип действия которых скрыто от глаз.


Потребительская аудио аппаратура, также как и остальная аппаратура - постепенно и уверенно переходящая на цифровые рельсы, становится все сложнее, ее параметры – все запутаннее, а принцип действия – все менее ясным. Эта статья не является универсальным путеводителем в области цифрового звука и цифровой аудио техники, однако в ней мы попытаемся разобраться с основными идеями, а также теоретическими и практическими принципами, лежащими в основе современных цифровых аудио технологий и устройств. Автор статьи надеется, что приведенные в ней сведения окажутся полезными для читателя и явят собой некую основополагающую теоретическую базу, понимание которой просто необходимо всем активным аудио любителям.



2. Физика и психофизика звука



Разговор о звуке мы начнем с рассмотрения простейших физических понятий.



2.1. Физика звуковой волны


Понятие «звук» самым тесным образом связано с понятием «волна». Интересно, что это понятие, являясь привычным для абсолютно всех, у многих вызывает затруднения при попытке дать ему внятное определение. С одной стороны, волна – это что-то, что связано с движением, нечто, распространяющееся в пространстве, как, например, волны, расходящиеся кругами от брошенного в воду камня. С другой стороны, мы знаем, что лежащая на поверхности воды ветка почти не станет двигаться в направлении распространения волн от брошенного рядом камня, а будет в основном лишь колыхаться на воде. Что же переносится в пространстве при распространении волны? Оказывается, в пространстве переносится некоторое возмущение. Брошенный в воду камень вызывает всплеск – изменение состояния поверхности воды, и это возмущение передается от одной точки водоема к другой в виде колебаний поверхности. Таким образом, волна – это процесс перемещения в пространстве изменения состояния.


Звуковая волна (звуковые колебания) – это передающиеся в пространстве механические колебания молекул вещества (например, воздуха). Давайте представим себе, каким образом происходит распространение звуковых волн в пространстве. В результате каких-то возмущений (например, в результате колебаний диффузора громкоговорителя или гитарной струны), вызывающих движение и колебания воздуха в определенной точке пространства, возникает перепад давления в этом месте, так как воздух в процессе движения сжимается, в результате чего возникает избыточное давление, толкающее окружающие слои воздуха. Эти слои сжимаются, что в свою очередь снова создает избыточное давление, влияющее на соседние слои воздуха. Так, как бы по цепочке, происходит передача первоначального возмущения в пространстве из одной точки в другую. Этот процесс описывает механизм распространения в пространстве звуковой волны. Тело, создающее возмущение (колебания) воздуха, называют источником звука.


Привычное для всех нас понятие «звук» означает всего лишь воспринимаемый слуховым аппаратом человека набор звуковых колебаний. О том, какие колебания человек воспринимает, а какие нет, мы поговорим позднее.


Звуковые колебания, а также вообще все колебания, как известно из физики, характеризуются амплитудой (интенсивностью), частотой и фазой. В отношении звуковых колебаний очень важно упомянуть такую характеристику, как скорость распространения. Скорость распространения колебаний, вообще говоря, зависит от среды, в которой колебания распространяются. На эту скорость влияют такие факторы, как упругость среды, ее плотность и температура. Так, например, чем выше температура среды, тем выше в ней скорость звука. В нормальных (при нормальной температуре и давлении) условиях скорость звука в воздухе составляет приблизительно 330 м/с. Таким образом, время, через которое слушатель начинает воспринимать звуковые колебания, зависит от удаленности слушателя от источника звука, а также от характеристик среды, в которой происходит распространение звуковой волны. Немаловажно заметить, что скорость распространения звука почти не зависит от частоты звуковых колебаний. Это означает, среди прочего, что звук воспринимается именно в той последовательности, в какой он создается источником. Если бы это было не так, и звук одной частоты распространялся бы быстрее звука другой частоты, то вместо, например, музыки, мы бы слышали резкий и отрывистый шум.


Звуковым волнам присущи различные явления, связанные с распространением волн в пространстве. Перечислим наиболее важные из них.


Интерференция - усиление колебаний звука в одних точках пространства и ослабление колебаний в других точках в результате наложения двух или нескольких звуковых волн. Когда мы слышим звуки разных, но достаточно близких частот сразу от двух источников, к нам приходят то гребни обеих звуковых волн, то гребень одной волны и впадина другой. В результате наложения двух волн, звук то усиливается, то ослабевает, что воспринимается на слух как биения. Этот эффект называется интерференцией во времени. Конечно, в реальности механизм интерференции оказывается намного более сложным, однако его суть не меняется. Эффект возникновения биений используется при настройке двух музыкальных тонов в унисон (например, при настройке гитары): настройку производят до тех пор, пока биения перестают ощущаться.


Звуковая волна, при ее падении на границу раздела с другой средой, может отразиться от границы раздела, пройти в другую среду, изменить направление движения - преломиться от границы раздела (это явление называют рефракцией), поглотиться или одновременно совершить несколько из перечисленных действий. Степень поглощения и отражения зависит от свойств сред на границе раздела.


Энергия звуковой волны в процессе ее распространения поглощается средой. Этот эффект называют поглощением звуковых волн. Существование эффекта поглощения обусловлено процессами теплообмена и межмолекулярного взаимодействия в среде. Важно отметить, что степень поглощения звуковой энергии зависит как от свойств среды (температура, давление, плотность), так и от частоты звуковых колебаний: чем выше частота звуковых колебаний, тем большее рассеяние претерпевает на своем пути звуковая волна.


Очень важно упомянуть также явление волнового движения в замкнутом объеме, суть которого состоит в отражении звуковых волн от стенок некоторого закрытого пространства. Отражения звуковых колебаний могут сильно влиять на конечное восприятие звука - изменять его окраску, насыщенность, глубину. Так, звук идущий от источника, расположенного в закрытом помещении, многократно ударяясь и отражаясь от стен помещения, воспринимается слушателем как звук, сопровождающийся специфическим гулом. Такой гул называется реверберацией (от лат. « reverbero » - «отбрасываю»). Эффект реверберации очень широко используется в звукообработке с целью придания звучанию специфических свойств и тембральной окраски.


Способность огибать препятствия – еще одно ключевое свойство звуковых волн, называемое в науке дифракцией. Степень огибания зависит от соотношения между длиной звуковой волны (ее частотой) и размером стоящего на ее пути препятствия или отверстия. Если размер препятствия оказывается намного больше длины волны, то звуковая волна отражается от него. Если же размеры препятствия оказываются сопоставимыми с длиной волны или оказываются меньше ее, то звуковая волна дифрагирует.


Еще один эффект, связанный с волновым движением, о котором нельзя не вспомнить - эффект резонанса. Он заключается в следующем. Звуковая волна, создаваемая некоторым колеблющимся телом, распространяясь в пространстве, может переносить энергию колебаний другому телу (резонатору), которое, поглощая эту энергию, начинает колебаться, и, фактически, само становится источником звука. Так исходная звуковая волна усиливается, и звук становится громче. Надо заметить, что в случае появления резонанса, энергия звуковой волны расходуется на «раскачивание» резонатора, что соответственно сказывается на длительности звучания.


Эффект Допплера – еще один интересный, последний в нашем списке эффект, связанный с распространением звуковых волн в пространстве. Эффект заключается в том, что длина волны изменяется соответственно изменению скорости движения слушателя относительно источника волны. Чем быстрее слушатель (регистрирующий датчик) приближается к источнику волны, тем регистрируемая им длина волны становится меньше и наоборот.


Эти и другие явления учитываются и широко используются во многих областях, таких как акустика, звукообработка и радиолокация.



2.2. Звук и формы его представления


Как мы уже выяснили, звук – это слышимые человеком колебания, распространяющиеся в пространстве. Что же представляет собой звук в аудио аппаратуре?


В звуковой аппаратуре звук представляется либо непрерывным электрическим сигналом, либо набором цифр (нулей и единиц). Аппаратура, в которой рабочий сигнал является непрерывным электрическим сигналом, называется аналоговой аппаратурой (например, бытовой радио приемник или стерео усилитель), а сам рабочий сигнал – аналоговым сигналом.


Преобразование звуковых колебаний в аналоговый сигнал можно осуществить, например, следующим способом. Мембрана из тонкого металла с намотанной на нее катушкой индуктивности, подключенная в электрическую цепь и находящаяся в поле действия постоянного магнита, подчиняясь колебаниям воздуха и колеблясь вместе с ним, вызывает соответствующие колебания напряжения в цепи. Эти колебания как бы моделируют оригинальную звуковую волну. Приблизительно так работает привычный для нас микрофон. Полученный в результате такого преобразования аналоговый аудио сигнал может быть записан на магнитную ленту и впоследствии воспроизведен.


Аналоговый сигнал с помощью специального процесса (о нем мы будем говорить позднее) может быть представлен в виде цифрового сигнала – некоторой последовательности чисел. Таким образом, аналоговый звуковой сигнал может быть «введен» в компьютер, обработан цифровыми методами и сохранен на цифровом носителе в виде некоторого набора описывающих его дискретных значений.


Важно понять, что аналоговый или цифровой аудио сигнал – это лишь формы представления звуковых колебаний материи, придуманная человеком для того, чтобы иметь возможность анализировать и обрабатывать звук. Непосредственно аналоговый или цифровой сигнал в его исходном виде не может быть «услышан». Чтобы воссоздать закодированное в цифровых данных звучание, необходимо вызвать соответствующие колебания воздуха, потому что именно эти колебания и есть звук. Это можно сделать лишь путем организации вынужденных колебаний некоторого предмета, расположенного в воздушном пространстве (например, диффузора громкоговорителя). Колебания предмета вызывают колебаниями напряжения в электрической цепи. Эти самые колебания напряжения и есть аналоговый сигнал. Таким образом, чтобы «прослушать» цифровой сигнал, необходимо вернуться от него к аналоговому сигналу. А чтобы «услышать» аналоговый сигнал нужно с его помощью организовать колебания диффузора громкоговорителя.



2.3. Спектр звука


Спектр звукового сигнала (звуковой волны) является одним из важнейших инструментов анализа и обработки звука. Спектральное разложение сигналов – тема обширная и сложная. Мы постараемся раскрыть эту тему, не слишком вдаваясь в ее теоретические подробности.


Французский математик Фурье (1768-1830) и его последователи доказали, что любую, обязательно периодическую функцию, в случае ее соответствия некоторым математическим условиям можно разложить в ряд (сумму) косинусов и синусов с некоторыми коэффициентами, называемый тригонометрическим рядом Фурье. Проводить рассмотрение сухой математики этого метода разложения мы не будем. Скажем лишь, что, по сути, периодическая на интервале Звук: немного теории (Из теории звука) функция f( x), задаваемая некоторым аналитическим выражением (пусть даже очень сложным) может быть по-другому записана в форме конечной или бесконечной суммы вида:




Звук: немного теории (Из теории звука), (*)




где a k, b k – это так называемые коэффициенты Фурье, рассчитывающиеся по некоторой формуле. Иначе говоря, при некоторых условиях, использование ряда Фурье (*) функции f( x) эквивалентно использованию самой функции f( x). То есть, ряд Фурье – это как бы альтернативный способ записи функцию f( x). При этом, не смотря на то, что ряд Фурье может быть бесконечным, предлагаемая им форма записи оказывается очень удобной при проведении анализа и обработки (о том, что это нам дает применительно к звуковым сигналам, мы еще поговорим).


Обратим внимание, что если коэффициенты a k, b k в формуле (*) - это некоторые числа, рассчитывающиеся по специальной формуле, то единственным изменяющимся коэффициентом при x внутри косинусов и синусов является целое число k ( k имеет значения 1, 2, 3 и т.д.). Это означает, что ряд Фурье функции f( x) можно представить графически, отложив по оси абсцисс значение k, а по оси ординат – величины коэффициентов a k и b k (в некоторой форме).


Рассмотрим в качестве примера функцию:


Звук: немного теории (Из теории звука).


График функции представлен на рис. 1.


Звук: немного теории (Из теории звука)


Это периодическая функция с периодом Звук: немного теории (Из теории звука). Разложение этой функции в ряд Фурье дает следующий результат:




Звук: немного теории (Из теории звука)




То есть, коэффициенты a k равны нулю для всех k, а коэффициенты b k не равны нулю только для нечетных k. Этот ряд Фурье можно представить графически в виде графика, как показано на рис. 2.


Звук: немного теории (Из теории звука)




Так можно поступить с периодическими функциями. Однако, как на практике, так и в теории, далеко не все функции являются периодическими. Чтобы получить возможность раскладывать непериодическую функцию f( x) в ряд Фурье, можно воспользоваться «хитростью». Как правило, при рассмотрении некоторой сложной непериодической функции нас не интересуют ее значения на всей области определения; нам достаточно рассматривать функцию лишь на определенном конечном интервале [ x 1, x 2] для некоторых x 1 и x 2. В этом случае функцию можно рассматривать как периодическую, с периодом T = x 2 – x 1. Для ее разложения в ряд Фурье на интервале [ x 1, x 2] мы можем искусственно представить Звук: немного теории (Из теории звука) в виде некоторой периодической функции Звук: немного теории (Из теории звука), полученной путем «зацикливания» значений функции f( x) из рассматриваемого интервала. После этой процедуры, непериодическая функция f( x) превращается в периодическую Звук: немного теории (Из теории звука), которая может быть разложена в ряд Фурье.


До сих пор мы говорили о математике. Как же все сказанное соотносится с практикой? Действительно, рассмотренный нами способ разложения в ряд Фурье работает для функций, записанных в виде аналитических выражений. К сожалению, на практике записать функцию в виде аналитического выражения возможно лишь в единичных случаях. В реальности чаще всего приходится работать с изменяющимися во времени величинами, никак неподдающимися аналитической записи. Кроме того, значения анализируемой величины чаще всего известны не в любой момент времени, а лишь тогда, когда производится их регистрация (иными словами, значения анализируемой величины дискретны). В частности, интересующие нас сейчас реальные звуковые колебания, являются как раз такой величиной. Оказывается, к таким величинам тоже может быть применена вариация анализа Фурье. Для разложения в ряд Фурье сигналов, описанных их дискретными значениями, применяют Дискретное Преобразование Фурье (ДПФ ) – специально созданная разновидность анализа Фурье. Алгоритм ДПФ был адаптирован для применения в цифровой вычислительной технике и ускорен, в результате чего появился еще один алгоритм, названный Быстрое Преобразование Фурье - БПФ ( Fast Fourier Transform - FFT). БПФ очень широко используется буквально во всех областях науки и техники.


Используя ДПФ/БПФ, звуковой сигнал, описанный его численными значениями, подобно математической функции, может представить в виде спектра входящих в него частот (частотный спектр). Частотные составляющие спектра - это синусоидальные колебания (так называемые чистые тона), каждое из которых имеет свою собственную амплитуду, частоту и фазу. В формуле (*) коэффициенты a k и b k при Звук: немного теории (Из теории звука) и Звук: немного теории (Из теории звука) показывают амплитуду соответствующей частотной составляющей, а Звук: немного теории (Из теории звука) – ее частоту. Любое, даже самое сложное по форме колебание (например, звук голоса человека), можно представить в виде суммы простейших синусоидальных колебаний определенных частот и амплитуд. На рис. 3 представлен график реальной звуковой волны.


Звук: немного теории (Из теории звука)


На графике по оси абсцисс откладывается время, а по оси ординат - амплитуда волны (измеренная в децибелах). Спектр этого звукового сигнала представлен в виде графика на рис. 4.


Звук: немного теории (Из теории звука)


На графике спектра по оси абсцисс откладывается частота спектральных составляющих (измеренная в Гц), а по оси ординат – амплитуда этих спектральных составляющих.


Обратим внимание на один очень важный момент: даже самую сложную зависимость (функцию) спектральное разложение превращает в некоторый математический ряд строго определенного вида (ряд может быть конечным и бесконечным). Таким образом, спектральное разложение как бы преобразует график в график: график функции превращается в график спектра функции. А что, если наша функция – это звуковой сигнал некоторой длительности? Выходит, что в результате спектрального преобразования он тоже превратится в статичную картинку спектра; таким образом, информация о временных изменениях будет утеряна – перед нами будет единый статичный спектр всего сигнала. Как же проследить динамику изменения спектра сигнала во времени?


Чтобы получить представление об изменении спектра во времени, аудио сигнал необходимо анализировать не целиком, а по частям (говорят «блоками» или «окнами»). Например, трехсекундный аудио сигнал можно разбить на 30 блоков. Вычислив спектр для каждого из них, мы сможем проследить динамику развития спектрального состава звучания с разрешением 1/10 секунды. Нужно учитывать, однако, что чем меньше анализируемый блок сигнала, тем менее точен (менее информативен) спектр этого блока. Таким образом, при проведении спектрального анализа мы сталкиваемся с дилеммой, решение которой строго индивидуально для каждого конкретного случая. Стремясь получить высокое временное разрешение, с тем, чтобы суметь распознать изменения спектра сигнала в динамике, мы «дробим» анализируемый сигнал на большое количество блоков, но при этом для каждого получаем огрубленный спектр. И наоборот, стремясь получить как можно более точный и ясный спектр, нам приходится жертвовать временным разрешением и делить сигнал на меньшее количество блоков. Эта дилемма называется принципом неопределенности спектрального анализа.



2.4. Как мы слышим? Психоакустика.


Слуховая система человека – сложный и вместе с тем очень интересно устроенный механизм. Чтобы более ясно представить себе, что для нас есть звук, нужно разобраться с тем, что и как мы слышим.


В анатомии ухо человека принято делить на три составные части: наружное ухо, среднее ухо и внутреннее ухо. К наружному уху относится ушная раковина, помогающая сконцентрировать звуковые колебания, и наружный слуховой канал. Звуковая волна, попадая в ушную раковину, проходит дальше, по слуховому каналу (его длина составляет около 3 см, а диаметр - около 0.5) и попадает в среднее ухо, где ударяется о барабанную перепонку, представляющую собой тонкою полупрозрачную мембрану. Барабанная перепонка преобразует звуковую волну в вибрации (усиливая эффект от слабой звуковой волны и ослабляя от сильной). Эти вибрации передаются по присоединенным к барабанной перепонке косточкам - молоточку, наковальне и стремечку – во внутреннее ухо, представляющее собой завитую трубку с жидкостью диаметром около 0.2 мм и длинной около 4 см. Эта трубка называется улиткой. Внутри улитки находится еще одна мембрана, называемая базилярной, которая напоминает струну длиной 32 мм, вдоль которой располагаются чувствительные клетки (более 20 тысяч волокон). Толщина струны в начале улитки и у ее вершины различна. В результате такого строения мембрана резонирует разными своими частями в ответ на звуковые колебания разной высоты. Так, высокочастотный звук затрагивает нервные окончания, располагающиеся в начале улитки, а звуковые колебания низкой частоты – окончания в ее вершине. Механизм распознавания частоты звуковых колебаний достаточно сложен. В целом он заключается в анализе месторасположения затронутых колебаниями нервных окончаний, а также в анализе частоты импульсов, поступающих в мозг от нервных окончаний.


Существует целая наука, изучающая психологические и физиологические особенности восприятия звука человеком. Эта наука называется психоакустикой. В последние несколько десятков лет психоакустика стала одной из наиболее важных отраслей в области звуковых технологий, поскольку в основном именно благодаря знаниям в области психоакустики современные звуковые технологии получили свое развитие. Давайте рассмотрим самые основные факты, установленные психоакустикой.


Основную информацию о звуковых колебаниях мозг получает в области до 4 кГц. Этот факт оказывается вполне логичным, если учесть, что все основные жизненно необходимые человеку звуки находятся именно в этой спектральной полосе, до 4 кГц (голоса других людей и животных, шум воды, ветра и проч.). Частоты выше 4 кГц являются для человека лишь вспомогательными, что подтверждается многими опытами. В целом, принято считать, что низкие частоты «ответственны» за разборчивость, ясность аудио информации, а высокие частоты – за субъективное качество звука. Слуховой аппарат человека способен различать частотные составляющие звука в пределах от 20-30 Гц до приблизительно 20 КГц. Указанная верхняя граница может колебаться в зависимости от возраста слушателя и других факторов.


В спектре звука большинства музыкальных инструментов наблюдается наиболее выделяющаяся по амплитуде частотная составляющая. Ее называют основной частотой или основным тоном. Основная частота является очень важным параметром звучания, и вот почему. Для периодических сигналов, слуховая система человека способна различать высоту звука. В соответствии с определением международной организации стандартов, высота звука - это субъективная характеристика, распределяющая звуки по некоторой шкале от низких к высоким. На воспринимаемую высоту звука влияет, главным образом, частота основного тона (период колебаний), при этом общая форма звуковой волны и ее сложность (форма периода) также могут оказывать влияние на нее. Высота звука может определяться слуховой системой для сложных сигналов, но только в том случае, если основной тон сигнала является периодическим (например, в звуке хлопка или выстрела тон не является периодическим и по сему слух не способен оценить его высоту).


Вообще, в зависимости от амплитуд составляющих спектра, звук может приобретать различную окраску и восприниматься как тон или как шум. В случае если спектр дискретен (то есть, на графике спектра присутствуют явно выраженные пики), то звук воспринимается как тон, если имеет место один пик, или как созвучие, в случае присутствия нескольких явно выраженных пиков. Если же звук имеет сплошной спектр, то есть амплитуды частотных составляющих спектра примерно равны, то на слух такой звук воспринимается как шум. Для демонстрации наглядного примера можно попытаться экспериментально «изготовить» различные музыкальные тона и созвучия. Для этого необходимо к громкоговорителю через сумматор подключить несколько генераторов чистых тонов (осцилляторов). Причем, сделать это таким образом, чтобы была возможность регулировки амплитуды и частоты каждого генерируемого чистого тона. В результате проделанной работы будет получена возможность смешивать сигналы от всех осцилляторов в желаемой пропорции, и тем самым создавать совершенно различные звуки. Поученный прибор явит собой простейший синтезатор звука.


Очень важной характеристикой слуховой системы человека является способность различать два тона с разными частотами. Опытные проверки показали, что в полосе от 0 до 16 кГц человеческий слух способен различать до 620 градаций частот (в зависимости от интенсивности звука), при этом примерно 140 градаций находятся в промежутке от 0 до 500 Гц.


На восприятии высоты звука для чистых тонов сказываются также интенсивность и длительность звучания. В частности, низкий чистый тон покажется еще более низким, если увеличить интенсивность его звучания. Обратная ситуация наблюдается с высокочастотным чистым тоном – увеличение интенсивности звучания сделает субъективно воспринимаемую высоту тона еще более высокой.


Длительность звучания сказывается на воспринимаемой высоте тона критическим образом. Так, очень кратковременное звучание (менее 15 мс) любой частоты покажется на слух просто резким щелчком – слух будет неспособен различить высоту тона для такого сигнала. Высота тона начинает восприниматься лишь спустя 15 мс для частот в полосе 1000 – 2000 Гц и лишь спустя 60 мс – для частот ниже 500 Гц. Это явление называется инерционностью слуха. Инерционность слуха связана с устройством базилярной мембраны. Кратковременные звуковые всплески не способны заставить мембрану резонировать на нужной частоте, а значит мозг не получает информацию о высоте тона очень коротких звуков. Минимальное время, требуемое для распознавания высоты тона, зависит от частоты звукового сигнала, а, точнее, от длины волны. Чем выше частота звука, тем меньше длина звуковой волны, а значит тем быстрее «устанавливаются» колебания базилярной мембраны.


В природе мы почти не сталкиваемся с чистыми тонами. Звучание любого музыкального инструмента является сложным и состоит из множества частотных составляющих. Как мы сказали выше, даже для таких звуков слух способен установить высоту их звучания, в соответствии с частотой основного тона и/или его гармоник. Тем не менее, даже при одинаковой высоте звучания, звук, например, скрипки отличается на слух от звука рояля. Это связано с тем, что помимо высоты звучания слух способен оценить также общий характер, окрас звучания, его тембр. Тембром звука называется такое качество восприятия звука, которое, в не зависимости от частоты и амплитуды, позволяет отличить одно звучание от другого. Тембр звука зависит от общего спектрального состава звучания и интенсивности спектральных составляющих, то есть от общего вида звуковой волны, и фактически не зависит от высоты основного тона. Немалое влияние на тембр звучания оказывает явление инерционности слуховой системы. Это выражается, например, в том, что на распознавание тембра слуху требуется около 200 мс.


Громкость звука – это одно из тех понятий, которые мы употребляем ежедневно, не задумываясь при этом над тем, какой физический смысл оно несет. Громкость звука – это психологическая характеристика восприятия звука, определяющая ощущение силы звука. Громкость звука, хотя и жестко связана с интенсивностью, но нарастает непропорционально увеличению интенсивности звукового сигнала. На громкость влияет частота и длительность звукового сигнала. Чтобы правильно судить о связи ощущения звука (его громкости) с раздражением (уровнем силы звука), нужно учитывать, что изменение чувствительности слухового аппарата человека не точно подчиняется логарифмическому закону.


Существуют несколько единиц измерения громкости звука. Первая единица – «фон» (в англ. обозначении - « phon»). Говорят, «уровень громкости звука составляет n фон», если средний слушатель оценивает сигнал как равный по громкости тону с частотой 1000 Гц и уровнем давления в n дБ. Фон, как и децибел, по сути не является единицей измерения, а представляет собой относительную субъективную характеристику интенсивности звука. На рис. 5 представлен график с кривыми равных громкостей.


Звук: немного теории (Из теории звука)


Каждая кривая на графике показывает уровень равной громкости с начальной точкой отсчета на частоте 1000 Гц. Иначе говоря, каждая линия соответствует некоторому значению громкости, измеренной в фонах. Например, линия «10 фон» показывает уровни сигнала в дБ на разных частотах, воспринимаемых слушателем как равные по громкости сигналу с частотой 1000 Гц и уровнем 10 дБ. Важно заметить, что приведенные кривые не являются эталонными, а приведены в качестве примера. Современные исследования ясно свидетельствуют, что вид кривых в достаточной степени зависит от условий проведения измерений, акустических характеристик помещения, а также от типа источников звука (громкоговорители, наушники). Таким образом, эталонного графика кривых равных громкостей не существует.


Важной деталью восприятия звука слуховым аппаратом человека является так называемый порог слышимости - минимальная интенсивность звука, с которой начинается восприятие сигнала. Как мы видели, уровни равной громкости звука для человека не остаются постоянным с изменением частоты. Иными словами, чувствительность слуховой системы сильно зависит как от громкости звука, так и от его частоты. В частности, и порог слышимости также не одинаков на разных частотах. Например, порог слышимости сигнала на частоте около 3 кГц составляет чуть менее 0 дБ, а на частоте 200 Гц – около 15 дБ. Напротив, болевой порог слышимости мало зависит от частоты и колеблется в пределах 100 – 130 дБ. График порога слышимости представлен на рис. 6. Обратим внимание, что поскольку, острота слуха с возрастом меняется, график порога слышимости в верхней полосе частот различен для разных возрастов.


Звук: немного теории (Из теории звука)


Частотные составляющие с амплитудой ниже порога слышимости (то есть находящиеся под графиком порога слышимости) оказываются незаметными на слух.


Интересным и исключительно важным является тот факт, что порог слышимости слуховой системы, также как и кривые равных громкостей, является непостоянным в разных условиях. Представленные выше графики порога слышимости справедливы для тишины. В случае проведения опытов по измерению порога слышимости не в полной тишине, а, например, в зашумленной комнате или при наличии какого-то постоянного фонового звука, графики окажутся другими. Это, в общем, совсем не удивительно. Ведь идя по улице и разговаривая с собеседником, мы вынуждены прерывать свою беседу, когда мимо нас проезжает какой-нибудь грузовик, поскольку шум грузовика не дает нам слышать собеседника. Этот эффект называется частотной маскировкой. Причиной появления эффекта частотной маскировки является схема восприятия звука слуховой системой. Мощный по амплитуде сигнал некоторой частоты f m вызывает сильные возмущения базилярной мембраны на некотором ее отрезке. Близкий по частоте, но более слабый по амплитуде сигнал с частотой f уже не способен повлиять на колебания мембраны, и поэтому остается «незамеченным» нервными окончаниями и мозгом.


Эффект частотной маскировки справедлив для частотных составляющих, присутствующих в спектре сигнала в одно и то же время. Однако в виду инерционности слуха, эффект маскировки может распространяться и во времени. Так некоторая частотная составляющая может маскировать другую частотную составляющую даже тогда, когда они появляются в спектре не одновременно, а с некоторой задержкой во времени. Этот эффект называется временной маскировкой. В случае, когда маскирующий тон появляется по времени раньше маскируемого, эффект называют пост-маскировкой. В случае же, когда маскирующий тон появляется позже маскируемого (возможен и такой случай), эффект называет пре-маскировкой.



2.5. Пространственное звучание.


Человек слышит двумя ушами и за счет этого способен различать направление прихода звуковых сигналов. Эту способность слуховой системы человека называют бинауральным эффектом. Механизм распознавания направления прихода звуков сложен и, надо сказать, что в его изучении и способах применения еще не поставлена точка.


Уши человека расставлены на некотором расстоянии по ширине головы. Скорость распространения звуковой волны относительно невелика. Сигнал, приходящий от источника звука, находящегося напротив слушателя, приходит в оба уха одновременно, и мозг интерпретирует это как расположение источника сигнала либо позади, либо спереди, но не сбоку. Если же сигнал приходит от источника, смещенного относительно центра головы, то звук приходит в одно ухо быстрее, чем во второе, что позволяет мозгу соответствующим образом интерпретировать это как приход сигнала слева или справа и даже приблизительно определить угол прихода. Численно, разница во времени прихода сигнала в левое и правое ухо, составляющая от 0 до 1 мс, смещает мнимый источник звука в сторону того уха, которое воспринимает сигнал раньше. Такой способ определения направления прихода звука используется мозгом в полосе частот от 300 Гц до 1 кГц. Направление прихода звука для частот расположенных выше 1 кГц определяется мозгом человека путем анализа громкости звука. Дело в том, что звуковые волны с частотой выше 1 кГц быстро затухают в воздушном пространстве. Поэтому интенсивность звуковых волн, доходящих до левого и правого ушей слушателя, отличаются на столько, что позволяет мозгу определять направление прихода сигнала по разнице амплитуд. Если звук в одном ухе слышен лучше, чем в другом, следовательно источник звука находится со стороны того уха, в котором он слышен лучше. Немаловажным подспорьем в определении направления прихода звука является способность человека повернуть голову в сторону кажущегося источника звука, чтобы проверить верность определения. Способность мозга определять направление прихода звука по разнице во времени прихода сигнала в левое и правое ухо, а также путем анализа громкости сигнала используется в стереофонии.


Имея всего два источника звука можно создать у слушателя ощущение наличия мнимого источника звука между двумя физическими. Причем этот мнимый источник звука можно «расположить» в любой точке на линии, соединяющей два физических источника. Для этого нужно воспроизвести одну аудио запись (например, со звуком рояля) через оба физических источника, но сделать это с некоторой временной задержкой в одном из них и соответствующей разницей в громкости. Грамотно используя описанный эффект можно при помощи двухканальной аудио записи донести до слушателя почти такую картину звучания, какую он ощутил бы сам, если бы лично присутствовал, например, на каком-нибудь концерте. Такую двухканальную запись называют стереофонической. Одноканальная же запись называется монофонической.


На самом деле, для качественного донесения до слушателя реалистичного пространственного звучания обычной стереофонической записи оказывается не всегда достаточно. Основная причина этого кроется в том, что стерео сигнал, приходящий к слушателю от двух физических источников звука, определяет расположение мнимых источников лишь в той плоскости, в которой расположены реальные физические источники звука. Естественно, «окружить слушателя звуком» при этом не удается. По большому счету по той же причине заблуждением является и мысль о том, что объемное звучание обеспечивается квадрофонической (четырехканальной) системой (два источника перед слушателем и два позади него). В целом, путем выполнения многоканальной записи нам удается лишь донести до слушателя тот звук, каким он был «услышан» расставленной нами звукопринимающей аппаратурой (микрофонами), и не более того. Для воссоздания же более или менее реалистичного, действительно объемного звучания прибегают к применению принципиально других подходов, в основе которых лежат более сложные приемы, моделирующие особенности слуховой системы человека, а также физические особенности и эффекты передачи звуковых сигналов в пространстве.


Одним из таких инструментов является использование функций HRTF (Head Related Transfer Function). Посредством этого метода (по сути – библиотеки функций) звуковой сигнал можно преобразовать специальным образом и обеспечить достаточно реалистичное объемное звучание, рассчитанное на прослушивание даже в наушниках.


Суть HRTF – накопление библиотеки функций, описывающих психофизическую модель восприятия объемности звучания слуховой системой человека. Для создания библиотек HRTF используется искусственный манекен KEMAR (Knowles Electronics Manikin for Auditory Research) или специальное «цифровое ухо». В случае использования манекена суть проводимых измерений состоит в следующем. В уши манекена встраиваются микрофоны, с помощью которых осуществляется запись. Звук воспроизводится источниками, расположенными вокруг манекена. В результате, запись от каждого микрофона представляет собой звук, «прослушанный» соответствующим ухом манекена с учетом всех изменений, которые звук претерпел на пути к уху ( затухания и искажения как следствия огибания головы и отражения от разных ее частей). Расчет функций HRTF производится с учетом исходного звука и звука, «услышанного» манекеном. Собственно, сами опыты заключаются в воспроизведении разных тестовых и реальных звуковых сигналов, их записи с помощью манекена и дальнейшего анализа. Накопленная таким образом база функций позволяет затем обрабатывать любой звук так, что при его воспроизведении через наушники у слушателя создается впечатление, будто звук исходит не из наушников, а откуда-то из окружающего его пространства.


Таким образом, HRTF представляет собой набор трансформаций, которые претерпевает звуковой сигнал на пути от источника звука к слуховой системе человека. Рассчитанные однажды опытным путем, HRTF могут быть применены для обработки звуковых сигналов с целью имитации реальных изменений звука на его пути от источника к слушателю. Не смотря на удачность идеи, HRTF имеет, конечно, и свои отрицательные стороны, однако в целом идея использования HRTF является вполне удачной. Использование HRTF в том или ином виде лежит в основе множества современных технологий пространственного звучания, таких как технологии QSound 3 D ( Q3 D), EAX, Aureal3 D ( A3 D) и другие.





3. Цифровые аудио сигналы



Компьютер – это цифровое устройство, то есть электронное устройство, в котором рабочим сигналом является дискретный сигнал. Сегодняшние компьютеры оперируют дискретными сигналами, несущими двоичные значения, условно обозначаемые как «да» и «нет» (на электрическом уровне: 0 вольт и V вольт, для некоторого ненулевого значения V). С помощью одного двоичного сигнала за один шаг можно передать информацию об одном из всего двух положений: 0 («да») или 1 («нет»). С помощью N двоичных сигналов за один шаг можно передать информацию об одном из 2 N положений (2 N – это число комбинаций нулей и единиц для N сигналов). Взаимодействие всех составляющих компьютер блоков происходит путем обмена и обработки одним или одновременно несколькими двоичными сигналами. Все – коды управления, а также сама обрабатываемая информация – все представляется в компьютере в виде чисел. По этой причине и аудио сигналы в цифровой аппаратуре представляют в виде чисел.


Итак, каким же образом можно описать аналоговый аудио сигнал в цифровой форме? Реальный аудио сигнал – это сложное по форме колебание, некая сложная зависимость амплитуды звуковой волны от времени. Преобразование аналогового звукового сигнала в цифровой вид называется аналогово-цифровым преобразованием или оцифровкой. Процесс такого преобразования заключается в:

  • осуществлении замеров величины амплитуды аналогового сигнала с некоторым временным шагом - дискретизация;
  • последующей записи полученных значений амплитуды в численном виде – квантование.
3.1. Дискретизация


Процесс дискретизации по времени - это процесс получения мгновенных значений преобразуемого аналогового сигнала с определенным временным шагом, называемым шагом дискретизации (см. рис. 7).




Звук: немного теории (Из теории звука)


Количество осуществляемых в одну секунду замеров величины сигнала называют частотой дискретизации или частотой выборки, или частотой сэмплирования (от англ. « sampling» – «выборка»). Очевидно, что чем меньше шаг дискретизации, тем выше частота дискретизации (то есть, тем чаще регистрируются значения амплитуды), и, значит, тем более точное представление о сигнале мы получаем. Это рассуждение подтверждается доказанной теоремой, теоремой Котельникова (в зарубежной литературе встречается как теорема Шеннона, Shannon). Согласно этой теореме, аналоговый сигнал с ограниченным спектром может быть точно описан дискретной последовательностью значений его амплитуды, если эти значения следуют с частотой, как минимум вдвое превышающей наивысшую частоту спектра. Иначе говоря, аналоговый сигнал, в котором частота наивысшей составляющей спектра равна F m, может быть точно описан последовательностью дискретных значений амплитуды, если для частоты дискретизации F d выполняется: Звук: немного теории (Из теории звука). На практике это означает следующее: для того, чтобы оцифрованный сигнал содержал информацию о всем диапазоне слышимых человеком частот исходного аналогового сигнала (0 – 20 кГц) необходимо, чтобы выбранное значение частоты дискретизации при оцифровке сигнала составляло не менее 40 кГц.


Казалось бы, для завершения процесса оцифровки теперь осталось лишь записать измеренные мгновенные значения амплитуды сигнала в численной форме. Полученная последовательность чисел (по одному результату замера амплитуды сигнала на каждый шаг) и образует цифровую форму исходного аналогового сигнала – так называемый импульсный сигнал . Здесь, однако, обнаруживается основная трудность оцифровки, заключающаяся в невозможности записать измеренные значения сигнала с идеальной точностью.



3.2. Линейное (однородное) квантование


Допустим, что для записи одного значения амплитуды сигнала в памяти компьютера мы отводим N бит. Соответственно, с помощью одного N -битного слова (слово – последовательность N бит) можно описать 2 N разных положений. Допустим теперь, что амплитуда оцифровываемого сигнала колеблется в пределах от -1 до 1 некоторых условных единиц. Заметим, что измеренным значениям амплитуды ничто не мешает быть дробными (например, -0.126 или 0.997). Представим этот диапазон изменения амплитуды - динамический диапазон сигнала - в виде 2 N -1 равных промежутков, разделив его на 2 N уровней - квантов (произведя таким образом однородное, линейное разбиение амплитудной шкалы). Теперь, для записи каждого отдельного значения амплитуды, его необходимо округлить до ближайшего уровня квантования. Этот процесс называется квантованием по амплитуде. Говоря более формальным языком, квантование по амплитуде – это процесс замены реальных (измеренных) значений амплитуды сигнала значениями, приближенными с некоторой точностью. Каждый из 2 N возможных уровней называется уровнем квантования,а расстояние между двумя ближайшими уровнями квантования называется шагом квантования. В случае линейного разбиения амплитудной шкалы на уровни, квантование называют линейным (однородным) . На рис. 8 представлен пример такого квантования.


Звук: немного теории (Из теории звука)


Как видно, результатом такой оцифровки стал ступенчатый сигнал, составленный из прямоугольников, каждый из которых имеет ширину равную величине шага дискретизации, и высоту равную измеренному значению амплитуды сигнала.


Очевидно, что точность округления зависит от выбранного количества (2 N) уровней квантования, которое, в свою очередь, зависит от количества бит ( N), отведенных для записи значения амплитуды. Чем больше уровней квантования и чем ближе они друг к другу (а, для некоторого фиксированного диапазона изменения амплитуды расстояние между уровнями квантования обратно пропорционально их количеству), тем на меньшую величину приходится округлять измеренные значения амплитуды, и, таким образом, тем меньше получаемая погрешность квантования. Число N называют разрядностью квантования (подразумевая количество разрядов, то есть бит, в каждом слове), а полученные в результате округления значений амплитуды числа – отсчетами или сэмплами (от англ. “ sample” – “замер”).Считается, что погрешность квантования, являющаяся результатом квантования с разрядностью 16 бит, остаются для слушателя почти незаметными.


Описанный способ оцифровки сигнала - дискретизация сигнала во времени в совокупности с методом однородного квантования - называется импульсно-кодовой модуляцией, ИКМ (англ. Pulse Code Modulation PCM). Стандартный аудио компакт-диск ( CD- DA), применяющийся с начала 80-х годов 20-го столетия, хранит информацию в формате PCM, с частотой дискретизации 44.1 кГц и разрядностью квантования 16 бит.





3.3. Сложности, связанные с оцифровкой


Не смотря на кажущуюся простоту и интуитивность процесса оцифровки, эта процедура сопряжена со многими трудностями и проблемами.


Во-первых, частота дискретизации, устанавливаемая теоремой Котельникова, является минимально необходимой, но не достаточной. Дискретизация вносит дополнительные помехи в спектр исходного сигнала, добавляя в него его же зеркальную копию. Поэтому значение частоты дискретизации должно выбираться несколько большим, чем частота, устанавливаемая теоремой Котельникова, чтобы сделать возможной успешную фильтрацию лишних спектральных составляющих.


Во-вторых, квантование значений сигнала привносит в спектр сигнала дополнительную помеху, называемую шумом квантования или шумом дробления . Шумом (ошибкой) квантования называют сигнал, составляющий разницу между восстановленным цифровым и исходным аудио сигналами. Эта разница образуется в результате округления измеренных значений сигнала. При этом выполняется следующая закономерность: чем выше разрядность квантования, тем ниже уровень шума квантования (поскольку тем на меньшее значение требуется округлять каждое измеренное значение сигнала). Природа шума квантования такова, что ширина спектральной области, в которой он простирается, пропорциональна значению частоты дискретизации. При этом при фиксированной разрядности квантования, общая энергия шума квантования остается постоянной. А это значит, что чем выше частота дискретизации, тем в более широкой спектральной области простирается шум квантования и, соответственно, тем ниже его мощность в некоторой фиксированной интересующей нас полосе спектра, например, в полосе слышимых частот. Этот факт имеет большое практическое значение.


Надо сказать, что уровень шума квантования также зависит и от формы самого сигнала. В идеальном случае, ошибка при округлении значений сигнала является случайной и, значит, спектр шума квантования оказывается равномерным. В реальности, однако, этого не происходит. Форма реальных звуковых сигналов является в определенной степени не случайной, а, значит, и ошибка квантования тоже является не случайной. В этом случае спектр шума квантования оказывается не равномерным и концентрируется в какой-то определенной области, что отрицательно сказывается на звучании цифрового сигнала. Существует несколько способов борьбы с этим явлением. Так, нежелательную концентрацию шума квантования в некоторой частотной области можно нейтрализовать путем подмешивания к исходному аналоговому сигналу некоторого слабого по мощности псевдослучайного шума. Этот шум минимизирует степень зависимости ошибок округления от формы преобразуемого сигнала, что хорошо рассеивает спектр шума квантования и делает его равномерным. Таким образом, описанный прием (называемый дизерингом, от англ. « dithering» – «дрожание») как бы подменяет нежелательный шум квантования искусственно подмешанным псевдослучайным шумом. При этом подмешанный псевдослучайный шум оказывается менее заметным на слух, чем тот шум квантования, какой получился бы без применения дизеринга. Еще один прием борьбы с уровнем шума квантования называется формовкой шума (от англ. “ noise shaping”). Идея приема заключается в преднамеренном изменении формы исходного аналогового сигнала специальным образом, чтобы последующее квантование привело к появлению шума квантования, основная энергия которого расположилась бы в наименее заметных на слух частотных областях. Формирование шума с таким спектром достигают путем использования фильтра, моделирующего кривую равной громкости (об этой кривой мы говорили выше).


Импульсный сигнал, получаемый в результате аналогово-цифрового преобразования, из-за несовершенности преобразующих устройств имеет некоторые изъяны. Эти изъяны выражаются в случайных отклонениях длительностей прямоугольных импульсов от номинальной величины шага дискретизации, а также в неабсолютной крутизне фронтов импульсов. Говоря иначе, осуществление выборки сигнала при оцифровке происходит не через абсолютно равные промежутки времени, а с некоторыми случайными отклонениями от номинала, при этом результирующий импульсный сигнал вдобавок имеет неидеальную прямоугольную форму. Если, скажем, дискретизация проводится с частотой 44.1 кГц, то отсчеты берутся не точно каждые Звук: немного теории (Из теории звука) секунды, а то чуть раньше, то чуть позднее. А так как входной сигнал постоянно меняется, то такая погрешность приводит к регистрации не совсем верного уровня сигнала. Описанный неприятный эффект называется джиттером (от англ. « jitter» – «дрожание») и по сути является исключительно результатом неабсолютной стабильности аппаратуры (АЦП). На слух джиттер воспринимается как некоторое дрожание сигнала на высоких частотах, при этом на низких частотах джиттер выражается в некотором «размазывании» спектра сигнала. Для борьбы с джиттером применяют высокостабильные тактовые генераторы. Следует заметить, что причиной появления джиттера может быть не только аналогово-цифровое преобразование, но и передача импульсного сигнала по цифровому каналу от одного устройства к другому. В этом случае появление джиттера является результатом неидеальной коммутации/синхронизации устройств и может быть устранено только путем использования аппаратуры, регенерирующей цифровой сигнал.


Рассмотрим, наконец, еще один неприятный эффект оцифровки, называемый гранулярным шумом. Гранулярным шумом(от англ. « granular noise») называют эффект нестабильности округления в процессе квантования. Если величина сигнала незначительно меняется около некоторой величины, являющейся границей между двумя соседними уровнями квантования, даже самые маленькие колебания величины сигнала вокруг этой границы могут вызывать заметные изменения результатов округления при квантовании значений амплитуды. Это связано с тем, что квантователь в этом случае округляет измеренное значение сигнала то до величины одного, то до величины второго из соседствующих уровней квантования.



3.4. Другие способы оцифровки.


Рассматривать все существующие способы оцифровки мы не будем, поскольку это потребовало бы от нас серьезного углубления в тему. Тем не менее, некоторые способы все же стоят пусть и беглого упоминания.


Так, рассмотренное выше однородное квантование является, конечно же, не единственным способом квантования. Как мы уже говорили, восприятие громкости звука человеком носит нелинейный характер – нарастание интенсивности звука как степенной функции воспринимается на слух как линейное нарастание громкости. Следовательно, изменения амплитуды слабого по интенсивности сигнала различаются слухом намного лучше, чем изменения амплитуды в областях высокой интенсивности. Это в свою очередь означает, что погрешность квантования сигнала в областях со слабой амплитудой оказывается намного более заметной, чем погрешность квантования в областях, где сигнал характеризуется высокими значениями интенсивности. Иными словами, в областях, где амплитуда сигнала является значительной, мы можем позволить себе допускать более высокую погрешность квантования, чем в областях со слабой амплитудой. Этот факт используется при неоднородном квантовании. С целью уменьшения влияния погрешности квантования на воспринимаемое качество оцифровки, способ неоднородного квантования предусматривает разбиение амплитудной шкалы на уровни по логарифмическому закону. Такой способ квантования называют логарифмическим квантованием. При использовании логарифмической амплитудной шкалы, в области слабой амплитуды оказывается большее число уровней квантования, чем в области сильной амплитуды (при этом, общее число уровней квантования остается таким же, как и в случае однородного квантования). Соответственно, при квантовании, слабый по величине сигнал округляется на меньшие значения, чем более интенсивный сигнал. Это автоматически учитывает психоакустические особенности слуха и обеспечивает менее заметные на слух погрешности квантования. Аналогово-цифровое преобразование, основанное на применении метода неоднородного квантования, называется неоднородной импульсно-кодовой модуляцией - неоднородной ИКМ ( Nonuniform PCM).


Альтернативным способом аналогово-цифрового преобразования является разностная импульсно-кодовая модуляцияразностная ИКМ(англ. « Differential PCM» – DPCM). До сих пор мы говорили о методе импульсно-кодовой модуляции, подразумевающей квантование абсолютных значений сигнала. В случае разностной ИКМ квантованию подвергают относительные значения величины амплитуды. В полной аналогии с ИКМ, разностная ИКМ может сочетаться с использованием как однородного, так и неоднородного методов квантования. Разностное кодирование имеет много вариаций, причем некоторые из них подразумевают использование квантователя с предсказателем сигнала. Такие квантователи производят меньше ошибок квантования за счет предсказания сигнала на каждом шаге преобразования, опираясь на информацию об уже известных предыдущих значениях сигнала.





3.5. Кодирование цифровых аудио сигналов


По сути дела, та или иная цифровая форма представления аналоговых аудио сигналов уже является способом кодирования – последовательность чисел, описывающая аналоговый аудио сигнал, сама по себе является цифровым кодом. Однако кодирование, о котором мы будем сейчас говорить, - это нечто другое. Сейчас рассмотрим методы кодирования цифровых аудио сигналов.


Оцифрованный аудио сигнал «в чистом виде» (например, в форме одной из рассмотренных выше вариаций ИКМ) является достаточно точной, но не самой компактной формой записи исходного аналогового сигнала.


Посудите сами. Ч тобы получить полную информацию об оригинальном аналоговом сигнале в частотной полосе от 0 до 20 кГц (в слышимом диапазоне частот), аналоговый сигнал необходимо дискретизовать с частотой не менее 40 кГц. Так, стандарт CD - DA (стандарт записи данных на привычных для всех аудио компакт-дисках) устанавливает следующие параметры кодирования: двух- или одноканальная запись в формате ИКМ с частотой дискретизации 44.1 кГц и разрядностью квантования 16 бит. Один час музыки в таком формате занимает объем около 600 Мб (60 минут * 60 секунд * 2 канала * 44100 отсчетов в секунду * 2 байта на отсчет = около 605 Мб). Учитывая, что, например, музыкальная коллекция рядового любителя музыки вполне может насчитывать 5000 треков средней продолжительностью около 3 минут каждый, объем памяти, требуемый для ее хранения в исходном цифровом виде, оказывается очень внушительным. Поэтому хранение относительно больших объемов аудио данных, гарантирующее достаточно хорошее качество звучания, требует применения разных «ухищрений», позволяющих уплотнить данные.


В целом, все существующие методы кодирования аудио информации можно условно разделить всего на два типа.


1.; Сжатие данных без потерь (англ. « lossless coding») - это способ кодирования (уплотнения) цифровой аудио информации, позволяющий осуществлять стопроцентное восстановление исходных данных из сжатого потока (под понятием «исходные данные» здесь подразумевается исходный вид оцифрованных аудио данных). К такому способу уплотнения данных прибегают в случаях, когда требуется абсолютное, стопроцентное сохранение качества оригинального звучания аудио данных. Существующие сегодня алгоритмы беспотерьного сжатия позволяют сократить занимаемый данными объем на 20-50% и при этом гарантировать стопроцентное восстановление исходного цифрового материала из сжатых данных. Механизмы работы подобных кодеров сходны с механизмами работы архиваторов общих данных, таких, как, например, ZIP или RAR, но при этом адаптированы специально для сжатия аудио данных. Беспотерьное кодирование , хотя и идеально с точки зрения сохранности качества аудио материалов, но оказывается неспособным обеспечить высокий уровень компрессии.


2. Существует другой, более современный путь уплотнения данных. Это так называемое сжатие данных с потерями (англ. « lossy coding»).Цель такого кодирования заключается в достижении любыми путями максимально высокого коэффициента компрессии данных при сохранении качества их звучания на приемлемом уровне. В основе идеи кодирования с потерями лежит два простых основополагающих соображения:

  • исходные цифровые аудио данные избыточны – они содержат много лишней, бесполезной для слуха информации, которую можно удалить, тем самым, повысив коэффициент компрессии;
  • требования к качеству звучания аудио материала могут быть разными и зависят от конкретных целей и сфер использования.

Кодирование с потерями потому и называется «с потерями», что приводит к утрате некоторой части аудио информации. Такое кодирование приводит к тому, что декодированный сигнал при воспроизведении звучит похоже на оригинальный, но фактически перестает быть ему идентичным. В основе большинства методов кодирования с потерями лежит использование психоакустических свойств слуховой системы человека, а также различных хитростей, связанных с переквантованием и передискретизацией сигнала. В частотности, в процессе компрессии аудио данные анализируются кодером на предмет выявления различных деталей звучания, которыми можно пренебречь. Замаскированные частоты, неслышимые и слабослышимые детали звучания – всем этим можно пожертвовать с целью достижения более высокого значения коэффициента компрессии. Там, где в звучании важна лишь разборчивость (например, в телефонии, где наличие частот выше 4 кГц не является необходимым), аудио информация в процессе кодирования подвергается серьезному «упрощению», что вкупе с использованием «умных» квантователей и удачных «жадных» алгоритмов компрессии данных позволяет достичь высочайших степеней компрессии (1 : 50 и выше). Там, где качеству звучания предъявляются более высокие требования (например, в портативных и бытовых аудио устройствах), аудио материалы подвергают более щадящему кодированию. Надо отметить, что степень агрессивности кодера по отношению к деталям звучания может регулироваться (эта способность, впрочем, зависит от конкретной реализации). В среднем, современные кодеры даже при столь высокой степени компрессии, как 1 : 10 позволяют обеспечить отличное звучание, качество которого средним слушателем на средней аппаратуре оценивается как равное качеству звучания исходных аудио данных.



3.6. Беспотерьные кодеры


Сегодня существует множество кодеров аудио данных, основанных на идее кодирования с потерями. Вот только некоторые из них: MPEG-1 Layer 3 (всем известный как MP3), Windows Media Audio ( WMA), Ogg Vorbis ( OGG), MusePack ( MPC), MPEG-2/4 AAC и другие. Давайте чуть подробнее остановимся на их рассмотрении.




3.6.1 MPEG-1 Layer 3




Известный сегодня фактически каждому пользователю компьютера под незамысловатой маркой « MP3» кодек MPEG-1 Layer 3 – это наиболее старый из всех распространенных на сегодня lossy-кодеков. Своим названием он обязан группе MPEG, которая занималась его разработкой и которая продолжает разрабатывать новые аудио и видео кодеки. О ней стоит упомянуть отдельно.


MPEG расшифровывается как «Moving Picture Coding Experts Group», дословно – «группа экспертов по кодированию подвижных изображений». Группа MPEG ведет свою историю с января 1988 года и занимается разработкой различных алгоритмов и стандартов кодирования аудио и видео информации. В собраниях MPEG принимают участие несколько сотен специалистов из более чем двухсот крупных и мелких компаний. При этом большая часть участников MPEG - это специалисты, занятые в тех или иных научных и академических учреждениях. На сегодняшний день группой MPEG разработаны следующие стандарты:



  • MPEG-1 (принят в ноябре 1992 г.) - стандарт кодирования, хранения и декодирования подвижных изображений и аудио информации;
  • MPEG-2 (принят в ноябре 1994 г.) - стандарт кодирования данных для цифрового телевещания;
  • MPEG-4 - стандарт для мультимедиа приложений (в его разработке еще далеко не поставлена точка);
  • MPEG-7 - универсализованный стандарт работы с мультимедиа информацией, предназначенный для обработки, компоновки и управления мультимедиа информацией.



Стандарт MPEG-1 представляет собой, по сути, целый комплект аудио и видео стандартов. Согласно стандартам ISO ( International Standards Organization), аудио часть MPEG-1 включает в себя три алгоритма различных уровней сложности: Layer 1 (уровень 1), Layer 2 (уровень 2) и Layer 3 (уровень 3, называемый большинством просто « MP 3»). Общая структура процесса кодирования одинакова для всех уровней MPEG-1 . Вместе с тем, несмотря на схожесть уровней в общем подходе к кодированию, уровни различаются по целевому использованию и задействованным в кодировании внутренним механизмам. Для каждого уровня определен свой формат записи выходного потока данных и, соответственно, свой алгоритм декодирования. Алгоритмы MPEG-1 основаны в целом на изученных свойствах восприятия звуковых сигналов слуховым аппаратом человека – о них мы упоминали выше.


Процедура кодирования аудио информации, вкратце, представляет собой следующий процесс. В начале кодирования входной цифровой аудио поток в формате PCM с помощью цифровых фильтров разделяется на несколько частотных полос. Дальнейший процесс зависит от Layer ' a .


В случае Layer 3 (то есть, в случае MP 3) в каждой полосе сигнал раскладывается на частотные составляющие спектра (применяется косинусное преобразование - MDCT , частный случай преобразования Фурье) в результате чего получается набор коэффициентов разложения. Вся дальнейшая обработка сигнала нацелена на максимально возможное упрощение сигнала с целью достижения наиболее эффективного переквантования этих коэффициентов и их записи. Спектр входного сигнала очищается от заведомо неслышных составляющих - низкочастотных шумов и наивысших гармоник. На следующем этапе производится психоакустический анализ кодируемого аудио материала в диапазоне слышимых частот. Вышеописанные процессы преобразования позволяют исключить из исходного аудио материала больше половины информации. На заключительном этапе кодирования производится сжатие уже готового потока данных с использованием упрощенного аналога алгоритма Хаффмана ( Huffman).


В случае сжатия данных с использованием Layer 2 идея упрощения сигнала остается той же, однако переквантованию подвергаются не коэффициенты MDCT , а отсчеты амплитудного сигнала в каждой частотной полосе. Здесь нужно отметить, что в соответствии с приблизительно аналогичной схемой кодирования работают и некоторые другие lossy -кодеки.


Комплект MPEG-1 предусмотрен для кодирования аудио сигналов, оцифрованных с частотой дискретизации 32, 44.1 и 48 КГц. Три упомянутых выше уровня MPEG-1 различаются свой целевой направленностью, механизмами кодирования и, таким образом, обеспечивают различные степени сжатия. Так, например, аудио данные в формате [ИКМ / 44.1 кГц / 16 бит / стерео], Layer 1 позволяет сохранить без особо ощутимых потерь качества при скорости потока (битрейте) 384 Кбит/с, что составляет 4-х кратный выигрыш в занимаемом данными объеме; Layer 2 обеспечивает субъективно такое же качество при 192 - 224 Кбит/с, а Layer III ( MP 3) - при 128-160. Нельзя говорить о выигрыше или проигрыше одного уровня перед другим, так как каждый уровень разработан для достижения своей собственной цели. Например, преимущество Layer 3 заключается в том, что фактически он позволяет сжимать информацию в 8-12 раз (в зависимости от битрейта) без сильно ощутимых потерь качества исходного звучания. При этом, однако, обеспечиваемая им скорость компрессии является самой низкой среди всех уровней. Layer 2 потенциально способен обеспечить более высокое качество кодирования в виду более «легкой» внутренней обработки сигнала в процессе преобразования. В то же время, Layer 2 не позволяет достичь таких высоких степеней компрессии, какие достигаются при использовании Layer 3.




3.6.2 Ogg Vorbis




Одной из негативных сторон кодека MP3 ( MPEG-1 Layer 3) являлась и является его коммерческая основа, заключающаяся как минимум в том, что каждый производитель, создающий новый программный или аппаратный MP3-кодер, обязан платить отчисления изобретателям кодека. Эта ситуация не могла не вызывать недовольство среди пользователей и разработчиков. Так появились независимые разработки в области компрессии аудио.


Кодек Ogg Vorbis вышел в свет в июне 2000 года. Он является частью проекта Ogg Squish, нацеленного на создание полностью открытой системы мультимедиа. Разработчиком проекта является группа, именующаяся Xiphophorus. В основе Ogg Vorbis лежат те же идеи, что и в основе MPEG-1 Layer II, при этом Ogg Vorbis использует свои собственные оригинальные математические алгоритмы, а также собственную психоакустическую модель, что освобождает его разработчиков от необходимости выплачивать какие-то лицензионные отчисления или производить иные выплаты сторонним фирмам-производителям. Кодек Ogg Vorbi s, будучи созданным позже MPEG-1, является несколько более развитым. Он рассчитан на сжатие данных на всех возможных битрейтах без ограничений, от 8 Кбит/с до 512 Кбит/с. Кодер позволяет хранить внутри файлов-контейнеров подробные комментарии об исполнителе и названии композиции, а также предусматривает возможность кодирования нескольких каналов аудио (более двух, теоретически до 255), возможность редактирования содержимого файлов и поддержку техники «масштабируемых битрейтов» - возможности изменения битрейта аудио потока без необходимости его декодирования.






3.6.3 MusePak




Естественно, Ogg Vorbis является не единственной некоммерческой разработкой такого рода. Энтузиасты продолжали и продолжают делать попытки создания альтернативных качественных аудио кодеков.


Кодек MPEGplus (MPEG+), переименованный позднее в MusePack из-за проблем, которые появились у автора кодека в связи с тем, что название последнего содержало в себе аббревиатуру "MPEG", - это еще один некоммерческий lossy-кодек. MusePack создан «в домашних условиях» и разрабатывался(ется) в основном двумя людьми: Andre Buschmann и Frank Klemm. MusePak, также как и Ogg Vorbis, базируется на идеях MPEG-1 Layer II. В отличие от Ogg Vorbis , кодек MusePak переживает сегодня не самые лучшие времена – в то время, как Ogg Vorbis получает все более и более широкое распространение (как среди пользователей, так и среди производителей), MusePak остается малоизвестным, хотя и незаслуженно.




3.6.4 Windows Media Audio




Гигант компьютерной индустрии Microsoft на некотором этапе понял, что остаться в стороне от бурного развития цифровой аудио индустрии – значит проиграть большую долю рынка конкурентам. Поэтому аудио кодек от Microsoft не заставил себя долго ждать.


Кодек Windows Media Audio (сокращенно WMA) является сегодня собственной разработкой компании Microsoft и успешно ею продвигается. Изначально, кодек WMA разрабатывался фирмой Voxware и имел название Voxware Audio Codec, однако впоследствии компания забросила его доработку, остановившись на v4.0. Разработки Voxware были выкуплены компанией Microsoft, серьезно доработаны и представлены общественности в виде аудио кодека под названием Windows Media Audio (сокращенно WMA).


Если кодек MP3 был изначально стандартизован на предмет разрешенных значений битрейтов и других основных параметров, то WMA изменялся параллельно своему становлению и развитию. На сегодняшний день существует несколько версий кодека WMA: v1, v2, v7, v8 и v9. Внутреннее устройство и механизмы кодирования кодека держатся компанией Microsoft в секрете, однако, опираясь на результаты некоторых тестов, можно предположить, что идеи, легшие в основу WMA, не сильно отличаются от идей, на которых базируются методы MPEG-1.




3.6.5. MPEG-2/4 AAC




Группа MPEG, конечно, не удовлетворилась разработкой аудио кодека, включенного в стандарт MPEG-1. Исследования в области кодирования аудио продолжались и вылились в создание новых стандартов кодирования аудио от MPEG.


Общий стандарт MPEG-2 разрабатывался специально для кодирования телевизионных сигналов. В апреле 1997 комплект MPEG-2 получил «продолжение» в виде алгоритма MPEG-2 AAC ( MPEG-2 Advanced Audio Coding – продвинутое аудио кодирование). Стандарт MPEG-2 AAC стал результатом кооперации усилий института Fraunhofer, а также компаний Sony, NEC и Dolby, и является технологическим приемником MPEG-1, при этом намного более развитым. Поскольку между опубликованием MPEG -2 AAC и его стандартизацией прошло достаточно много времени, свет увидели несколько разновидностей этого алгоритма от независимых коммерческих и некоммерческих разработчиков: Homeboy AAC , AT & T a 2 b AAC, Astrid/ Quartex AAC, Liquifier AAC, FAAC ( Freeware Audio Coder), Mayah AAC и PsyTEL AAC. Почти все приведенные разновидности алгоритма AAC не являются совместимыми между собой.


Так же, как и в комплекте аудио стандартов MPEG-1, в основе алгоритма AAC лежит психоакустический анализ сигнала. Вместе с тем, алгоритм AAC имеет в своем механизме множество дополнений, направленных на улучшение качества выходного аудио сигнала. В частности, используется другой тип преобразований, улучшены методы шумовой обработки, модернизирован метод записи выходного бит-потока и т.д. Следует отметить, что кодек AAC не является обратно совместимым с уровнями MPEG-1, а значит, аудио материалы в формате MPEG-2 AAC не могут быть декодированы с помощью декодера MPEG-1.


MPEG-2 AAC предусматривает три различных профиля (или, в терминологии MPEG-1, «уровня») кодирования: Main, LC ( Low Complexity) и SSR ( Scalable Sampling Rate). В зависимости от того, какой профиль используется для кодирования, изменяется время кодирования, размер получаемого цифрового потока и качество его звучания. Наивысшее качество звучания (при самой низкой скорости компрессии и декомпрессии) обеспечивает основной профиль Main. Это связано с тем, что профиль Main включает в себя все механизмы анализа и обработки входного потока. Профили LC и SSR являются упрощенными, но при этом более скоростными.


Спустя несколько лет после стандартизации MPEG-2, свет увидел новый комплект стандартов, комплект MPEG-4 . По обыкновению, стандарт MPEG-4, помимо прочего, описывает и методы кодирования аудио. Эти методы объединены под общим названием MPEG-4 AAC.


В качестве средств компрессии аудио в MPEG-4 используется целый комплекс стандартов аудио кодирования: улучшенный и доработанный алгоритм MPEG-2 AAC, алгоритм TwinVQ, а также алгоритмы кодирования речи HVXC ( Harmonic Vector eXcitation Coding) и CELP ( Code Excited Linear Predictive). Можно сказать, что в целом, стандарт MPEG-4 является логическим продолжением MPEG-2 AAC. MPEG-4 AAC стандартизует следующие типы объектов (именно так называются профили или уровни в MPEG-4 AAC):

  • MPEG-4 AAC LC (Low Complexity)
  • MPEG-4 AAC Main
  • MPEG-4 AAC SSR (Scalable Sampling Rate)
  • MPEG-4 AAC LTP (Long Term Prediction)
  • MPEG-4 Version 2
  • MPEG-4 Version 3 ( включая HE-AAC)

Как видно, первые три позаимствованы у MPEG-2 AAC, четвертый же является новшеством. LTP основан на методах предсказания сигнала и является более сложным и более ресурсоемким алгоритмом, нежели остальные. Version 2 и Version 3 - это пакеты механизмов, расширяющих основной инструментарий кодирования стандарта MPEG-4 AAC . Основным нововведением в стандарт MPEG-4, введенным Version 3, является стандартизация в мая 2003 года алгоритма HE-AAC (High Efficiency AAC – высокоэффективный AAC ), известного также под именем aacPlus.


Расширение AAC под именем aacPlus было анонсировано компанией Coding Tech nologies 9 октября 2002 года. aacPlus основан на использовании технологии SBR (Spectral Band Replication). Технология SBR предназначена для улучшения качества передачи верхнего частотного диапазона. Идея технологии и предпосылки к ее созданию состоят вот в чем. Дело в том, что кодеки, использующие психоакустическую модель, как показывает практика, имеют один общий недостаток: все они обеспечивают довольно хорошее качество звучания во всем диапазоне слышимых частот, но только до битрейта 128-112 Кбит/с. Компрессия на более низких битрейтах приводит к очень заметной деградации качества звучания, что заставляет разработчиков кодеков при использовании низких битрейтов принудительно ограничивать кодируемый диапазон частот. Технология SBR является попыткой устранить этот досадный недостаток за счет сохранения ограниченной информации о верхней полосе частотного спектра сигнала в процессе кодирования и последующего искусственного синтеза (воссоздания) верхних частот в процессе декодирования. Технология хоть и является очень искусственным методом решения проблемы, но, тем не менее, оказывает благотворное влияние на восприятие закодированных таким образом аудио материалов.


Надо сказать, что «комплектация» MPEG -4 новыми подстандартами и дополнениями продолжается, так что список механизмов и инструментарий кодирования MPEG -4 может постепенно расширяться. Кроме того, нужно заметить, что не все стандартизованные в MPEG -4 методы кодирования нашли отражение в реально существующих аппаратных или программных продуктах. Это связано с тем, что многое из описанного в MPEG -4 стандартизует способы обмена информации, но не сами способы кодирования. Многие идеи кодирования (в особенности, это касается компрессии видео) требуют даже по сегодняшним меркам гигантских вычислительных способностей, так что до полной реализации всего предусмотренного в MPEG -4 еще далеко.




В заключении разговора о lossy -кодировании стоить заметить следующее. Кодирование с потерями – это очень удобный инструмент. Однако в отличие от беспотерьного кодирования – достаточно опасный инструмент. Применяться lossy -кодирования должно там, где ему место. Совершенно очевидно, что кодированию с потерями ввиду самой его сути не место, например, в студийной звукозаписи. При этом совершенно нелогично отказываться от его использования, например, в телефонии. Таким образом, очень важно уметь правильно пользоваться имеющимся под рукой инструментарием и, образно говоря, не использовать кувалду при огранке алмазов, равно как и пинцет на каменоломне.





4. Послесловие



Вопросы, подобные часто задаваемому «пользоваться или не пользоваться lossy -кодерами?» не дают спокойно спать многим, как аудио любителям, так и профессионалам. Какой lossy -кодер использовать, пользоваться ли вообще lossy -кодерами или применять исключительно беспотерьное сжатие, с какими параметрами проводить оцифровку сигнала – эт о и многое другое рано или подно спрашивает себя каждый, кто в той или иной форме сталкивается со звукообработкой или звукозаписью. Ни один из подобных вопросов не имеет однозначного ответа, все диктуется соображениями целесообразности и применимости. Панацеи не существует, и поэтому каждый конкретный практический случай имеет свои строго индивидуальные решения.


Вообще, вопросы целесообразности и применимости технологий цифрового звука и методов его обработки являются тонкими и сложными. Даже тема использования цифрового звука как такового до сих пор является камнем преткновения, и каждый на этот счет имеет свое собственное мнение. Так, например, многие аудиофилы считают, что цифровая форма является неудачным способом представления звуковых сигналов и предпочитают аналоговую аудио аппаратуру цифровой. С другой стороны, даже лампочку Эдисона многие его современники высмеивали и относились к изобретению скептично, что уж говорить про столь сложную область, какой является область цифровых сигналов.


Пожалуй, важнее всего понять, что имеет свои положительные и отрицательные стороны, и эти стороны могут меняться местами в зависимости от постановки каждой конкретной задачи. На сегодня совершенно очевидно лишь одно – цифровые технологии находятся лишь в начале своего пути, и нам еще только предстоит понять, что значит их повсеместное внедрение совместно с миниатюризацией, наращиванием вычислительных мощностей и объемов памяти. Совершенно ясно, что цифровые технологии очень скоро завоюют новые, еще не захваченные рубежи, и что от повсеместного применения этих технологий никуда не деться. Опасаться этого процесса можно, но сопротивляться ему бесполезно. Что же касается цифрового звука – части цифровой революции – то здесь все только начинается. Что в этой области уже сегодня получил потребитель? Очень компактные цифровые аудио проигрыватели, высококачественную мобильную и Интернет-телефонию, домашние кинотеатры с объемным звучанием. А, ведь это далеко не все из того, что может быть сделано. Технологии распознавание звука и, в частности, речи до сих пор находятся только в начале своего пути; технологии синтеза звука также еще далеко не на вершине своих возможностей. Только представьте себе, как развитие этих технологий может повлиять на окружающий нас мир! Все это лишь укрепляет мысли о том, что путь не близок, и что самое интересное нам еще только предстоит увидеть.



Примечания


В этом смысле можно провести аналогию с распространением света. Скорость распространения света также не зависит от частоты. В противном случае, если бы, например, красный свет двигался быстрее синего, то вспышка белого света выглядела бы сначала красной, затем белой и, наконец, синей.


С дифракцией звука мы сталкиваемся в повседневной жизни постоянно. Если бы дифракции звука не существовало, то мы были бы совершенно неспособными слышать, например, музыку, звучащую за углом дома, а также разговор за закрытой дверью.


Так, например, звук камертона длится достаточно продолжительное время, однако является тихим. В то же время, звук камертона, установленного на резонаторный ящик, в виду появления резонанса оказывается намного более громким, однако гораздо менее продолжительным.




Децибел - это относительная логарифмическая величина (десятая часть Белла), используемая во множестве научных дисциплин ( Звук: немного теории (Из теории звука)- десятичный логарифм отношения некоторой величины X к ее эталонному значению Z - называется Беллом, в честь изобретателя телефона А. Белла). Эта величина численно характеризует отношение двух других физических величин. Таким образом децибел является инструментом сравнения. При измерении (оценке) амплитуды, в качестве эталонного значения Z выбирают амплитуду неслышимого сигнала.


В отношении понятия «тон» удобно применять две его производные: понятие «частота тона» - как физическая характеристика раздражителя слуха и понятие «высота тона» - как характеристика ощущения. Иначе говоря, высота тона - это субъективная характеристика ощущения физической частоты тона.


Гармоникой или обертоном называется частотная составляющая, кратная частоте основного тона. Гармоники нумеруются начиная с основного тона, а обертоны – с первой кратной составляющей.


«Стереофония» – донесение до слушателя звучания, несущего информацию об источниках звука, расположенных на плоскости. Слово «стереофония» происходит от греческого «stereos» - « объемный», «пространственный».


Позволим себе здесь это допущение, поскольку в любом случае пределы колебаний амплитуды можно привести к описанным. Например, в случае если колебания напряжения в электрической цепи находятся в пределах от 0 до 5 вольт, то этот диапазон колебаний может быть приведен к нужному нам диапазону от -1 до 1 путем деления каждого измеренного значения амплитуды на 2.5 и вычитания 1.


Существует два общепринятых псевдологарифмических закона, используемых при построении неоднородного квантователя. Их обозначают как A - law и Звук: немного теории (Из теории звука)- law .


Кодирование информации – представление информации в определенной системе кодовых символов и их структур. Шифрование, а также уплотнение (сжатие) информации являются частными случаями кодирования. Кодер (англ. « coder») – это программный или аппаратный блок, предназначенный для кодирования данных. Кодек (от англ. “ codec” – “ CODer / DEcoder”) - программный или аппаратный блок, предназначенный для кодирования и декодирования данных.


В основе механизмов работы таких методов сжатия лежат так называемые «жадные» алгоритмы, основанные на статистическом анализе данных (наиболее известные алгоритмы: Huffman, PPM). Большинство этих алгоритмов создано еще 30-40 лет назад, сегодня они лишь модифицируются и оптимизируются.


Битрейт – количество данных в единицу времени звучания. Например, битрейт для формата [ИКМ / 44.1 КГц / 16 бит / стерео] составляет 44100 * 16 * 2 = ~1411 Кбит/с.


Постоянный адрес статьи: Звук: немного теории. Из теории звука

Разделы сайта

Форум электронной музыки

Наши музыкальные друзья