Cuantización (procesamiento de señal)

Ir a: navegación, búsqueda de
La forma más sencilla de cuantificar una señal es elegir el valor de amplitud digital más cercano a la amplitud analógica original. El error de cuantificación que resulta de este esquema simple cuantificación es una función determinística de la señal de entrada.

Cuantización, en matemáticas y procesamiento de señal digital, es el proceso de asignación de un amplio conjunto de valores de entrada a un (contable) más pequeño conjunto – tales como redondeo valores de alguna unidad de precisión. Un dispositivo o función algorítmica que realiza la cuantización es llamado un cuantificador. El error de redondeo introducido por cuantización se denomina error de cuantización.

En conversión de analógico a digital, se llama la diferencia entre el real valor analógico y digital quantized error de cuantización o distorsión de cuantificación. Este error es debido a redondeo o truncamiento. La señal de error a veces es modelada como una señal aleatoria adicional llamada ruido de cuantización debido su estocástico comportamiento. Cuantización participa en cierto grado en casi todo el procesamiento de señal digital, como el proceso de representar una señal en forma digital normalmente implica el redondeo. Cuantización forma también la base esencialmente todos tipo de compresión algoritmos.

Contenido

  • 1 Las propiedades básicas y tipos de cuantización
  • 2 Cuantización escalar
  • 3 Ejemplo de redondeo
  • 4 Canalización vertical medio y medio pisadas uniformes quantizers
  • 5 Distorsión granular y distorsión de sobrecarga
  • 6 El modelo de ruido aditivo para el error de cuantización
  • 7 Modelos de error de cuantización
  • 8 Modelo de ruido de cuantización
  • 9 Diseño de tarifa – distorsión cuantificador
  • 10 Descuidar la restricción de la entropía: cuantización Lloyd – Max
  • 11 Cuantización uniforme y la aproximación de 6 dB/bit
  • 12 Otros campos
  • 13 Véase también
  • 14 Notas
  • 15 Referencias
  • 16 Enlaces externos

Las propiedades básicas y tipos de cuantización

2-bits de resolución con cuatro niveles de cuantización comparado con el analógico. [1]
con ocho niveles de resolución 3 bits.

Cuantización es una asignación de muchos-a-pocos, es un inherentemente no-lineal y el proceso irreversible (es decir, porque el mismo valor de salida es compartido por varios valores de entrada, es imposible en general para recuperar el valor exacto de entrada cuando se administra solamente el valor de salida).

El conjunto de valores posibles de entrada puede ser infinitamente grande y puede ser continuo y por lo tanto incontables (por ejemplo, el conjunto de todos números realeso todos los números reales dentro de algunas gama limitada). El conjunto de valores posibles de salida puede ser finito o contable infinito. Los conjuntos de entrada y salidos en cuantización pueden definirse de una manera bastante general. Por ejemplo, Vector quantization es la aplicación de cuantización para entrada de datos multidimensional (vector-valorado).[2]

Existen dos clases sustancialmente diferentes de las aplicaciones donde se utiliza la cuantización:

  • El primer tipo, que puede ser llamado simplemente redondeo Cuantización, es la empleada para que muchas aplicaciones, para permitir el uso de una simple representación aproximada para una cantidad que se va a ser medido y utilizados en otros cálculos. Esta categoría incluye las aproximaciones redondeo simples usadas en aritmética diaria. Esta categoría también incluye conversión de analógico a digital de una señal para un sistema de procesamiento de señal digital (por ejemplo, usando una tarjeta de sonido de un ordenador personal para captar una señal de audio) y los cálculos realizaron dentro de los procesos de filtrado digitales más. Aquí el objetivo es principalmente para conservar tanta fidelidad de señal posible mientras eliminando precisión innecesario y mantener el rango dinámico de la señal dentro de límites prácticos (para evitar la señal recorte o desbordamiento aritmético). En tales aplicaciones, pérdida substancial de la fidelidad de la señal a menudo es inaceptable, y el diseño a menudo se centra en gestionar el error de aproximación para garantizar que se introduce distorsión muy poco.
  • El segundo tipo, que puede llamarse tarifa – distorsión optimizado Cuantización, se encuentra en codificación de fuente algoritmos de compresión de datos "con pérdida", donde el propósito es gestionar distorsión dentro de los límites de la velocidad de bits apoyada por un medio de almacenamiento o canal de comunicación. En esta segunda opción, la cantidad de distorsión introducida puede gestionarse cuidadosamente por técnicas sofisticadas y presentando una significativa cantidad de distorsión puede ser inevitable. Un cuantificador diseñado para este propósito puede ser bastante diferente y más elaborada en el diseño de una operación de redondeo ordinaria. Es en este ámbito tan importante teoría de tarifa – distorsión el análisis es probable ser aplicado. Sin embargo, los mismos conceptos se aplican realmente en ambos casos de uso.

El análisis de cuantización implica estudiar la cantidad de datos (normalmente medidos en dígitos o bits o bit tasa) que se utiliza para representar la salida del cuantificador y estudiar la pérdida de precisión que se introduce por el proceso de cuantización (que se conoce como el distorsión). El general campo de estudio de este tipo de tasa y distorsión es conocido como teoría de tarifa – distorsión.

Cuantización escalar

El tipo más común de cuantización es conocido como Cuantización escalar. Cuantización escalar, típicamente denotado como y=Q(x), es el proceso mediante una función de cuantización Q() para asignar un valor escalar de entrada (unidimensional) x a un valor de salida escalar y. Cuantización escalar puede ser tan simple e intuitiva como redondeo alta precisión los números al entero más próximo o al múltiplo más cercano de alguna otra unidad de precisión (por ejemplo, redondeando una gran cantidad monetaria a los miles de dólares más cercanos). Cuantización escalar continua valores de datos de entrada que se realizaron por una vía electrónica sensor se denomina conversión de analógico a digital. A menudo también implica la conversión de analógico a digital muestreo la señal periódicamente en el tiempo (por ejemplo, en 44.1 kHz para CD-las señales de audio de calidad).

Ejemplo de redondeo

Por ejemplo, redondeo un número real x al valor entero más cercano formas un tipo básico de cuantificador – un uniforme uno. Un típico (banda de rodadura media) cuantificador uniforme con una cuantificación tamaño de paso igual a algún valor \Delta puede ser expresado como

Q(x) = \sgn(x) \cdot \Delta \cdot  \left\lfloor \frac{\left| x \right|}{\Delta}+\frac1{2}\right\rfloor,

donde la función \sgn() es el función signo (también conocido como el Signum función). Por simple redondeo al entero más cercano, el tamaño de paso \Delta es igual a 1. Con \Delta = 1 o con \Delta igual a cualquier otro valor entero, este cuantificador tiene valor real entradas y salidas de valores enteros, aunque esta propiedad no es una necesidad – un cuantificador tenga también un entero dominio de entrada y también pueden haber no enteros salida de valores. La característica esencial de un cuantificador es que tiene un sistema contable de los valores de salida posible que tiene menos miembros que el conjunto de posibles valores de entrada. Los miembros del conjunto de los valores de salida pueden tener valores enteros, racionales, o real (o incluso otros posibles valores así como, en general – como los valores del vector o números complejos).

Cuando el tamaño de paso de cuantización es pequeño (en relación con la variación de la señal de medición), es relativamente sencillo Mostrar[3][4][5][6][7][8] que el error al cuadrado es decir producido por tal una operación de redondeo será aproximadamente \Delta^2/ 12. Error cuadrado medio también se llama la cuantización potencia de ruido. Agregando un poco a las mitades del cuantificador el valor de Δ, que reduce la potencia de ruido por el factor de ¼.  En términos de decibelios, es el cambio de potencia de ruido\scriptstyle 10\cdot \log_{10}\left(\tfrac{1}{4}\right)\ =\ -6\ \mathrm{dB}.

Porque el conjunto de valores posibles de un cuantificador es contable, cualquier cuantificador se puede descomponer en dos etapas distintas, que pueden ser referidas como el clasificación etapa (o Cuantización hacia adelante etapa) y la reconstrucción etapa (o quantization inverso etapa), donde la fase de clasificación asigna el valor de entrada a un entero Índice de cuantización k y la etapa de reconstrucción asigna el índice k para el valor de reconstrucción y_k es la aproximación de salida del valor de entrada. Para el cuantificador uniforme de ejemplo descrito anteriormente, la etapa de cuantificación directa puede ser expresada como

k = \sgn(x) \cdot \left\lfloor \frac{\left| x \right|}{\Delta}+\frac1{2}\right\rfloor,

y la etapa de reconstrucción para la cuantificación de este ejemplo es simplemente y_k = k \cdot \Delta.

Esta descomposición es útil para el diseño y análisis del comportamiento de cuantización, e ilustra cómo pueden ser comunicados los datos cuantificados por un canal de comunicación – un codificador fuente puede realizar la etapa de cuantificación directa y enviar la información de índice a través de un canal de comunicación (posiblemente aplicar codificación de la entropía técnicas a los índices de cuantización) y un decodificador puede realizar la etapa de reconstrucción para producir la aproximación de la salida de los datos de entrada originales. En diseños más elaborados de cuantización, ambas etapas la cuantificación directa e inversa pueden ser substancialmente más complejas. En general, la etapa de cuantificación directa puede utilizar cualquier función que asigna los datos de entrada al espacio entero de los datos de índice de cuantización, y la etapa del quantization inverso puede expresiones (o literalmente) una operación de búsqueda de mesa para asignar cada índice de cuantización a un valor de reconstrucción correspondiente. Esta descomposición de dos etapas se aplica igualmente bien a Vector así como quantizers escalares.

Canalización vertical medio y medio pisadas uniformes quantizers

Más uniformes quantizers para entrada de datos firmado pueden clasificarse como de uno de dos tipos: Mid-Riser y banda de rodadura media. La terminología se basa en lo que sucede en la región alrededor del valor 0 y utiliza la analogía de la visualización de la función de entrada y salida del cuantificador como un escalera. Pisada mediados quantizers tienen un nivel de reconstrucción de valor cero (correspondiente a un banda de rodadura de una escalera), mientras que medio verticales quantizers tienen un umbral de clasificación valor cero (correspondiente a un canalización vertical de una escalera).[9]

Las fórmulas de cuantización uniforme pisada medio están indicadas.

La fórmula de entrada y salida para un cuantificador uniforme vertical media viene dada por:

Q(x) = \Delta\cdot\left(\left\lfloor \frac{x}{\Delta}\right\rfloor + \frac1{2}\right),

donde la regla de clasificación está dada por

k = \left\lfloor \frac{x}{\Delta} \right\rfloor

y la regla de reconstrucción es

y_k = \Delta\cdot\left(k+\tfrac1{2}\right).

Tenga en cuenta que medio verticales uniformes quantizers no tienen un valor de salida cero – su magnitud mínima salida es la mitad del tamaño de paso. Cuando los datos de entrada pueden ser modelados como una variable aleatoria con un función de densidad de probabilidad (pdf) que es suave y simétrica alrededor de cero, canalización vertical media quantizers también siempre producen una salida entropía de al menos 1 bits por muestra.

En contraste, pisadas mediados quantizers tienen un nivel de salida de cero y pueden alcanzar tasas de bits arbitrariamente por muestra para entrada distribuciones simétricas y forma cónica apagado en magnitudes superiores. Para algunas aplicaciones, puede ser una necesidad tener una representación de señal de salida de cero o apoyando la entropía salida baja. En tales casos, usando un cuantificador uniforme mediados pisada puede ser apropiado durante el uso de un mid-riser uno no sería.

En general, un cuantificador media ascendente o pisada medio no puede ser en realidad un uniforme cuantificador – es decir, el tamaño de los intervalos del cuantificador clasificación puede no ser el mismo, o el espaciado entre los valores de su posible salida puede no ser el mismo. La característica distintiva de un cuantificador medio vertical es que tiene un valor de umbral de clasificación que es exactamente cero, y la característica distintiva de un cuantificador de mediados de la pisada es tiene un valor de reconstrucción que es exactamente cero.[9]

Es otro nombre para un cuantificador de mediados de la pisada cuantificador de zonas muertas, y la región de clasificación alrededor del cero valor de salida de tal un cuantificador es referida como el zona muerta. La zona muerta a veces puede servir el mismo propósito como un puerta de ruido o silenciador función.

Distorsión granular y distorsión de sobrecarga

El diseño de un cuantificador implica a menudo apoyando sólo una gama limitada de los valores de salida posible y la realización de recorte para limitar la salida a esta gama cuando la entrada supera el rango soportado. El error introducido por este recorte se denomina sobrecarga distorsión. Dentro de los límites extremos de la gama soportado, la cantidad de espacio entre los valores de salida seleccionable de un cuantificador se conoce como su granularidad, y el error introducido por este espacio se conoce como granular distorsión. Es común para el diseño de un cuantificador que implican determinar el equilibrio adecuado entre la distorsión granular y distorsión de la sobrecarga. Para un número determinado de apoyo de los valores de salida posible, reducir la distorsión granular promedio puede implicar incrementar la sobrecarga media distorsión y viceversa. Una técnica para controlar la amplitud de la señal (o, equivalente, el tamaño de paso de cuantización \Delta) lograr el equilibrio adecuado es el uso de control automático de ganancia (AGC). Sin embargo, en algunos diseños de cuantificador, los conceptos de error granular y error de sobrecarga no se apliquen (por ejemplo, para un cuantificador con una gama limitada de datos de entrada o con un conjunto infinito contable de los valores de salida seleccionable).

El modelo de ruido aditivo para el error de cuantización

Una suposición común para el análisis de error de cuantización es que afecta a un sistema de procesamiento de la señal de una manera similar a la de aditivo ruido blanco – tener correlación insignificante con la señal y una aproximadamente plana densidad espectral de potencia.[4][8][10][11] El modelo de ruido aditivo se utiliza comúnmente para el análisis de los efectos de errores de cuantificación en sistemas de filtración digitales, y puede ser muy útil en ese análisis. Se ha demostrado para ser un modelo válido en casos de cuantización de alta resolución (pequeño \Delta en relación a la intensidad de la señal) con funciones de densidad de probabilidad liso.[4][12] Sin embargo, ruido aditivo comportamiento no siempre es una suposición válida, y debe tenerse cuidado para evitar asumir que este modelo se aplica siempre. En la actualidad, el error del quantization (para quantizers definido según lo descrito aquí) determinista está relacionado con la señal en lugar de ser independiente de ella.[8]Por lo tanto, señales periódicas pueden crear ruido de cuantización periódica. Y en algunos casos puede incluso causar ciclos límite que aparecen en los sistemas de procesamiento de señal digital.[11]

Una forma de asegurar la independencia efectiva del error de cuantización de la señal de la fuente es realizar interpolado Cuantización (a veces con forma de ruido), que consiste en agregar al azar (o pseudo-random) ruido a la señal antes de cuantización.[8][11] Esto puede ser beneficioso para propósitos tales como mejora de la calidad subjetiva de los resultados, sin embargo puede aumentar la cantidad total de error introducido por el proceso de cuantización.

Modelos de error de cuantización

En el caso típico, la señal original es mucho mayor que uno bit menos significativo (LSB). Cuando éste es el caso, el error de cuantización no se correlaciona significativamente con la señal y tiene una aproximadamente distribución uniforme. En el caso de redondeo, el error de cuantización tiene una media de cero y el RMS valor es la desviación estándar de esta distribución, dada por \scriptstyle {\frac{1}{\sqrt{12}}}\mathrm{LSB}\ \approx\ 0.289\,\mathrm{LSB}. En el caso de truncamiento del error tiene una media de cero de \scriptstyle {\frac{1}{2}}\mathrm{LSB} y el valor RMS es \scriptstyle {\frac{1}{\sqrt{3}}}\mathrm{LSB}. En cualquier caso, la desviación estándar, como porcentaje de la gama de señal completa, cambia por un factor de 2 para cada cambio de 1-bit en el número de bits de cuantificación. Por lo tanto el cociente signal-to-cuantificación-noise energía potencial cambia por 4, o\scriptstyle 10\cdot \log_{10}(4)\ =\ 6.02 decibelios por poco.

Las amplitudes inferiores el error de cuantificación se convierte en dependiente de la señal de entrada, lo que resulta en distorsión. Esta distorsión se crea después el filtro anti-aliasing, y si estas distorsiones están por encima de 1/2 la frecuencia de muestreo alias apoyará en la banda de interés. Con el fin de independizar el error de cuantización de la señal de entrada, ruido con una amplitud de 2 bits menos significativos se añade a la señal. Esto reduce ligeramente la señal / ruido, pero idealmente, elimina totalmente la distorsión. Es conocido como "dither".

Modelo de ruido de cuantización

Ruido de cuantización para un 2-pedacito ADC operando al infinito frecuencia de muestreo. La diferencia entre las señales azules y rojas en el gráfico superior es el error de cuantificación, que es "agregado" a la señal cuantificada y es la fuente de ruido.
Comparación de cuantificar una sinusoide a 64 (6 pedacitos) y 256 niveles (8 bits). El ruido aditivo creado por 6 bits cuantización es mayor que el ruido creado por cuantificación de 8 bits 12 dB. Cuando la distribución espectral es plana, como en este ejemplo, la diferencia de 12 dB se manifiesta como una diferencia apreciable en los pisos de ruido.

Ruido de cuantización es un modelo del error de cuantización introducida por Cuantización En conversión de analógico a digital (ADC) en sistemas de telecomunicación y procesamiento de señales. Es un error de redondeo entre la tensión de entrada analógica de la ADC y el valor de salida digitalizado. El ruido es no lineal y dependiente de la señal. Se puede modelar en varias formas diferentes.

En un convertidor de analógico a digital ideal, donde el error de cuantificación se distribuye uniformemente entre −1/2 LSB y + 1/2 LSB y la señal tiene una distribución uniforme cubren todos los niveles de cuantificación, la Relación señal a ruido cuantización (SQNR) puede calcularse a partir

\mathrm{SQNR} = 20 \log_{10}(2^Q) \approx 6.02 \cdot Q\ \mathrm{dB} \,\!

Donde Q es el número de bits de cuantificación.

Las señales de prueba más común que cumplen con esto son amplitud completa ondas del triángulo y ondas de diente de Sierra.

Por ejemplo, un 16-bit ADC tiene una relación señal / ruído máxima 6.02 × 16 = 96,3 dB.

Cuando la señal de entrada es una amplitud completa onda de seno la distribución de la señal ya no es uniforme, y la ecuación correspondiente está en su lugar

 \mathrm{SQNR} \approx  1.761 + 6.02 \cdot Q \ \mathrm{dB} \,\!

Aquí está otra vez el ruido de cuantización asume para ser distribuida uniformemente. Cuando la señal de entrada tiene una gran amplitud y un espectro de frecuencias amplia este es el caso.[13] En este caso un 16-bit ADC tiene una relación señal / ruído máxima 98,09 dB. La diferencia en el signal-to-noise 1.761 sólo ocurre debido a la señal es una onda sinusoidal a escala real en lugar de un triángulo/diente de sierra.

Potencia de ruido de cuantización se puede derivar de

\mathrm{N} = \frac {(\delta \mathrm{v})^2} { 12 } \mathrm{W} \,\!

donde \delta \mathrm{v} es el voltaje del nivel.

(Valores típicos de la vida real son peores que este mínimo teórico, debido a la adición de "dither" para reducir los efectos desagradables de cuantización y a las imperfecciones de la circuitería de ADC. Por otro lado, a menudo usan especificaciones -Ponderado medidas para ocultar los efectos inaudibles de forma de ruidolo que mejora la medición.)

Para señales complejas en alta resolución ADC es un modelo exacto. Baja resolución ADC, señales de bajo nivel en alta resolución ADC y simples formas de onda que del ruido de cuantización no está distribuido uniformemente, haciendo este modelo inexacta.[14] En estos casos la distribución del ruido de cuantización es afectada fuertemente por la amplitud exacta de la señal.

Los cálculos anteriores, sin embargo, suponer un canal de entrada completamente lleno. Si esto no es el caso - si la señal de entrada es pequeña - la distorsión de cuantificación relativa puede ser muy grande. Para eludir esta cuestión, analógica compresores y expansores puede ser utilizado, pero estos introducen grandes cantidades de distorsión, especialmente si el compresor no coincide con el expansor. La aplicación de estos compresores y expansores es también conocido como companding.

Diseño de tarifa – distorsión cuantificador

Un cuantificador escalar, que realiza una operación de cuantización, normalmente se puede descomponer en dos etapas:

  • Clasificación: Un proceso que clasifica la gama de la señal de entrada en M No se superponen intervalos \{I_k\}_{k=1}^{M}, definiendo M-1 límite (decisión) valores  \{b_k\}_{k=1}^{M-1} , tal que  I_k = [b_{k-1}~,~b_k) para k = 1,2,\ldots,M, con los límites extremos definidos por  b_0 = -\infty y  b_M = \infty. Todas las entradas x que caen en un rango determinado intervalo I_k se asocian con el mismo índice de cuantización k.
  • Reconstrucción: Cada intervalo  I_k está representado por un valor de reconstrucción  y_k que implementa la asignación  x \in I_k \Rightarrow y = y_k .

Estas dos etapas abarcan la operación matemática de y = Q(x).

Codificación de la entropía técnicas pueden ser aplicadas para comunicar a los índices de cuantización de un codificador fuente que realiza la fase de clasificación a un decodificador que realiza la etapa de reconstrucción. Una manera de hacer esto es asociar cada índice de cuantización k con una operación binaria c_k. Una consideración importante es el número de bits usados para cada operación, denotada aquí por \mathrm{length}(c_k).

Como resultado, el diseño de un M-nivel de cuantificador y un conjunto asociado de codewords para comunicar sus valores de índice requiere encontrar los valores de  \{b_k\}_{k=1}^{M-1} , \{c_k\}_{k=1}^{M} y  \{y_k\}_{k=1}^{M} que satisfacer óptimamente un conjunto seleccionado de restricciones de diseño tales como la tasa de bits R y distorsión D.

Suponiendo que una fuente de información S produce variables aleatorias X con un asociado función de densidad de probabilidad f(x), la probabilidad p_k que la variable aleatoria cae dentro de un intervalo de cuantización particular I_k está dada por

 p_k = P[x \in I_k] = \int_{b_{k-1}}^{b_k} f(x)dx .

La tasa de bits resultante R, en unidades de bits promedio por valor quantized, para este cuantificador puede obtenerse de la siguiente manera:

 R = \sum_{k=1}^{M} p_k \cdot \mathrm{length}(c_{k}) = \sum_{k=1}^{M} \mathrm{length}(c_k) \int_{b_{k-1}}^{b_k} f(x)dx .

Si se asume que la distorsión se mide por error al cuadrado es decir, la distorsión D, viene dada por:

 D = E[(x-Q(x))^2] = \int_{-\infty}^{\infty} (x-Q(x))^2f(x)dx = \sum_{k=1}^{M} \int_{b_{k-1}}^{b_k} (x-y_k)^2 f(x)dx .

Tenga en cuenta que también pueden considerarse otras medidas de distorsión, aunque medio cuadrado error es popular.

Una observación clave es que la tasa de R depende de los límites de decisión \{b_k\}_{k=1}^{M-1} y la longitud de la contraseña \{\mathrm{length}(c_k)\}_{k=1}^{M}, mientras que la distorsión D depende de los límites de decisión \{b_k\}_{k=1}^{M-1} y los niveles de reconstrucción \{y_k\}_{k=1}^{M}.

Después de definir estas métricas de dos desempeño para el cuantificador, una formulación de tarifa – distorsión típica para un problema de diseño cuantificador puede expresarse en una de dos maneras:

  1. Dada una restricción máxima distorsión D \le D_\max, reducir la tasa de bits R
  2. Dada una restricción de tasa de bits máxima R \le R_\max, minimizar la distorsión D

A menudo la solución a estos problemas puede ser equivalente (o aproximadamente) expresada y resuelto mediante la conversión de la formulación del problema sin restricciones \min\left\{ D + \lambda \cdot R \right\} donde el Multiplicadores de Lagrange \lambda es una constante no negativo que establece el equilibrio adecuado entre la tasa y distorsión. Para resolver el problema sin restricciones es equivalente a encontrar un punto en el casco convexo de la familia de soluciones a un equivalente había restringida formulación del problema. Sin embargo, encontrar una solución – especialmente un forma cerrada solución – a cualquiera de estas formulaciones tres problema puede ser difícil. Soluciones que no requieren técnicas de optimización iterativa multidimensional se han publicado sólo tres funciones de distribución de probabilidad: el uniforme,[15] exponencial,[16] y Laplaciano[16] distribuciones. Métodos iterativos optimización pueden utilizarse para encontrar soluciones en otros casos.[8][17][18]

Tenga en cuenta que los valores de reconstrucción \{y_k\}_{k=1}^{M} afectan sólo la distorsión – no afectan la tasa de bits – y que cada individuo y_k hace una contribución independiente  d_k a la distorsión total como se muestra abajo:

 D = \sum_{k=1}^{M} d_k

donde

 d_k = \int_{b_{k-1}}^{b_k} (x-y_k)^2 f(x)dx

Esta observación puede ser utilizada para facilitar el análisis – dado el conjunto de \{b_k\}_{k=1}^{M-1} valores, el valor de cada y_k por separado se puede optimizar para minimizar su contribución a la distorsión D.

Para el criterio de distorsión cuadrado medio del error, puede ser fácilmente demostrado que el conjunto óptimo de reconstrucción valores \{y^*_k\}_{k=1}^{M} está dada por el valor de reconstrucción y_k dentro de cada intervalo I_k para el valor esperado condicional (también conocido como el centroide) en el intervalo, como determinado por:

y^*_k = \frac1{p_k} \int_{b_{k-1}}^{b_k} x f(x)dx.

El uso de técnicas de codificación de la entropía suficientemente bien diseñado puede resultar en el uso de una tasa de bits que se encuentra cerca de la información veraz de los índices de contenido \{k\}_{k=1}^{M}, tal que efectivamente

 \mathrm{length}(c_k) \approx -\log_2\left(p_k\right)

y por lo tanto

 R = \sum_{k=1}^{M} -p_k \cdot \log_2\left(p_k\right) .

El uso de esta aproximación puede permitir que el problema de diseño codificación entropía separar el diseño del cuantificador de sí mismo. Entropía moderna técnicas de codificación como codificación aritmética puede alcanzar velocidades de bits que están muy cerca de la verdadera entropía de una fuente, dado un conjunto de probabilidades conocidas (o adaptativa estimados) \{p_k\}_{k=1}^{M}.

En algunos diseños, en lugar de optimización para un determinado número de regiones de clasificación M, el problema de diseño de cuantificador puede incluir la optimización del valor de M tan bien. Para algunos modelos probabilísticos fuente, puede ser el mejor rendimiento alcanzado cuando M tiende a infinito.

Descuidar la restricción de la entropía: cuantización Lloyd – Max

En la formulación anterior, si el bitrate restricción se descuida estableciendo \lambda igual a 0, o equivalente si se asume que un código de longitud fija (FLC) se utilizará para representar los datos cuantificados en vez de un Código de longitud variable (o algún otro codificación de la entropía tecnología tales como codificación aritmética es mejor que un FLC en el sentido de ritmo – distorsión), el problema de optimización reduce a la minimización de la distorsión D sola.

Los índices producción por un M-nivel cuantificador puede ser codificado utilizando un código de longitud fija  R = \lceil \log_2 M \rceil bits/símbolo. Por ejemplo cuando M=256 niveles, tasa de bits del FLC R es 8 bits/símbolo. Por esta razón, tal un cuantificador a veces ha sido llamado un cuantificador de 8 bits. Sin embargo, usando un FLC elimina la mejora de la compresión que puede ser obtenida por el uso de la codificación de la entropía mejor.

Suponiendo un FLC con M los niveles, el problema de minimización de tarifa – distorsión pueden reducirse a la minimización de la distorsión sola. El problema reducido puede ser indicado de la siguiente manera: dada una fuente X con PDF f(x) y la restricción de que el cuantificador debe utilizar solamente M regiones de clasificación, encontrar los límites de decisión \{b_k\}_{k=1}^{M-1} y los niveles de reconstrucción \{y_k\}_{k=1}^M para minimizar la distorsión resultante

 D=E[(x-Q(x))^2] = \int_{-\infty}^{\infty} (x-Q(x))^2f(x)dx = \sum_{k=1}^{M} \int_{b_{k-1}}^{b_k} (x-y_k)^2 f(x)dx =\sum_{k=1}^{M} d_k .

Encontrar una solución óptima a los resultados anteriores del problema en un cuantificador a veces llamado una solución MMSQE (error de cuantización cuadrada media mínima), y el resultante pdf optimizado (no uniforme) cuantificador se conoce como un Lloyd – Max cuantificador, el nombre de dos personas que desarrollaron independientemente métodos iterativos[8][19][20] para resolver los dos conjuntos de ecuaciones simultáneas resultantes  {\partial D / \partial b_k} = 0 y {\partial D/ \partial y_k} = 0 , de la siguiente manera:

 {\partial D \over\partial b_k} = 0 \Rightarrow b_k = {y_k + y_{k+1} \over 2} ,

que cada umbral sitúa en el punto medio entre cada par de valores de reconstrucción, y

 {\partial D \over\partial y_k} = 0 \Rightarrow y_k = { \int_{b_{k-1}}^{b_k} x f(x) dx \over \int_{b_{k-1}}^{b_k} f(x)dx } = \frac1{p_k} \int_{b_{k-1}}^{b_k} x f(x) dx

que coloca a cada valor de reconstrucción en el centroide (valor esperado condicional) de su intervalo de clasificación asociada.

Método de Lloyd algoritmo, descrito originalmente en 1957, se puede generalizar en forma del straighforward de aplicación para Vector datos. Esta generalización resulta en la Linde – Buzo – gris (LBG) o k-means métodos de optimización del clasificador. Por otra parte, la técnica se puede generalizar más de una manera sencilla para incluir una restricción de entropía para datos vectoriales.[21]

Cuantización uniforme y la aproximación de 6 dB/bit

El cuantificador Lloyd – Max es en realidad un cuantificador uniforme cuando la entrada PDF se distribuye uniformemente en el rango de [y_1-\Delta/2,~y_M+\Delta/2). Sin embargo, por una fuente que no tiene una distribución uniforme, el cuantificador distorsión mínima no puede ser un cuantificador uniforme.

El análisis de un cuantificador uniforme aplicada a una fuente uniformemente distribuida pueden resumirse en lo siguiente:

Una fuente simétrica X puede modelarse con  f(x)= \frac1{2X_{max}}, para x \in [-X_{max} , X_{max}] y 0 en otro lugar. El tamaño de paso \Delta = \frac {2X_{max}} {M} y el señal / ruido de cuantización (SQNR) es el cuantificador

{\rm SQNR}= 10\log_{10}{\frac {\sigma_x^2}{\sigma_q^2}} = 10\log_{10}{\frac {(M\Delta)^2/12}{\Delta^2/12}}= 10\log_{10}M^2= 20\log_{10}M.

Para usar un código de longitud fija N pedacitos, M=2^N, dando por resultado {\rm SQNR}= 20\log_{10}{2^N} = N\cdot(20\log_{10}2) = N\cdot 6.0206\,\rm{dB},

o aproximadamente 6 dB por poco. Por ejemplo, para N= 8 bits M= 256 niveles y SQNR = 8 * 6 = 48 dB; y para N= 16 pedacitos, M= 65536 y SQNR = 16 * 6 = 96 dB. La propiedad de 6 dB mejora en SQNR para cada extra poco utilizado en la cuantización es una figura muy conocida de mérito. Sin embargo, debe utilizarse con cuidado: esta derivación es sólo para un cuantificador uniforme aplicada a una fuente uniforme.

Para otros fuente pdfs y otros diseños de cuantificador, el SQNR puede ser algo diferente de la predicha por 6 dB/bit, dependiendo del tipo de pdf, el tipo de fuente, el tipo de cuantificador y el rango de tasa de bits de operación.

Sin embargo, es común suponer que por muchas fuentes, la pendiente de una función SQNR cuantificador se puede aproximar como 6 dB/bit cuando opera a una velocidad lo suficientemente alta. A velocidades de bits asintóticamente alto, cortando el paso tamaño en media aumenta la tasa de bits por aproximadamente 1 bits por muestra (porque se necesita 1 bit para indicar si el valor está en la mitad izquierda o derecha del intervalo previo de tamaño doble) y reduce el error cuadrado medio por un factor de 4 (es decir, 6 dB) basado en el \Delta^2/12 aproximación.

A velocidades de bits asintóticamente alto, la aproximación de 6 dB/bit es compatible con muchos archivos PDF fuente por riguroso análisis teórico.[4][5][7][8] Por otra parte, la estructura de la óptima cuantificador escalar (en el sentido de ritmo – distorsión) acerca de un cuantificador uniforme bajo estas condiciones.[7][8]

Otros campos

En realidad son quantized muchas cantidades físicas por entidades físicas. Ejemplos de campos donde se aplica esta limitación electrónica (debido a los electrones), óptica (debido a los fotones), Biología (debido a ADN), y química (debido a moléculas). Esto es conocido como el "límite de ruido cuántico" de sistemas en esos campos. Esto es una manifestación diferente de "error del quantization", en el cual los modelos teóricos pueden ser análogos pero físicamente se produce digitalmente. Alrededor de la límite cuántico, desaparece la distinción entre las cantidades analógicas y digitales.[citación necesitada]

Véase también

  • Codificador de beta
  • Resolución de bits
  • Error de discretización
  • Posterización
  • Modulación por impulsos codificados
  • Dilución de regresión -un sesgo en el parámetro estima debidos a errores como cuantización en la variable independiente o explicativa

Notas

  1. ^ Hodgson, Jay (2010). Comprensión Records, p.56. ISBN 978-1-4411-5607-5. Adaptado de Franz, David (2004). Grabación y producción en el estudio casero, p 38-9. Berklee Press.
  2. ^ Allen Gersho y Robert M. Gray, Vector Quantization y compresión de señal, Springer, ISBN 978-0-7923-9181-41991.
  3. ^ William Fleetwood Sheppard, "En el cálculo de los valores más probables de frecuencia constantes de datos dispuestos según divisiones equidistantes de una escala", Actas de la sociedad matemática de LondresVol. 29, pp. 353 – 80, 1898.Doi:10.1112/PLMS/S1-29.1.353
  4. ^ a b c d R. w el. Bennett "Espectros de señales Quantized", Campana sistema Technical JournalVol. 27, pp. 446 – 472, de julio de 1948.
  5. ^ a b B. M. Oliver, J. R. Pierce, y Claude E. Shannon, "La filosofía del PCM", Actas de la iraVol. 36, pp. 1324 – 1331, noviembre de 1948. Doi:10.1109/JRPROC.1948.231941
  6. ^ Seymour Stein y J. Jay Jones, Principios de la comunicación moderna, McGraw-Hill, ISBN 978-0-07-061003-31967 (pág. 196).
  7. ^ a b c Herbert Gish y John N. Pierce, "cuantizar asintóticamente eficiente", IEEE Transactions on teoría de la informaciónIT vol.-14, nº 5, pp. 676 – 683, septiembre de 1968. Doi:10.1109/TIT.1968.1054193
  8. ^ a b c d e f g h Robert M. Gray y David L. Neuhoff, "Quantization", IEEE Transactions on teoría de la informaciónIT vol.-44, Nº 6, pp. 2325 – 2383, octubre de 1998. Doi:10.1109/18.720541
  9. ^ a b Allen Gersho, "Quantization", Revista IEEE Communications Society, págs. 16 – 28, septiembre de 1977. Doi:10.1109/MCOM.1977.1089500
  10. ^ Bernard Widrow, "Un estudio de cuantificación difícil amplitud por medio de la teoría de muestreo de Nyquist", Teoría de circuitos de transporte iraVol. CT-3, págs. 266 – 276, 1956. Doi:10.1109/TCT.1956.1086334
  11. ^ a b c Bernard Widrow, "Análisis estadístico de amplitud quantized muestreados sistemas de datos", AIEE trans. pt. II: IND LIQ.Vol. 79, págs. 555 – 568, enero de 1961.
  12. ^ Daniel Marco y David L. Neuhoff, "La validez del modelo de ruido aditivo para uniformes Quantizers escalares", IEEE Transactions on teoría de la informaciónVol. IT-51, núm. 5, págs. 1739 – 1755, mayo de 2005. Doi:10.1109/TIT.2005.846397
  13. ^ Pohlman, Ken C. (1989). Principios de Audio Digital 2ª edición. SAMS. p. 60.
  14. ^ Okelloto, Tom (2001). El arte del Audio Digital 3ª edición. Focal Press. ISBN0-240-51587-0.
  15. ^ Nariman Farvardin y James W. Modestino, "Quantizer óptimo funcionamiento para una clase de fuentes sin memoria no-Gaussian", IEEE Transactions on teoría de la informaciónVol. IT-30, núm. 3, págs. 485 – 497, mayo de 1982 (sección VI.C y Apéndice B). Doi:10.1109/TIT.1984.1056920
  16. ^ a b Gary J. Sullivan, "Eficiente cuantización escalar de exponencial y Variables aleatorias laplaciano", IEEE Transactions on teoría de la informaciónVol. IT-42, nº 5, págs. 1365 – 1374, septiembre de 1996. Doi:10.1109/18.532878
  17. ^ Toby Berger, "Quantizers óptimo y permutación códigos", IEEE Transactions on teoría de la informaciónVol. IT-18, Nº 6, pp. 759 – 765, noviembre de 1972. Doi:10.1109/TIT.1972.1054906
  18. ^ Toby Berger, "Quantizers mínima de la entropía y permutación códigos", IEEE Transactions on teoría de la informaciónVol. IT-28, Nº 2, pp. 149-157, marzo de 1982. Doi:10.1109/TIT.1982.1056456
  19. ^ Stuart P. Lloyd, "Least Squares Quantization en PCM", IEEE Transactions on teoría de la informaciónVol. IT-28, págs. 129-137, Nº 2, marzo de 1982 Doi:10.1109/TIT.1982.1056489 (documentado en un manuscrito para recabar observaciones en el trabajo Laboratorios Bell con una fecha de registro del Departamento de 31 julio de 1957 y también presentada en la reunión de 1957 de la Instituto de estadística matemáticaAunque no formalmente publicados hasta 1982).
  20. ^ Joel máximo, "cuantificar para distorsión mínima", Transacciones de ira en la teoría de la informaciónVol. IT-6, pp. 7 – 12 de marzo de 1960. Doi:10.1109/TIT.1960.1057548
  21. ^ Philip A. Chou, Tom Lookabaugh, y Robert M. Gray, "Con restricciones de entropía Vector Quantization", IEEE Transactions on Acoustics, discurso y procesamiento de señalesVol. ASSP-37, no. 1, enero de 1989. Doi:10.1109/29.17498

Referencias

  • Sayood, Khalid (2005), Introducción a la compresión de datos, tercera ediciónMorgan Kaufmann, ISBN978-0-12-620862-7
  • Jayant, Nikil S.; Noll, Peter (1984), La codificación digital de formas de onda: principios y aplicaciones de voz y VideoPrentice-Hall, ISBN978-0-13-211913-9
  • Gregg, David W. (1977), Comunicación Digital y analógicaJohn Wiley, ISBN978-0-471-32661-8
  • Stein, Seymour; Jones, J. Jay (1967), Principios de la comunicación moderna, McGraw-Hill, ISBN978-0-07-061003-3

Enlaces externos

  • Ruido de cuantización en Computación Digital, procesamiento de señales y ControlBernard Widrow y István Kollár, 2007.
  • La relación de rango dinámico para tamaño de palabra de datos en el procesamiento de Audio Digital
  • Redondear la varianza Error — derivación de potencia de ruido de q²/12 por error de redondeo
  • Evaluación dinámica de convertidores D/a de alta velocidad, alta resolución Esboza medidas HD, IMD y NPR, incluye también una derivación del ruido de cuantización
  • Señal a ruido de cuantización en quantized sinusoidal

Otras Páginas

Obtenido de"https://en.copro.org/w/index.php?title=Quantization _ (signal_processing) & oldid = 607396892"