Filtro recursivo de mínimos cuadrados, Motivación, Discusión, Algoritmo recursivo, Resumen algoritmo RLS, Lattice mínimos cuadrados recursivos filtro, Filtran normalizados celosía mínimos cuadrados recursivos

El recursivo de mínimos cuadrados filtro adaptativo es un algoritmo que encuentra recursivamente los coeficientes del filtro que minimicen un lineal de mínimos cuadrados de la función de coste ponderada en relación con las señales de entrada. Esto está en contraste con otros algoritmos como los Media de mínimos cuadrados que tienen como objetivo reducir el error medio cuadrado. En la derivación de la SPI, las señales de entrada se consideran determinista, mientras que para el LMS y algoritmo similar que se consideran estocástico. En comparación con la mayoría de sus competidores, el RLS exhibe convergencia muy rápida. Sin embargo, este beneficio se consigue a costa de alta complejidad computacional,

Motivación

En general, el SPI se puede utilizar para resolver cualquier problema que puede ser resuelto por los filtros adaptativos. Por ejemplo, supongamos que una señal d se transmite a través de un, canal con ruido con eco que hace que sea recibido como

que representa el ruido aditivo. Haremos lo posible para recuperar la señal deseada mediante el uso de un grifo con filtro FIR:

donde está el vector que contiene las muestras más recientes de. Nuestro objetivo es estimar los parámetros del filtro, y en cada momento n se refiere a los nuevos mínimos cuadrados estimación. A medida que evoluciona el tiempo, nos gustaría evitar completamente rehacer los mínimos cuadrados algoritmo para encontrar la nueva estimación para, en función de.

La ventaja del algoritmo RLS es que no hay necesidad de invertir matrices, con el consiguiente ahorro de potencia computacional. Otra ventaja es que proporciona la intuición detrás de tales resultados como el filtro de Kalman.

Discusión

La idea detrás de los filtros de RLS es minimizar una función de coste por selección apropiada de los coeficientes del filtro, la actualización del filtro como llegan datos nuevos. La señal de error y la señal deseada se definen en el diagrama de retroalimentación negativa a continuación:

El error depende implícitamente en los coeficientes de filtro a través de la estimación:

Por consiguiente, la función de error de mínimos cuadrados-la función de coste ponderada deseamos minimizar-que es una función de e es dependiente también de los coeficientes del filtro:

La función de costo se minimiza mediante la adopción de las derivadas parciales para todas las entradas del vector de coeficientes y el establecimiento de los resultados a cero

A continuación, vuelva a colocar a la definición de la señal de error

Reorganización de los rendimientos de la ecuación

Esta forma puede ser expresado en términos de matrices

donde es la matriz de correlación de la muestra ponderada, y es el equivalente para el cálculo de la correlación cruzada entre y. Basado en esta expresión nos encontramos con los coeficientes que minimizan la función de coste como

Este es el principal resultado de la discusión.

Elección

Cuanto más pequeño es, la contribución más pequeña de las muestras anteriores. Esto hace que el filtro sea más sensible a las muestras recientes, lo que significa más fluctuaciones en el filtro de coeficientes. El caso se refiere como la ventana creciente algoritmo RLS.

Algoritmo recursivo

La discusión resultó en una única ecuación para determinar un vector de coeficientes que minimiza la función de coste. En esta sección queremos derivar una solución recursiva de la forma

que es un factor de corrección a tiempo. Empezamos la derivación del algoritmo recursivo mediante la expresión de la correlación cruzada en términos de

donde es el vector de datos dimensional

Del mismo modo que expresamos en términos de por

Con el fin de generar el vector de coeficientes que estamos interesados en la inversa de la matriz de autocorrelación determinista. Para esta tarea, la matriz identidad Woodbury viene muy bien. Con

La matriz de identidad sigue Woodbury

Para entrar en línea con los estudios clásicos, se define

donde el vector es ganancia

Antes de continuar, es necesario poner en otra forma

Restando el segundo término en los rendimientos del lado izquierdo

Con la definición recursiva de la forma deseada sigue

Ahora estamos listos para completar la recursividad. Como se discutió

El segundo paso de la definición recursiva de. A continuación incorporamos la definición recursiva de junto con la forma alternativa de conseguir y

Con llegamos a la ecuación de actualización

¿dónde está el error a priori. Compare esto con el error a posteriori, el error calculado después del filtro se actualiza:

Eso quiere decir que encontramos el factor de corrección

Este resultado intuitivamente satisfactorio indica que el factor de corrección es directamente proporcional tanto el error y el vector de ganancia, que controla cuánto se desea la sensibilidad, a través del factor de ponderación,.

Resumen algoritmo RLS

El algoritmo RLS para una orden del filtro SPI p-ésima se puede resumir como

Tenga en cuenta que la recursividad para sigue una ecuación algebraica de Riccati y por lo tanto va en paralelo con el filtro de Kalman.

Lattice mínimos cuadrados recursivos filtro

Los cuadrados recursivos menos Lattice filtro adaptativo se relaciona con el SPI estándar excepto que requiere un menor número de operaciones aritméticas. Ofrece ventajas adicionales sobre los algoritmos LMS convencionales, tales como mayor velocidad de convergencia, la estructura modular y la insensibilidad a las variaciones de valor propio, repartidas de la matriz de correlación de entrada. El algoritmo LRLS descrito se basa en un errores a posteriori e incluye la forma normalizada. La derivación es similar al algoritmo RLS estándar y se basa en la definición de. En el caso de predicción hacia delante, que tenemos con la señal de entrada como la mayoría hasta la fecha de la muestra. El caso es predicción hacia atrás, donde i es el índice de la muestra en el pasado queremos predecir, y la señal de entrada es la muestra más reciente.

Resumen de parámetros

 es el coeficiente de reflexión a seguir es el coeficiente de reflexión hacia atrás representa la instantánea de un error de predicción posteriori adelante representa la instantánea de un error de predicción hacia atrás posteriori es el mínimo de los mínimos cuadrados error de predicción hacia atrás es el mínimo de los mínimos cuadrados forward error de predicción es un factor de conversión entre un priori ya posteriori los errores son los coeficientes multiplicadores feedforward. es una pequeña constante positiva que puede ser 0,01

LRLS Resumen Algoritmo

El algoritmo para un filtro LRLS se puede resumir como

Filtran normalizados celosía mínimos cuadrados recursivos

El formulario normalizado de los LRLS tiene menos recurrencias y variables. Se puede calcular mediante la aplicación de una normalización de las variables internas del algoritmo que mantendrá su magnitud limitada por uno. Esto generalmente no se utiliza en aplicaciones en tiempo real, debido al número de operaciones de división y de raíz cuadrada, que viene con una alta carga computacional.

NLRLS Resumen algoritmo

El algoritmo para un filtro NLRLS se puede resumir como