Para la implementación de sistemas de vuelo autónomo se requiere contar con información de posición y actitud (orientación en el espacio) de la aeronave, en tiempo real. En general esto se obtiene de un sistema de navegación basado en el uso de sensores inerciales. Dado que la navegación inercial pura no ofrecen una estimación estable (los errores crecen con el tiempo), salvo para ciertas aplicaciones y contando con sensores inerciales de grado adecuado, esto se transforma en un problema insalvable.
La fusión de la navegación inercial con sensores auxiliares permite mitigar este problema. Lo más común en el vuelo autónomo es el uso de receptores GNSS (Global Navigation Satellite System), que permiten estabilizar la estimación de posición. También se obtienen mejoras en la estimación de actitud, pero en vuelo estacionario se siguen manifestando algunas derivas. Esto se resuelve incorporando otros sensores: magnetómetros, barómetros, telémetros, etc. Todos estos recursos poseen ciertas limitaciones, por lo cual, dependiendo de la aplicación, pueden ser útiles o no. Por ejemplo, el uso de un receptor GNSS pierde efectividad en ambientes urbanos y no puede utilizarse en espacios cerrados; mientras que los magnetómetros son susceptibles a muchas fuentes de error asociados a la distorsión del campo magnético terrestre por diversas causas.
Los sensores ópticos pueden usarse para mitigar algunas de estas deficiencias. Mediante el procesamiento de imágenes es posible identificar “puntos clave” en el campo visual, y seguir su movimiento relativo en imágenes sucesivas; lo cual puede correlacionarse con los cambios de actitud y posición de la cámara. Esto proveen información útil para la navegación, particularmente para vuelo estacionario o a baja velocidad.
A continuación se presenta el esquema utilizado para el sensor visual, y los desarrollos matemáticos necesarios para su fusión con la navegación inercial utilizando un filtro de Kalman Extendido (EKF). Los resultados se obtienen mediante simulación.