Mi ex supervisor, Andrew Davison, dio una fantástica presentación sobre el tema en BMVC. Su sesgo hacia SLAM monocular e interior, pero sin embargo es una gran introducción.
SLAM monocular y percepción de la escena en tiempo real
Para obtener más métodos de vanguardia, sugeriría ver las últimas versiones de ORB-SLAM y LSD-SLAM. El código de fuente abierta está disponible para ambos:
Página web del proyecto ORB-SLAM
- ¿Es natural que un aprendiz rápido olvide lo que aprendió después de unos días?
- ¿Cuál es la mejor manera de aprender SAP UI5 / SAP FIORI?
- ¿Dónde puedo aprender fotografía publicitaria?
- Cómo aprender a apreciar las bebidas alcohólicas.
- ¿Cuáles son los mejores lugares para aprender código?
Grupo de vision de computadora
Un problema importante con los enfoques de SLAM es que tienden a desviarse con el tiempo y son propensos a fallar cuando las cámaras se mueven repentinamente. Para superar estos problemas, recomiendo mirar la fusión de sensores. Fusionar las estimaciones de GPS (incluso si es tan simple como con un filtro de Kalman), que son menos precisas, pero no se desvían, e IMU, que puede ser bastante precisa en períodos de tiempo muy cortos, pero tener una desviación pobre puede darte un SLAM decente tubería.
Para IMU, sugiero mirar OK-VIS, que nuevamente proporciona implementación de código abierto:
ethz-asl / okvis
Kinect normalmente no funciona al aire libre, a la luz del sol. Aunque recientemente he oído hablar de algunas cámaras de profundidad nuevas que lo hacen. ¡Mejor echa un vistazo a lo que te da un Kinect, al probarlo tú mismo!