Bildanalys för navigering i autonoma sensor-platformar
Det bör vara möjligt att skapa verktyg för att beskriva scenarion och med hjälp
av tillgänglig
mjukvara för visualisering kunna spela upp både verkliga och simulerad bilddata.
Detta examensarbete beskriver hur några sådana verktyg tagits fram. Till
förfogande fanns en
stor mängd bilddata, insamlad på ett militärt övningsområde som dessutom finns
representerad
som en syntetisk omvärldsmodell. Insamlingen gjordes med en UAV (Unmanned
Aerial Vehicle)-
prototyp, som var utrustad med videokamera, IR-kamera och
tröghetsnavigeringssystem. För
att simulerad bilddata skulle få ett verklighetstroget intryck placerades
markfordon ut i den
syntetiska modellen på exakt samma position som under fältförsöken.
Markfordonens position
mättes in med DGPS och UAV:ns hastighet, position och rotation bestäms med GPS
och tröghetsnavigeringssystem.
Resultatet, i form av lagrad tröghetsnavigerings- och sensorstyrnings-data,
ges efter en Kalmanfiltrering och blir vanligtvis noggrannare än vad som
erhålls från de respektive
delsystemen.
Tyngdpunkten i arbetet låg i att ta fram Matlab-funktioner som plockar ut rätt
vy vid rätt
tidpunkt och åskådliggör detta på ett tydligt sätt, samt att placera ut
markfordonen enligt
de givna koordinaterna. Visualiseringen görs i SceneServer, ett program för
hantering av 3Dbilder.
För att samtidigt kunna presentera IR-kameran, videokameran och SceneServer-vyn
vid
en exakt tidpunkt skapades ett Matlab-GUI (Graphical User Interface), där en
specifik tidpunkt
anges och där resultatet presenteras. Dessutom nns möjligheten att skapa en AVI
(Audio Video
Interleaved)-sekvens mellan två tidpunkter där de tre vyerna ska vara
synkroniserade. Även om
verktygen för att simulera hela scenarion med fordonsförflyttningar inte hann
färdigutvecklas
helt, så blev resultatet med själva visualiseringsfunktionerna mycket goda, och
man vet nu att
att det är möjligt att genomföra visualiseringar av denna typ.