Det har formligen exploderat på marknaden med mjukvaror för att fotogrammetriskt göra om stillbilder till 3D modeller och orthofoton för tillämpningar i såväl liten som stor skala.
I dessa fall så väntar vi bara på kommersiella lösningar som inte kostar flera månadslöner. Det finns billigare, men då är de i de flesta fall begränsade och saknar, för mig, viktiga funktioner. Tills vidare så får jag nöja mig med Visual SFM, som är gratis och löser uppgifterna tillräckligt bra. Det de kommersiella programmen är bättre på är framför allt arbetsflöde och automatisering.
Denna artikel handlar dock inte om mjukvaror för efterbearbetning, utan om kartering i realtid!
I några år så har det funnits forskningsprojekt för diverse fotogrammetriska tillämpningar med fokus på navigering och kartläggning. Det finns ett sammanfattande begrepp för detta kallat SLAM (Simultaneous Localization And Mapping, läs mer på Wikipedia), även om andra begrepp också förekommer.
I en del fall så använder man en vanlig webbkamera eller motsvarande för att försöka göra ungefär samma saker som man gör med stillbilder, fast mycket snabbare. Detta fungerar, men blir väldigt beräkningsintensivt och ställer väldigt höga krav på den enda sensorn som används.
Andra koncept baseras på Microsoft Kinect och den SDK som går att ladda hem från https://dev.windows.com/en-us/kinect. Detta är en relativt billig plattform där det ingår även en djupseende kamera. Detta ger ytterligare data till ett system och många av de beräkningar som görs för att räkna fram djup med enklare sensorer kan förenklas. Detta kan ge snabbare system som kräver mindre av hårdvaran i övrigt, men framför allt snabba rörelser kan göra att även denna typ av sensorer ”tappar” låsning mot omgivningen.
Google har sedan en tid tillbaka ett Development Kit baserat runt en liten tablet med inbyggda sensorer, kallat Project Tango.
Förutom visuell kamera och djupsensorer använder man sig av accelerometrar och andra rörelsesensorer som normalt finns inbyggda i mobila plattformar.
Med plattformen erbjuds framför allt tre grundläggande funktioner:
- Objektsföljning (Motion Tracking),
- Djupmätning (Depth Perception) och
- Kartläggning (Area Learning).
Genom att använda flera sensorer så kan man säkrare ta hand om olika typer av sensorrörelser och därmed bibehålla en ”säker” orientering.
Det finns även inbyggda funktioner för att känna igen områden där man tidigare varit och korrigera gjorda mätningar.
Denna typ av bärbara sensorplattformar kommer inte att kartlägga vare sig bergskedjor eller nationalparker, men för tillämpningar där GPS täckning är dålig exempelvis inomhus så skulle det vara ett bra, och billigt, alternativ till laserskanning.
Om man däremot har GPS täckning, så kan man tänka sig att använda denna positionering som ytterligare en faktor när man orienterar och beräknar 3D omgivningen fotogrammetriskt.
Nu är vi nog inne på ett annat område som kommit starkt den senaste tiden, nämligen självkörande bilar. Tessla har redan skickat ut mjukvara till sina bilar som gör att de själva kör och håller sig inom sitt körfält anpassat till omgivande trafik, om man vågar lita på detta. Andra företag testar olika tekniker och senast så var det Toyota som gick ut och visade sitt koncept för att samla in vägdata med deras vanliga fordon, som på sikt kan användas för att exempelvis precisionsnavigera ett självkörande fordon.
Spännande utveckling med andra ord och det kommer att hända väldigt mycket på området de närmaste åren.