Ja det blir mycket punktmoln och hur man kan framställa dessa med Open Source så här i början på året. Det är mycket som är nytt och värt att utforska här, inte minst alla nya regler som trädde i kraft 2021-01-01. Men även stödet för punktmoln i QGIS 3.18.
Jag kommer inte att gå in så speciellt mycket på regler och vad som gäller, det är riktigt tydligt på sidor som https://dronarsidan.transportstyrelsen.se/.
Kortfattat så kan jag säga att om din drönare väger mer än 250 gram eller har en kamera, så skall du ta reda på vad som gäller för dig och flygning. Annars finns det en risk att du kommer att drabbas av böter (eller värre) om du bryter mot de regler som finns.
Den senaste tiden har jag mest testat att skapa punktmoln med handhållna kameror, men efter lite efterforskning så har jag förstått att WebODM, och indirekt OpenSFM, har stöd för att hantera flera olika kameramodeller i en och samma beräkning. Ja, det gäller inte 360 bilder tagna med en sfärisk kamera. Dessa behöver beräknas separat (tills vidare), men om man gärna vill kombinera dessa så finns det sådana möjligheter också (länk).
För att testa så plockade jag fram min gamla Phantom3 och efter en kontroll mot drönarkartan och en titt i NOTAM så bar det av till en lämplig plats att testa dessa nya kunskaper.
Jag flög två ”mission” över ett litet område med väg, byggnader, vatten, branter, skog, öppna ytor, ja lite av det mesta (men inte en enda människa).
Det första var på 60 meters höjd och det andra på 40 meters höjd. Jag hade planerat att vinkla kameran från nadir till runt 70° men stödet för detta fungerade inte med den inbyggda autopiloten och det var lite för kallt om fingrarna för att börja felsöka på plats.

Totalt var det drygt 200 bilder, så det borde vara mer än tillräckligt för ett bra resultat som ett fristående projekt.
Med GoPro kameran så ställdes denna på 1 sekunders intervall och sedan gick jag längs vägen fram och tillbaka, samt runt byggnader och i branten vid dammen så gott det gick. Jag försökte vara medveten om hur jag riktade kameran så att det hela tiden fanns överensstämmelse mellan bilder som fanns nära varandra, och att alla bilder hängde ihop med överlappning. Dessutom så hade jag kameran på ett enkelt stativ på drygt 3 meters höjd, vilket jag också tror hjälper.
Här var det över 440 bilder och i bearbetningen av dessa bilder för sig så valde jag att stoppa processen efter georefereringen, då jag inte var intresserad av vare sig höjdmodeller eller ortofoton från denna beräkning.

Inte bara för att det var fler bilder (tror jag) så tog beräkningen av punktmolnet från bilder tagna med GoPro längre tid.
Då målsättningen längre fram är att samköra både bilder från Phantom och GoPro så körs beräkningen med båda med objektivinställningen ”Brown”. Normalt så brukar jag köra GoPro med ”fisheye” och Phantom med ”Brown”, men nu testar jag det här.
Phantom3
Resultatet från RPAS är som förväntat riktigt bra som överskådliga data.

Punktmolnet ovan är på knappt 20 miljoner punkter och täcker ungefär 3 hektar, så det är inte ett stort område. För att sätta det i perspektiv så var sammanlagd flygtid ungefär 9 minuter.
Självklart så var jag tvungen att uppdatera grafikkortsdrivrutiner medan beräkningen pågick, så att använda QGIS 3D innan datorn kunde startas om var inte att tänka på. Kanske skall lägga det på minnet nästa gång, trots att man kör Linux.

Det är något nästan ”konstnärligt” med vissa stilsättningar av punktmoln i kombination med ytmodeller (DSM) i QGIS.

När 3D fungerar igen efter omstart så kan blandade data läsas in i QGIS och beskådas där.
När jag vinklar modellen, inte minst texturmodellen, så blir det tydligt var bristerna framför allt finns med data som enbart kommer från bilder tagna uppifrån.

Det är dessa problem jag hoppas kunna lösa genom att kombinera bilder från marken med bilder från RPAS.
Men först behöver jag ett resultat även från marken.
GoPro
Här var jag först lite väl ”girig” när det gäller inställningar, och jag fick köra om processen ett par gånger innan den lyckades, dessutom med lite färre bilder. Ett problem visade sig vara att bilder när jag började fotografera saknade GPS information. Jag glömde helt enkelt att kontrollera att kameran fått uppdaterad position innan jag började.

Visst blev det ett resultat så småningom, men det var inte så bra som jag hoppats. Jag behöver träna mer på att fotografera manuellt från marken för att skapa så bra förutsättningar som möjligt för fotogrammetri. Ett tydligt problem var att på sina håll blev det dubbla punktmoln, exempelvis för den lilla byggnaden, vilket ställer till det lite.

Georefereringen skiljer sig dessutom mellan de två separata punktmolnen, men det går att hitta tillräckligt många överensstämmelser för att åtminstone grovt justera ihop de båda resultaten i CloudCompare.

Visst ser det ut som att här finns potential, men då krävs det mera träning på att kombinera foton på det här sättet.
Det är inte med enormt stora förhoppningar jag därför kör RPAS bilder med valda GoPro bilder i ett gemensamt projekt. Men är det bara lite bättre än enbart RPAS så får jag vara nöjd.
Allt i ett
Men icke!

ODM valde nog att använda GoPro bilderna och sedan blev det problem att hitta överensstämmelser med flygbilderna. När man tittar i bilden ovan där kamerapositioner är utmärkta så är ju detta inte konstigt alls. Det är 40 meters höjdskillnad till att börja med och vinklarna på kamerorna är helt olika. Det finns ju ingen chans att programmet skall hitta överlapp här.
Om man skall använda flera sensorer i ett projekt, då behöver man helt säkert ett bättre överlapp än vad som var fallet här, mellan bilderna från de olika sensorerna. Den andra flygningen borde kanske varit på 20 meter, eller kanske en tredje flygning på 20 meter. Med kameran i 45° eller till och med högre vinklad. På något sätt behöver man knyta ihop bilderna.

Att ODM klarar av att hantera flera sensorer är det däremot ingen tvekan om. I rapporten från processen så finns detaljer om de olika kamerorna med och de har helt klart olika linsegenskaper…
Det får bli nya tester när det blir lite tid över.