Jag hade lite tid över, så jag tog min GoPro och vandrade runt Eksjö museum medan jag tog 354 bilder.
Jag var inte speciellt noggrann, och solen var inte direkt konsekvent, men jag bedömer ändå att jag lyckades fånga tillräckligt många OK bilder för att WebODM skulle generera resultat.
Och visst blev det ett resultat.
21 miljoner i huvudsak väl placerade punkter där jag ville att de skulle finnas. För beräkningen så valde jag inställningen ”Buildings” och satte ”Fisheye” som linsval i WebODM. För en angränsande byggnad så blev inte täckningen speciellt bra även om där fanns bilder, men det tror jag beror på att jag inte hade tillräckligt bra överlapp mellan serierna med tagna bilder.
Om nu någon undrar hur mycket utrymme det är för att köra in under gångbron och in på gården…
Så kan jag meddela att det är ungefär 4 meter högt och drygt 7 meter brett.
Kommer man att orka rulla upp för rampen vid ingången?
Det beror mycket på hur stark du är, men rampen är drygt 7 meter lång och stiger en knapp meter. Lutningen är runt 7°, vilket är under de 8.3° som rekommenderas.
Vid en jämförelse med ett flygfoto i QGIS så ser även positionen av byggnaderna ut att stämma ganska bra. Att ”skära” ett punktmoln i QGIS kommer förövrigt att vara så mycket enklare i kommande version av QGIS, när man helt enkelt kan filtrera på attributvärden lite enklare.
Jag tycker dock fortfarande att punktmoln i sig hanteras bäst i CloudCompare.
Hur skulle det se ut om man hade ett gigantiskt aphuvud svävande på innergården?
Det kan man enkelt kontrollera i Blender om man importerar den texturerade modellen först. Här har jag försökt matcha solens placering genom de skuggor som finns i modellen och därmed även se om skuggan av Suzanne kommer att skymma några fönster den aktuella tiden.
Jag blir mer och mer imponerad av vad man kan åstadkomma med så enkla sensorer och öppen källkodsprogramvara.