AG-Treffen 2023/06/14: Photogrammetrie

Aus AG3D
Zur Navigation springen Zur Suche springen

AG3D interaktives Protokoll • https://ag3d.org/ 2023/06/14, 10:00 Uhr

Neue Mitglieder

Felix Horn, Bayerische Staatsbibliothek, bavarikon 3D Hasan Cobdak, Bayerische Staatsbibliothek, bavarikon 3D Kristian Peters, Landesarchiv NRW Melanie Elias, Lehrstuhl für Photogrammetrie, TU Dresden

Begrüßung & Informationen zur AG3D

Links & Ressourcen:

Offene Runde

Sammlungstagung Bonn

  • AG3D wird mit einem Poster teilnehmen
  • Brainstorming:
    • Workshop / Barcamp
    • Nächste Sitzung: Brainstorming für Sammlungstagung?

Barcamp NFDI4C 3D

Werkstattbericht

Was ist Photogrammetrie

Themenbereiche

  • Nahbereich
  • Luftbild
  • Terrestrisches Laserscanning
  • Flugzeug-Laserscanning

Was macht die Photogrammetrie?

  • Datenaufnahme
  • Verarbeitung
  • 3D-Punktwolken
  • Nach der Messung:
  • Messergebnisse werden weitergegeben und interdisziplinär aufgearbeitet
  • Messprinzip ToF (Time-of-Flight)
    • Vorteile: 1 Sensor, hohe Reichweite
    • Nachteile: limitierte Genauigkeit und Auflösung, teure Profi-Geräte

Triangulation

  • Passive Sensoren (mind. 2 Kameras)
  • „Klassische Photogrammetrie": Messung diskreter Punkte (Auswahl von beispielsweise Gebäudeecken)
  • SfM (Structure-from-Motion): Erzeugung von irregulären Punktwolken
  • Aktiver Sensor: Punkt-, Linien-, Flächenverfahren
  • Linie: Laserbasierte Systeme
  • Fläche: Flächenbasierte Systeme: Streifenlichtprojektion
  • -> Textur kann mit erfasst werden
  • hauptsächlich für kleinere Objekte
  • sehr genaues Messverfahren
  • [zeigt Vergleich: SfM Photoscan Metashape vs. Weißlichtscan AICON Smartscan]
  • [Folie: Überblick]

Beispiel SfM

  • Ikone: kann nicht weg bewegt werden
  • Ziel 3D Scan: Risse vorhanden? Entwicklung sichtbar?
  • Anforderungen an die Kamerabilder
  • Wichtig: Hohe Schärfentiefe! (möglichst hohe Zahl der Blende -> kleinstmögliche Öffnung)
  • Brennweite: Abhängig von der Situation / dem Objekt: kürzere - mittlere Brennweite, um alles zu erfassen: 20-50mm
  • Detailaufnahmen (eventuell mit Makroobjektiv) 50-"x"mm
  • Anforderung an die Aufnahmesituation: Worst Case Szenarios
  • Beleuchtungsunterschiede
  • Schärfenprobleme
  • Bewegliche Interessenspunkte
  • Merkmalspunkte erkennen und zuordnen:
  • Orientierung am Grauwert [...]
  • Rekonstruktion der Aufnahmegeometrie
  • Bestimmung der relativen Kamerapositionen anhand der zugeordneten Merkmalspunkte: Folgebildanschluss
  • Ergebnis: Dünne Punktwolke
  • Dense Matching

TroubleShooting

  • Problem: Extrem lückenhaftes Modell
  • Grund: wahrscheinlich homogen- oder wenig texturiertes Modell oder zu wenig Überlappungen
  • Lösung: Modell texturieren (Beleuchtung / Farbe)
  • Lösung: "eigene" Merkmalspunkte setzen (Metashape Marker)
  • Problem: Einzelne Bilder können nicht orientiert werden
  • Grund: a) EXIF-Informationen evtl. aus Bild entfernt durch Vorverarbeitung b) Bildüberlappung zu gering
  • Lösung: a) EXIF-Infos händisch im Dialog "Kamera-Kalibrierung" eingeben b) nachträgliche Aufnahmen von fehlenden Überlappungen aufnehmen
  • Problem: Fehler in 3D Punktwolke
  • Grund: ggf. falsch orientierte / verwackelte Bilder
  • Lösung: diese Bilder entfernen

Folien: Elias, Melanie

Link zu Tools: https://tu-dresden.de/bu/umwelt/geo/ipf/photogrammetrie/studium/materialien/software#ck_SFM (hier fehlen aber zumindest aber OpenSFM und OpenDroneMap)

Fragerunde

Marcus: Bei Agisoft Metashape gibt es auch die Möglichkeit ein Depth-Of-Field Masking durchzuführen. Vielleicht kann Melanie noch was dazu erklären. Melanie: Vermutung: Depth.Of-Field funktioniert vermutlich vor allem mit Kontrasten (hoher Kontrast wird als Schärfe verstanden)

Michael: Focus stacking: Helicon funktioniert gut bei einfacher Geometrie, Problem bei komplexerer Geometrie: Helicon kann die Position der Kamera nicht berechnen

Jacob: Frage zu dünnen Punktwolken im Metashape. Eigene Problematik: Arbeit mit Fell: Dünne Punktwolke funktioniert gut, Problempunkt ist der Schritt danach. Dichte Punktwolke kann nicht gut erstellt werden. Gibt es eine Möglichkeit, die dünne Punktwolke anders zu verarbeiten? Melanie: Dünn funktioniert vermutlich, da an den Haarendpunkten vermutlich überschneidende Punkte gefunden werden. Dichte Punktwolke: Flächenansatz: Patches sind vermutlich sehr ählich und resultiert im Chaos. Testung verschiedener Verfahren. Bei Metashape: Keine Möglichkeit, auf die Größe der Patches einzuwirken. Bei Fell wären größere Fenster vermutlich besser, da weniger Ähnlichkeiten. Low-Mid-High? Jacob: Objekt: Hut. Versuch, die Textur mit Blender nachzumodellieren mit Kamerarekonstruktion in Blender Melanie: Metashape: Tiefeninformationen aus orientierten Bildern. Möglicherweise implementiert Metashape NERFs Jacob: Würde ein Streifenlichscanner besser funktionieren? Melanie: Ja, das würde definitiv besser funktionieren.

Felix: Kameraeinstellungen, ISO - Rauschen.

Marcus: Depth-Maps funktionert bei ihnen sehr gut. Geht meistens sogar schneller. Anmerkung zum Fell: Bisher noch nicht gut hinbekommen, denkbar wäre eine Kombination aus einem Oberflächenmodel mit Fotofrafie der Textur des Fells. / Problem mit der Veränderung des Hintergrundes bei Photogrammetrie -> Masken von Metashape nutzen und Bilder maskieren, Masken über Photoshop können in Metashape reingeladen werden Melanie: Formatfüllend fotografieren, einzelne Änderungen im Hintergrund sidn unproblematisch, sich verändernde Markerpunkte sind schwierig

Jacob: Depth Maps haben nicht funktioniert. Polfiltern - guter Ansatz bei reflektierenden Flächen? Marcus: Polfilter vor Lichtquelle & Objektiv funktionieren, Beleuchtung muss aber entsprechend angepasst werden Anna: Polfilter für Ringlicht selbst 3D gedruckt & Objektivpolfilter Claus: Verschiedene Materialien reflektieren unterschiedlich stark -> Schwierigkeiten mit dem Weißabgliech, Materialien werden verschieden abgedunkelt, Texturen sind nichtmehr so, wie man sie gern hätte

Werkstattbericht zur Beleuchtung wäre gut.

Anna: Problem Fotos mit unterschiedlichen Brennweiten: Wie kann man das gut matchen? Sortierung in verschiedene Stapel? Wie ist das Vorgehen gut? Melanie: Spannender Punkt, im Programm müssen diese aber eingepflegt werden. Überürufung: Von Stapelzuordnung von Metashape. Wenn alle Bilder in einem Stapel sind und falsch deklariert sind, rechte Mousetaste und dann auf "Split Group" und dann manuell raussuchen, welche Bilder auf einen Stapel kommen sollen.

Sonstiges

Nächste Termine:

14.06.2023 10:00 Uhr - Photogrammetrie

12.07.2023 10:00 Uhr - Thema offen

09.08.2023 10:00 Uhr - Louise Tharandt: 3DHOP

13.09.2023 10:00 Uhr - Dorothe Zimmermann, Roberta Spano: 3D-Digitalisierung an der ETH-Bibliothek