AG-Treffen 2026/02/04 3D-Massen-Digitalisierung von Keramik: Unterschied zwischen den Versionen
Zur Navigation springen
Zur Suche springen
Keine Bearbeitungszusammenfassung Markierung: Zurückgesetzt |
Keine Bearbeitungszusammenfassung Markierung: Manuelle Zurücksetzung |
||
| Zeile 1: | Zeile 1: | ||
[[Kategorie:Protokolle | [[Kategorie:Protokolle 2026]] | ||
Protokoll vom 04.02.2026, 11:00 Uhr | Protokoll vom 04.02.2026, 11:00 Uhr | ||
Aktuelle Version vom 26. Februar 2026, 09:22 Uhr
Protokoll vom 04.02.2026, 11:00 Uhr
Neue Mitglieder
- Roland Clauß – Webseite
- Berit Hildebrandt (VZG)
- Florian Hermann (Universität Marburg, Geophysik / Archäologie)
Werkstattbericht: Michael Rummel
Thema: 3D-Massen-Digitalisierung von Keramik Untertitel: Structure-from-Motion als Methode zur Massendokumentation und Analyse von Keramikscherben – eine Fallstudie zu phönizischem Geschirr
Präsentation
- kurzer Überblick SfM Vorgang
- schon einige Studien zur Digitalisierung von Keramik (2008 Karasik, Smilansky)
- DACORD (https://github.com/jwilczek-dotcom/DACORD, https://jwilczek.com/tag/automatic-pottery-orientation/ )
- Di Angelo, Di Stefano (2018) Automatische Analyse
- Ausgangssituation: Stromprobleme und Hitze -> nicht gut für teure Geräte
- SfM ist eine kostengünstige, einfache und effektive Alternative (https://www.degruyterbrill.com/document/doi/10.1515/opar-2020-0133/html )
- Getestet, mit Studierenden und Personen ohne Erfahrung (Projekt: https://gepris.dfg.de/gepris/projekt/453707845)
- Aufbau: Lichtzelt, "Baum" mit etwa 8 bis 9 Klammern für Keramikfragmente, Marker
- 24 Winkel (durch Drehteller), ca. 13 Minuten pro "Baum", zwei Durchgänge pro Baum, mehrere Stationen mit Bäumen
- Probleme des Fokus und der Schärfetiefe, Autofokus ausgeschaltet, einmal getestet und positioniert (mit Magnet ausgerichtet?!)
- Die Fotos, die aus der dem Bereich der Schärfe liegen haben Auswirkungen auf die Textur
- Zwei Durchgänge, je 15 Minuten, nach dem ersten Vorgang werden die Scherben gedreht
- Ergebnis: etwa 120 Scherben pro Tag, Teilnehmer ohne Erfahrung
- alles möglich trotz vieler Stromausfälle
- Foto Processing wurde off-site durchgeführt
- mit Metashape, aber auch in Meshroom oder Realitycapture möglich
- Feste Marker, mit Python Skript ausgewertet, besser und fehlerfreier, vorher mit Lineal als Maßstab
- für Forschungsfrage ist vollständiges Modell und Textur nicht notwendig, daher kein Merging der zwei Seiten
- Morphometrie ist wichtiger, diese ist durch beide Vorgänge zu erhalten
- warum beide Vorgänge, um bei Fehlern ein weiteres Modell zu haben, zusätzlich kann man die Rohdaten für weitere Prozesse nutzen
- produziert eine riesige Menge Daten, Rohdaten werden in Heidelberg FAIR gespeichert
- Verfahren= schnell und robust, aber nicht unglaublich kostengünstig -> Infrastruktur (Rechner, Personen für die Bearbeitung, Speicher, Stromverbrauch)
- Phd Projekt: Phoenician Tableware: Unterschiede identifizieren, Produktionseinheiten erkennen, Anhand von Merkmalen quantitative Analyse durchführen
- Datenaufnahme: über DACORD ausgerichtet, Ausrichtung mit Gigamesh kontrolliert
- Vermessung, keine frei zugängliche Software -> eigenes Programm in Python, wird mit Dissertation veröffentlicht
- Algorithmus produziert im Batchprozess die typische archäologische Zeichnung, Position der Rotationsachse, Randneigung und Dicke, Export der morphometrischen Daten in csv
- Vergleichsobjekte, aus Zeichungen 3D Modelle erstellt = Simulierte Scherben
- Datenbank (MariaDB+ php Frontend) soll mit Dissertation veröffentlicht werden
- Laserprofiler: Ausrichtung per Hand, nur ein Profil
- Test: mehrere Unerfahrene richten Scherben per Hand aus (Durchmesser als Proxy für korrekte Ausrichtung. Erfahrene Person richtet ebenfalls mit Hand aus und alle Objekte nochmal mit 3D Ausrichtung und Automatischer Vermessung: kein Unterschied zwischen Ergebnissen der Erfahrenen Person und Automatischen Messungen, aber 3D Modelle präziser / einheitlicher
Fragerunde
- Klammern, manuell in 3D rausgeschnitten? Nicht möglich eine schnelle automatische Lösung zu finden, ging auch manuell schnell
- in TIF umgewandelt, hätte jpg eventuell auch gereicht? Tiefenschärfe mit Automatischen Fokusdeck lösen? Sehr hohe Qualität, am Ende sinnvoll? Fokusdeck unbekannt, Test TIF und jpg, kein Unterschied in Prozessierungszeit, erst mittlere/hohe Qualität produziert, Probleme in der Segmentierung, Agisoft Algorithmus ist die größte Blackbox, Wunsch nach Wechsel
- Artikel: https://www.degruyterbrill.com/document/doi/10.1515/opar-2024-0011/html
- Magnet Ausrichtung? 1/3 und 2/3 Verhältnis, Stabmagent mit Target, 80 cm Abstand, fokussiert und positioniert, Magnetismus dabei unerheblich.
- Idee, Gestell und drei Kameras gleichzeitig, aber Kostenfaktor
- 8 Scherben pro Baum? Größe der Fragmente -> zu viele Objekte führt zu Überlappungen, kleinere Fragmente kann auch 10-12 Objekte tragen
- Andere Kameras ausprobieren: MFT (Micro Four Thirds), APS-C