Files
Masterarbeit-Obsidian-Vault/Paperung/Experimente/Experiment 2 - NN performance.md
2026-03-07 23:16:00 +01:00

53 lines
3.1 KiB
Markdown

Hypothese: (besser formulieren, kommt irgendwo an den Anfang der Arbeit, mal Gucken, wo Meiko das hingepackt hatte...)
LightEyes stellt Augen nur sehr grundlegende Formen dar, im Grunde graue Kreise und erzielt dabei verhältnismäßig gute Performance beim Training von Neuronalen Netzen. Daher ist davon auszugehen, dass das detailliertere Modellieren der Periorbitalregion keinen nennenswerten Einfluss auf die Leistung von Neuronalen Netzen hat.
## Einleitung
In der vorliegenden Arbeit wurde die bestehende Implementierung von HEyes erweitert, sodass nun die Form der Periorbitalregion zufällig verändert werden kann. In Experiment 1 wird untersucht, wie sich die Änderungen auf die Laufzeit der Generierungspipeline auswirken. In diesem Experiment soll untersucht werden, ob diese Erweiterung einen Einfluss auf die Erkennungsleistung von KI-basierten Segmentierungsmodellen hat. Dazu wird ein Vergleich
Von Timms Arbeit:
Über alle Experimente hinweg wurden die gleichen, in der medizinischen Bildsegmentierung etablierten Metriken erfasst [71]. Im Mittelpunkt stehen der Dice Score (auch F1 Score) und die IoU (auch Jaccard Index genannt) als Flächenüberlappungsmaße sowie Precision und Recall als Fehlerratenmaße. Besonders der Dice-Score fand in verwandten Arbeiten, wie etwa bei M. Calisto et al. (2021) [10] und Z. Fan et al. (2020) [19], Verwendung.
Meiko hat auch Dice und IoU überprüft. Nach jeder Epoche berehcnet.
Sachen, die ich mache:
- Modell: Yolo26-seg small
- Zwei Modelle trainieren:
1. Alte Implementierung
2. Neue Implementierung
- 80 - 20 Split? Meiko hat 85 - 15?! für Training und Validierung
- Test-Set mit ???
- entweder 500k oder Daten aus TEyeD?
- Vom Testset hängt auch die zu generierende Auflösung der synthetischen Bilder ab
- Störfaktoren sind nicht wirklich Teil meiner Arbeit, daher möchte ich am besten einen kontrollierten Datensatz, aber mit verschiedenen Ethnien
- Synthetische Daten generieren
- Es werden explizit Bilder mit verdeckter Pupille erzeugt
- TODO: Müssen wir die Helligkeitswerte aus den Test-Set extrahieren?
- Um Überrepräsentation von verdeckten Pupillen zu vermeiden wird der Exponentielle-Faktor für den Lidschluss verwendet, damit mehr Bilder ein offenes Auge haben
# Sachen, die ich am Ende sehen möchte:
Graphen:
Plotten über alle Epochen:
- Train Loss
- Validation Loss (Meiko hat das auch irgendwie für jede Epoche berechnet)
- Precision und Recall
- Okay für Yolo hat er Mask Precision und Recall, was auch immer das sein soll
Meiko hatte auch:
- Validation mAP50
- Validation mAP50-95
Für das Finale Modell:
- IoU und Dice für die Test-Set-Bilder berechnen
- Tabelle: Mean + SD für IoU und Dice für beide Modelle
- Ich möchte auch einen Boxplot zeigen können für IoU und Dice und einzelne Bilder und ihre Masken (Ground Truth und predicted) + Scores zeigen können
# Todo!!!!!!!!!!
- Meiko und Jan haben aus den Daten die Helligkeitswerte extrahiert
# Genutzte Hardware:
Beide Experimente wurden auf einem Computer mit folgender Hardware ausgeführt:
- CPU: AMD Ryzen 7 2700x mit 8 Kernen (16 Threads)
- GPU: NVIDIA RTX 3080 mit 10 GB VRAM
- RAM: 32 GB DDR4