Basiert auf Unity Eyes (duh). - Unterstützt Konfiguration der Wahrscheinlichkeitsverteilung von Eye Pse, Came intrinsic and extrinsic parameters, multi-camera setups, unterschiedliche Beleuchtungsbedingungen - GUI für scnelles Prototyping der Data Distributions - Zeigt: training mit Kamera-spezifischen Datensätzen ermöglicht besseren Transfer zur echten Welt - TODO: UnitityEyes 1 kann wohl nur 18 Environments, 20 Gesichter sowie yaw und pitch von camera und Auge kontrollieren - Camera Intrinsics: - Image width, Height - Focal length (x und y) - image center (c und y) - Einheit: alles in pixel - Die Parameter können anhand von standard-Toolboxen kalibriert werden (https://ieeexplore.ieee.org/document/888718) - Generated output: - Random generated images (basierend auf User-Settings) - Ground-truth locations von: - Pupil center - normalized vector representing optical axis - center of globe of the eye - Alle 2D-Parameter, die UnityEyes ausgespuckt hat - Generiert auf einem M3 Max 85,7 Bilder pro Sekunde Sie nutzen EfficientNetV2 (https://arxiv.org/abs/2104.00298) für Pupil center und gaze vector estimation. Trainiert mit 10000 Samples von UnityEyes (1) und UnityEyes 2 UnityEyes 2 ist deutlich besser als UnityEyes 1