威尼斯赌博游戏_威尼斯赌博app-【官网】

图片

威尼斯赌博游戏_威尼斯赌博app-【官网】

图片

Paper akzeptiert auf dem CVSports Workshop auf der CVPR 2025

Paper auf CVSports Workshop akzeptiert

Das Paper "Towards Ball Spin and Trajectory Analysis in Table Tennis Broadcast Videos via Physically Grounded Synthetic-to-Real Transfer" von den Autoren Daniel Kienzle, Robin Sch?n, Rainer Lienhart und Shin’Ichi Satoh wurde für den CVSports Workshop angenommen.
Der Workshop findet im Rahmen der IEEE/CVF Computer Vision and Pattern Recognition Conference (CVPR) statt.

In ihrer Arbeit stellen die Autoren einen neuartigen Ansatz zur Analyse der Spieltechnik im Tischtennis vor.
Dabei werden sowohl die 3D-Trajektorie als auch der Spin des Balls aus gew?hnlichen Broadcast-Videos gesch?tzt.
Besonders bemerkenswert ist, dass das Modell vollst?ndig ohne reale Trainingsdaten auskommt:
Durch die Verwendung von physikalisch fundierten Simulationsdaten und einer geeigneten Problemformulierung gelingt es den Autoren, eine starke Generalisierung auf reale Aufnahmen zu erreichen.

?

Weitere Informationen zum Paper sind unter? https://kiedani.github.io/CVPRW2025/?zu finden.

?

CVSPORTS 2025 2
? Universit?t Augsburg

Abstract

Analyzing a player’s technique in table tennis requires knowledge of the ball’s 3D trajectory and spin. While, the spin is not directly observable in standard broadcasting videos, we show that it can be inferred from the ball’s trajectory in the video. We present a novel method to infer the initial spin and 3D trajectory from the corresponding 2D trajectory in a video. Without ground truth labels for broadcast videos, we train a neural network solely on synthetic data. Due to the choice of our input data representation, physically correct synthetic training data, and using targeted augmentations, the network naturally generalizes to real data. Notably, these simple techniques are sufficient to achieve generalization. No real data at all is required for training. To the best of our knowledge, we are the first to present a method for spin and trajectory prediction in simple monocular broadcast videos, achieving an accuracy of 92.0% in spin classification and a 2D reprojection error of 0.19% of the image diagonal.

Suche