dida stellte zwei Papers auf der NeurIPS 2022 vor


News

Wir freuen uns, mitteilen zu können, dass dida zwei Paper zur diesjährigen Conference on Neural Information Processing Systems (NeurIPS) in New Orleans beigesteuert hat. Die NeurIPS ist eine der größten und wichtigsten Konferenzen zu Innovationen im maschinellen Lernen und verwandten Themen.

Nach einem Beitrag in Form eines akzeptierten Papers im Jahr 2020 (sowie ICML-Papers in den Jahren 2021 und 2022) haben dida-Mitarbeiter in diesem Jahr ein Paper und eine Workshop-Präsentation ("An optimal control perspective on diffusion-based generative modeling") über diffusionsbasierte generative Modelle sowie ein Paper mit Präsentation ("Optimal rates for regularized conditional mean embedding learning") über nichtparametrische Statistik zur NeurIPS beigesteuert. Wir sind stolz darauf, dass es der dida gelungen ist, sich unter international renommierten Forschern von führenden Universitäten und Technologieunternehmen zu behaupten. Von den 9634 eingereichten Beiträgen wurden 2672 (27,7%) angenommen und nur 184 (1,9%) erhielten einen Vortrag.

Der Beitrag "An optimal control perspective on diffusion-based generative modeling" stellt eine Verbindung zwischen stochastischer optimaler Steuerung und diffusionsbasierten generativen Modellen her. Diese Perspektive erlaubt es, Methoden aus der Stuerungstheorie auf generative Modelle zu übertragen und z.B. eine “evidence lower bound” als direkte Folge des bekannten Verifikationssatzes aus der Kontrolltheorie abzuleiten. Darüber hinaus wird eine neuartige diffusionsbasierte Methode zum Sampling aus unnormalisierten Dichten entwickelt - ein Problem, das in der Statistik und in den Naturwissenschaften häufig auftritt.

Die Arbeit "Optimal rates for regularized conditional mean embedding learning" löst zwei offene Probleme im Zusammenhang mit einem häufig verwendeten nichtparametrischen Regressionsmodell: Wir beweisen Konvergenzraten für eine Situation, in der das Modell falsch spezifiziert ist (was bedeutet, dass die Grundwahrheit nicht analytisch durch das Modell dargestellt werden kann) sowie untere Schranken für die Konvergenzraten aller Lernalgorithmen, die das zugrundeliegende allgemeine Problem lösen. Insgesamt liefern diese Ergebnisse Bedingungen, unter denen die Konvergenzgeschwindigkeit des untersuchten Modells von keinem anderen Modell, das das Problem löst, übertroffen werden kann.