What do ChatGPT, DALL-E, and Sora have in common? They all rely on the same underlying mechanism, fitting a very large model on training data by minimizing a numerical criterion. In this lecture, we aim to understand how this simple idea can be so successful, with a little help from mathematics. We will start by introducing the building blocks of modern machine learning, with a focus on empirical risk minimization. We will then turn our attention to simple instantiation of this framework, namely linear models, proving theoretical guarantees when we can.

Lectures take place on Fridays, 4pm-6pm, exercises on Fridays, 2pm-4pm, both in Room is SE 2 of the CAIDAS building

Evaluation of the course is a written exam at the end of the semester.   

------------------------------------------

Was haben ChatGPT, DALL-E und Sora gemeinsam? Sie beruhen alle auf demselben Mechanismus: Anpassung eines sehr großen Modells an die Trainingsdaten durch Minimierung eines numerischen Kriteriums. In dieser Vorlesung wollen wir verstehen, wie diese einfache Idee mit ein wenig Hilfe der Mathematik so erfolgreich sein kann. Wir beginnen mit einer Einführung in die Bausteine des modernen maschinellen Lernens, wobei der Schwerpunkt auf der empirischen Risikominimierung liegt. Anschließend werden wir uns einer einfachen Instanziierung dieses Rahmens zuwenden, nämlich linearen Modellen, und, wenn möglich, theoretische Garantien nachweisen. 

Die Vorlesungen finden freitags statt, 4-6, Übungen freitags, 2-4, beide in SE 2, CAIDAS Gebäude.

Die Bewertung des Kurses erfolgt durch eine schriftliche Prüfung am Ende des Semesters.   

Последнее изменение: понедельник, 16 сентября 2024, 18:24