Nächster Vortrag: Word Embeddings und Distributional Semantics

Nächster Vortrag: Word Embeddings und Distributional Semantics

por Samuel Wolf -
Número de respostas: 0

Hallo zusammen,

Large Language Models sind heutzutage in aller Munde, aber wie schaffen es KI-Systeme wie ChatGPT eigentlich, Sprache zu verstehen und sinnvoll zu verarbeiten? Am Ende sind sie ja doch nur 'stochastische Papageien', die auf einer riesigen Menge von Textdaten trainiert wurden.
Zu den grundlegenden Techniken Computern Sprache beizubringen, gehören Word Embeddings und Distributional Semantics. Anton Ehrmanntraut wird uns in seinem Vortrag einen Überblick darüber geben, wie Künstliche Intelligenz Bedeutungen aus Kontexten lernt und wie dies die Verarbeitung natürlicher Sprache in den letzten Jahren möglich gemacht hat. 
Der Vortrag findet am 05.02. um 18:00 Uhr im Übungsraum II statt. Natürlich bestellen wir wieder gemeinsam Pizza. 
Kommt vorbei!

Tino & Samuel