Lunchlezing NOTaS over Big Models
Beschrijving
Inloop | 11:30 - 12:00 |
Lezing | 12:00 - 13:00 |
Lunch | 13:00 - 14:00 |
Locatie | Zaal E2.12, 2e verdieping hoogbouw, Erasmusgebouw Erasmusplein 1 Nijmegen |
Bereikbaarheid | https://www.ru.nl/opleidingen/studeren-radboud/campus-en-faciliteiten-radboud-universiteit/gebouwen/erasmusgebouw/ |
Grote modellen': het succes en de valkuilen van Transformer-modellen in natuurlijke taalverwerking
Naar aanleidng van de laatste DIXIT 2022 is er een lunchlezing door gast-hoofdredacteur Suzan Verberne over "Big Models in de TST-wereld".
Hoewel de Transformermodellen al sinds een jaar of vijf hun intrede hebben gemaakt, zijn ze voor het grote publiek pas bekend geworden door de indrukwekkende tekstgeneratie van bijvoorbeeld GPT-3 en ChatGPT. Zoals je in de laatste DIXIT kunt lezen, lijken de toepassingen van deze modellen in de TST eindeloos en presteren ze vaak ver boven traditionele, ouderwetse modellen.
Ze zijn ook makkelijk te gebruiken voor leken en zijn daarom een belangrijke factor in het gebruiksvriendelijk maken van TST.
Abstract
Grote taalmodellen krijgen tegenwoordig veel aandacht in de media. We hebben allemaal ervaren dat generatieve taalmodellen van de GPT-familie zeer vloeiend zijn en op overtuigende wijze complexe vragen kunnen beantwoorden. Maar ze hebben ook hun beperkingen en valkuilen. In deze presentatie zal ik op Transformer gebaseerde taalmodellen introduceren, de relatie uitleggen tussen BERT, GPT en de 130 duizend andere modellen die beschikbaar zijn op https://huggingface.co.
Ik zal hun gebruik en toepassingen bespreken en waarom ze zo krachtig zijn. Vervolgens zal ik wijzen op de uitdagingen en valkuilen van grote taalmodellen en de gevolgen voor ons dagelijks werk en onderwijs.
Biografie
Suzan Verberne is universitair hoofddocent aan het Leiden Institute of Advanced Computer Science. Ze promoveerde in 2010 op het onderwerp Question Answering aan de Radboud Universiteit en werkt sindsdien op het snijvlak tussen Natural Language Processing (NLP) en Information Retrieval (IR). Ze heeft projecten begeleid in een groot aantal toepassingsdomeinen: van sociale media tot recht en van archeologie tot gezondheid. Haar onderzoek is erop gericht NLP "voorbij de benchmark" te brengen door uitdagende problemen in specifieke domeinen aan te pakken. Ze is zeer actief in de NLP- en IR-gemeenschappen en bekleedt voorzittersfuncties in de grote wereldwijde conferenties.
Kortom
Een veel belovende bijeenkomst!
Voor meer zinvolle informatie, zie: https://communities.surf.nl/ai-in-education/artikel/chatgpt-verzameling-bronnen
Inschrijven kan hieronder gedaan worden.