RøBÆRTa

RøBÆRTa er en dansk præ-trænet Roberta sprogmodel. RøBÆRTa er blevet trænet på det danske mC4 datasæt i forbindelse med flax community week. Modellen er trænet til at gætte et skjult eller maskeret ord i en sætning.

Projektet er organiseret og gennemført af Dansk Data Science Community, som du kan læse mere om her: https://www.linkedin.com/groups/9017904/

Data og Distribution(er)

Yderligere info

Felt Værdi
Destinationsside https://huggingface.co/flax-community/roberta-base-danish
Metadata sidst opdateret september 8, 2021, 11:40 (UTC)
Metadata oprettet september 8, 2021, 09:52 (UTC)
Emne Sprog og retskrivning Uddannelse, kultur og sport
Kontaktemail hjb@kmd.dk
Kontaktnavn Malte Højmark-Bertelsen
Sprog dansk
URI https://data.gov.dk/dataset/lang/cd9dd3cd-4002-4ee4-82ad-d7f776e862dc
Udgivelsesdato 2021
Type https://data.gov.dk/concept/core/lang-resource-type/Tool
Udgiver Malte Højmark-Bertelsen, Dan Saattrup Nielsen, Kasper Junge, Morten Kloster Pedersen, Per Kummervold og Birger Moëll