NB-BERT

"NB-BERT-base is a general BERT-base model built on the large digital collection at the National Library of Norway.

This model is based on the same structure as BERT Cased multilingual model, and is trained on a wide variety of Norwegian text (both bokmål and nynorsk) from the last 200 years."

Modellen har også vist sig anvendelig på andre sprog, fx dansk. Se eksempelvis sammenligning af modeller på ScandEval.

Data og Distribution(er)

Yderligere info

Felt Værdi
Destinationsside https://github.com/NBAiLab/notram
Metadata sidst opdateret maj 17, 2022, 07:48 (UTC)
Metadata oprettet maj 4, 2022, 07:21 (UTC)
Emne Sprog og retskrivning Uddannelse, kultur og sport
GUID d9f23fd3-b33f-4b88-acfb-1418c1f66964
Kontaktemail ai-lab@nb.no
Kontaktnavn Nasjonalbiblioteket Norge AI-Lab
Opdateret 11-03-2021
Sprog dansk http://publications.europa.eu/resource/authority/language/NOR
URI https://data.gov.dk/dataset/lang/d9f23fd3-b33f-4b88-acfb-1418c1f66964
Udgivelsesdato 13-01-2021
Dokumentation
Udgiver Nasjonalbiblioteket Norge AI-Lab