NB-BERT

"NB-BERT-base is a general BERT-base model built on the large digital collection at the National Library of Norway.

This model is based on the same structure as BERT Cased multilingual model, and is trained on a wide variety of Norwegian text (both bokmål and nynorsk) from the last 200 years."

Modellen har også vist sig anvendelig på andre sprog, fx dansk. Se eksempelvis sammenligning af modeller på ScandEval.

Data og Distribution(er)

Yderligere info test

Felt Værdi
Destinationsside https://github.com/NBAiLab/notram
Metadata sidst opdateret december 7, 2022, 11:38 (UTC)
Metadata oprettet maj 4, 2022, 07:21 (UTC)
Emne Sprog og retskrivning Uddannelse, kultur og sport
GUID d9f23fd3-b33f-4b88-acfb-1418c1f66964
Kontaktemail ai-lab@nb.no
Kontaktnavn Nasjonalbiblioteket Norge AI-Lab
Opdateret 11-03-2021
Sprog dansk norsk
URI https://data.gov.dk/dataset/lang/d9f23fd3-b33f-4b88-acfb-1418c1f66964
Udgivelsesdato 13-01-2021
Dokumentation
Dataansvarlig organisation Nasjonalbiblioteket Norge AI-Lab