NERDA

NERDA' er et værktøj (udgivet som Python-pakke) til at fine-tune NLP transformer-modeller til at identificere personer, organisationer, lokationer m.m. i tekster (=Named-Entity Recognition(NER)). 'NERDA' gør det muligt at fine-tune en hvilken som helst transformer til et hvilket som helst NER-datasæt på et hvilket som helst sprog, herunder specielt dansk. 'NERDA' indeholder desuden to præ-trænede modeller til Named-Entity Recognition på dansk, hhv. ELECTRA og BERT fine-tunet på DaNE-datasættet.

Data og Distribution(er)

Yderligere info

Felt Værdi
Destinationsside https://github.com/ebanalyse/NERDA
Metadata sidst opdateret Marts 30, 2021, 13:38 (UTC)
Metadata oprettet Februar 1, 2021, 09:34 (UTC)
Kontaktemail lars.kjeldgaard@eb.dk
Kontaktnavn Lars Kjeldgaard
Opdateringsfrekvens http://publications.europa.eu/resource/authority/frequency/CONT
URI https://data.gov.dk/dataset/lang/c41d0900-b519-4bf0-8354-262480a6cea1
Udgivelsesdato 2021-01-26
Udgivernavn Ekstra Bladet, Platform Intelligence in News (PIN)
datastatement Den bagvedliggende kode til 'NERDA' er frit tilgængelig på https://github.com/ebanalyse/NERDA, hvor også performance for de prætrænede modeller er dokumenteret. De præ-trænede danske modeller bygger på DaNE-datasættet, der er beskrevet her: https://github.com/alexandrainst/danlp/blob/master/docs/docs/datasets.md#dane.
Dokumentation
usage "Named-entity Recognition"