Ælæctra

Ælæctra er en transformer-baseret NLP sprogmodel, der er udarbejdet ved at benytte prætræningsmetoden ELECTRA-Small på The Danish Gigaword Projects datasæt (Der henvises til Gigaword på http://www.gigaword.dk/ eller https://arxiv.org/abs/2005.03521). Den er trænet ved at optimere på tværs af samtlige ord modellen processerer i stedet for at optimere på enkelte ord. Dette betyder, at Ælæctra kræver langt færre ressourcer på træning og processering end tidligere NLP-modeller, hvilket stiller færre krav til hardware og mindsker energiforbruget. Yderligere, så tilføjer brugen af The Danish Gigaword Corpus, at Ælæctra har en bred repræsentation af det danske sprog, og at Ælæctra ikke har uheldige diskriminatoriske tendenser, som tidligere er set i sprogmodeller.

Data og Distribution(er)

Yderligere info test

Felt Værdi
Destinationsside https://github.com/MalteHB/-l-ctra
Metadata sidst opdateret december 7, 2022, 11:47 (UTC)
Metadata oprettet januar 27, 2021, 13:01 (UTC)
Kontaktemail hjb@kmd.dk
Kontaktnavn Malte Højmark-Bertelsen
Metadata oprettet 29-01-2021
Opdateringsfrekvens kontinuerlig
URI https://data.gov.dk/dataset/lang/918158b9-ac6b-4484-a44a-4e3de386dfca
Udgivernavn Malte Højmark-Bertelsen
type https://data.gov.dk/concept/core/lang-resource-type/Tool