Danoliterate LlaMa 7B

Modellen "Danoliterate LlaMa 7B" er en stor sprogmodel tilpasset fra Meta AI's LlaMa 2 7B på en blanding af dansk data. Modellen har 7 milliarder parametre og er en basismodel, der ikke er tilpasset samtalebrug. Modellen er et foreløbigt forskningsprodukt og kræve mere evaluering og tilpasning for fremtidig brug.

Data og Distribution(er)

Yderligere info test

Felt Værdi
Destinationsside https://huggingface.co/sorenmulli/dano-llama-7b-0.1
Forfatter Søren Vejlgaard Holm
Vedligeholdes af Søren Vejlgaard Holm
Metadata sidst opdateret oktober 10, 2024, 09:46 (UTC)
Metadata oprettet september 24, 2024, 10:49 (UTC)
Emne Sprog og retskrivning Uddannelse, kultur og sport
Kontaktnavn Søren Vejlgaard Holm
Opdateret 2024-01-15
Opdateringsfrekvens uregelmæssig
Sprog dansk
URI https://data.gov.dk/dataset/lang/86c78167-3a82-468e-bb3c-0afeb4943c21
Udgivelsesdato 2024-01-15
contact_mail swiho@dtu.dk
datastatement https://huggingface.co/sorenmulli/dano-llama-7b-0.1/blob/main/README.md
type https://data.gov.dk/concept/core/lang-ressource-type/Tool