DanskGPT-tiny

DanskGPT-tiny er en 1,1 milliard parametre LLaMA baseret LLM. Træningen er en fortsættelse af TinyLLaMA.

Modellen er trænet på 8 milliarder tokens af dansk syntetisk tekst.

Denne model er en såkaldt "foundation/completion" model, og er derfor ikke beregnet til at chatte med.

Data og Distribution(er)

Yderligere info test

Felt Værdi
Destinationsside https://huggingface.co/mhenrichsen/danskgpt-tiny
Metadata sidst opdateret februar 19, 2024, 11:31 (UTC)
Metadata oprettet januar 16, 2024, 13:13 (UTC)
Emne Sprog og retskrivning Uddannelse, kultur og sport
GUID c0f7cf7d-8de8-4282-928e-5572407e428c
Kontaktemail mads.gade.henrichsen@live.dk
Opdateret 2024-01-13
Opdateringsfrekvens ubekendt
Publisher Mads Henrichsen
Sprog dansk
URI https://data.gov.dk/dataset/lang/c0f7cf7d-8de8-4282-928e-5572407e428c
Udgivelsesdato 2024-01-03
Dokumentation