Skip to main content

1 datasæt fundet

Licenser: Apache License 2.0 Formater: http://publications.europa.eu/resource/authority/file-type/BIN

Filtrér resultater
  • DanskGPT-Tiny

    DanskGPT-tiny er en 1,1 milliard parametre LLaMA baseret LLM. Træningen er en fortsættelse af TinyLLaMA. Modellen er trænet på 8 milliarder tokens af dansk syntetisk tekst....