1 ressource fundet

Formater: BIN Organisationer: Øvrige Tags: llm

Filtrér resultater
  • DanskGPT-tiny er en 1,1 milliard parametre LLaMA baseret LLM. Træningen er en fortsættelse af TinyLLaMA. Modellen er trænet på 8 milliarder tokens af dansk syntetisk tekst....
    • BIN