Ressourcer Om Søg Sortér efter Relevans Navn stigende Navn faldende Sidst modificeret Go 1 ressource fundet Tags: danskgpt foundation llm Filtrér resultater DanskGPT-tiny DanskGPT-tiny er en 1,1 milliard parametre LLaMA baseret LLM. Træningen er en fortsættelse af TinyLLaMA. Modellen er trænet på 8 milliarder tokens af dansk syntetisk tekst.... BIN