Skip to main content

3 datasæt fundet

Udgivere: Syv.ai

Filtrér resultater
  • DanskGPT-Tiny

    DanskGPT-tiny er en 1,1 milliard parametre LLaMA baseret LLM. Træningen er en fortsættelse af TinyLLaMA. Modellen er trænet på 8 milliarder tokens af dansk syntetisk tekst....
  • Context-Aware-Splits

    Datasæt genereret vh.a. DanskGPT og brugt til at træne modellen Context-Aware-Splitter. Context-aware-splitter er en model til retrieval augmented generation. Modellen er...
  • Hviske v2

    Hviske v2 er en state of the art dansk transskriptionsmodel der er trænet af syv.ai. Modellen er gratis at bruge, men sørg for at være opmærksom på at brugen falder indenfor...