Åben menu
Gå til indhold
Gå til startsiden
ressourcer
Nyheder
Anvendelse
Anbefalede standarder
Det Centrale Ordregister
Organisationer
Generiske NLP værktøjer
Andre kataloger
Om
Optagelse i kataloget
Baggrund
Sprogressourcer
Generelle betingelser
Applikation og datamodel
Begrebsliste
Kontakt
FAQ
Hjem
Ressourcer
Søg
Sortér efter
Relevans
Navn stigende
Navn faldende
Sidst modificeret
Go
1 ressource fundet
Licenser:
Apache License 2.0
Tags:
foundation
Filtrér resultater
DanskGPT-tiny
DanskGPT-tiny er en 1,1 milliard parametre LLaMA baseret LLM. Træningen er en fortsættelse af TinyLLaMA. Modellen er trænet på 8 milliarder tokens af dansk syntetisk tekst....
BIN