Edit model card

HestenettetLM

En dansk LLM trænet på hele hestenettet over 3 epoker.

Modellen er baseret på Mistral 7b, og har et kontekstvindue på 8k.

from transformers import AutoTokenizer, TextStreamer, AutoModelForCausalLM

model = AutoModelForCausalLM.from_pretrained("mhenrichsen/hestenettetLM")
tokenizer = AutoTokenizer.from_pretrained("mhenrichsen/hestenettetLM")
streamer = TextStreamer(tokenizer, skip_special_tokens=True)


tokens = tokenizer(
    "Den bedste hest er en ", 
    return_tensors='pt'
)['input_ids']

# Generate output
generation_output = model.generate(
    tokens,
    streamer=streamer,
    max_length = 8194,
)

Eksempel: "Den bedste hest er en " bliver til: "Den bedste hest er en veltrænet hest."

Downloads last month
710
Safetensors
Model size
7.24B params
Tensor type
FP16
·
Inference Examples
Inference API (serverless) is not available, repository is disabled.

Dataset used to train mhenrichsen/hestenettetLM

Spaces using mhenrichsen/hestenettetLM 3