--- language: sv widget: - text: "Jag har ätit en " --- ## KB-BART **EXPERIMENTAL:** still work in progress. BART trained on Swedish data. ## Usage ```python from transformers import BartForConditionalGeneration, PreTrainedTokenizerFast from transformers import pipeline model = BartForConditionalGeneration.from_pretrained("KBLab/bart-base-swedish-cased") tok = PreTrainedTokenizerFast( tokenizer_file="tokenizer.json", bos_token="", eos_token="", unk_token="", pad_token="", mask_token="", cls_token="", sep_token="", ) model.eval() input_ids = tok.encode( "Jag har ätit en utsökt på restaurang vid .", return_tensors="pt" ) # Simple greedy search output_ids = model.generate( input_ids, min_length=15, max_length=25, num_beams=1, do_sample=False, ) tok.decode(output_ids[0]) # ' Jag har ätit en utsökt middag på restaurang vid havet på restaurang vid havet på restaurang vid havet.' # Sampling output_ids = model.generate( input_ids, min_length=15, max_length=20, num_beams=1, do_sample=True, ) tok.decode(output_ids[0]) #' Jag har ätit en utsökt god mat som de tagit in på restaurang vid avröjda' # Beam search output_ids = model.generate( input_ids, min_length=15, max_length=25, no_repeat_ngram_size=3, num_beams=8, early_stopping=True, do_sample=True, num_return_sequences=6 ) tok.decode(output_ids[0]) # ' Jag har ätit en utsökt middag på restaurang vid havet. Jag har varit ute och gått en sväng.' # Diverse beam generation output_ids = model.generate( input_ids, min_length=50, max_length=100, no_repeat_ngram_size=3, num_beams=8, early_stopping=True, do_sample=False, num_return_sequences=6, num_beam_groups=6, diversity_penalty=2.0, ) tok.decode(output_ids[0]) # ' Jag har ätit en utsökt middag på restaurang vid havet. Jag har varit ute och gått en sväng.' ```