--- language: hu thumbnail: tags: - question-answering - bert widget: - text: "Melyik folyó szeli ketté Budapestet?" context: "Magyarország fővárosát, Budapestet a Duna folyó szeli ketté. A XIX. században épült Lánchíd a dimbes-dombos budai oldalt köti össze a sík Pesttel. A Várdomb oldalában futó siklóval juthatunk fel a budai Óvárosba, ahol a Budapesti Történeti Múzeum egészen a római időkig visszavezetve mutatja be a városi életet. A Szentháromság tér ad otthont a XIII. századi Mátyás-templomnak és a Halászbástya lőtornyainak, amelyekből messzire ellátva gyönyörködhetünk a városban." - text: "Mivel juthatunk fel az Óvárosba?" context: "Magyarország fővárosát, Budapestet a Duna folyó szeli ketté. A XIX. században épült Lánchíd a dimbes-dombos budai oldalt köti össze a sík Pesttel. A Várdomb oldalában futó siklóval juthatunk fel a budai Óvárosba, ahol a Budapesti Történeti Múzeum egészen a római időkig visszavezetve mutatja be a városi életet. A Szentháromság tér ad otthont a XIII. századi Mátyás-templomnak és a Halászbástya lőtornyainak, amelyekből messzire ellátva gyönyörködhetünk a városban." --- ## MODEL DESCRIPTION huBERT base model (cased) fine-tuned on SQuAD v1 - huBert model + Tokenizer: https://huggingface.co./SZTAKI-HLT/hubert-base-cc - Hungarian SQUAD v1 dataset: Machine Translated SQuAD dataset (Google Translate API) - This is a demo model. Date of publication: 2022.03.27. ## Model in action - Fast usage with pipelines: ```python from transformers import pipeline qa_pipeline = pipeline( "question-answering", model="mcsabai/huBert-fine-tuned-hungarian-squadv1", tokenizer="mcsabai/huBert-fine-tuned-hungarian-squadv1" ) predictions = qa_pipeline({ 'context': "Anita vagyok és Budapesten élek már több mint 4 éve.", 'question': "Hol lakik Anita?" }) print(predictions) # output: # {'score': 0.9892364144325256, 'start': 16, 'end': 26, 'answer': 'Budapesten'} ```