💨👁️ Vikhr-2-VL-2b-Instruct-experimental
Vikhr-2-VL-2b-Instruct-experimental — это компактная VLM модель на базе Qwen2-VL-2B-Instruct, обученная на переведенном датасете LLAVA-150K, специально доученная для обработки на русском языке. Дообученная модель является эксперементальной и не всегда будет работать ожидаемо (особенно OCR). Для обратной связи используйте Vikhr Models
Попробовать / Try now:
Авторы / Authors
- Nikolay Kompanets, LakoMoor, Vikhr Team
- Sergey Bratchikov, NlpWonder, Vikhr Team
- Konstantin Korolev, underground, Vikhr Team
- Aleksandr Nikolich, Vikhr Team
@inproceedings{nikolich2024vikhr,
title={Vikhr: Constructing a State-of-the-art Bilingual Open-Source Instruction-Following Large Language Model for {Russian}},
author={Aleksandr Nikolich and Konstantin Korolev and Sergei Bratchikov and Nikolay Kompanets and Igor Kiselev and Artem Shelmanov },
booktitle = {Proceedings of the 4rd Workshop on Multilingual Representation Learning (MRL) @ EMNLP-2024}
year={2024},
publisher = {Association for Computational Linguistics},
url={https://arxiv.org/pdf/2405.13929}
}
- Downloads last month
- 290
Inference API (serverless) does not yet support transformers models for this pipeline type.