File size: 4,798 Bytes
6fc49d9 3e3c7ff fb6ac86 a297ee8 fb6ac86 ef1e772 3d303d4 1f9f283 45290a2 1f9f283 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 |
---
license: mit
language: fa
tags:
- summarization
widget:
- text: |
به گزارش شانا به نقل از شرکت پالایش گاز شهید هاشمی نژاد، جمعی از کارشناسان
این پالایشگاه با هدف معرفی محصول کود گوگرد بنتونیتی به کشاورزان در
شانزدهمین نمایشگاه تخصصی کشاورزی، دام، طیور، ماشین آلات و صنایع وابسته در
اردبیل حضور پیدا کردند و به معرفی دستاوردهای این شرکت پرداختند. بر اساس
این گزارش، دشت مغان قطب کشاورزی در منطقه اردبیل است و بیش از ۸۵ هزار هکتار
زمین کشاورزی دارد که همه آنها نیاز به استفاده از کود گوگرد بنتونیتی دارند،
به همین دلیل، کارشناسان پالایشگاه گاز هاشمی نژاد در راستای توسعه بازار و
معرفی محصولات جانبی پالایشگاه (کود گوگرد بنتونیتی) به بازار داخلی در این
نمایشگاه حضور یافتند. شرکت در این نمایشگاه سبب شد تعداد زیادی از بازرگانان
ایرانی فعال در حوزه گوگرد ضمن دیدار از غرفه شرکت پالایش گاز شهید هاشمی
نژاد خواستار خرید محصول کود گوگرد بنتونیتی این مجتمع گازی شوند. شرکت
پالایش گاز شهید هاشمی نژاد در کنار رسالت اصلی خود مبنی بر تامین گاز
مشترکان شمال و شمال شرق کشور، محصولات جانبی ارزشمند مانند گوگرد را تولید
می کند، به گونه ای که اکنون با تولید روزانه بیش از ۲ هزار تن گوگرد مذاب،
تولید روزانه ۶۰۰ تن گوگرد بنتونیتی (مطابق نیاز بازار) و تولید سالانه بیش
از ۲۰ هزار تن گوگرد بنتونیتی، بزرگ ترین تولیدکننده گوگرد در کشور است. کود
گوگرد بنتونیتی نیز در راستای ارتقای کیفی خاک و تامین عناصر مورد نیاز رشد
گیاهان تاثیری بسزا در بازده تولید محصولات کشاورزی دارد. کود گوگرد بنتونیتی
تولیدی پالایشگاه هاشمی نژاد، با استانداردهای جهانی تولید شده و جایگاه خود
را در بازارهای داخلی و خارجی کسب کرده است. مطابق برنامه ریزی های انجام شده
و بررسی روند رو به رشد مصرف این کود در بازار، پیش بینی می شود میزان مصرف
کود گوگرد بنتونیتی تا پنج سال آینده به ۱۰۰ هزار تن در سال برسد.
example_title: Example 1
---
# mT5 Persian Summary
This model is fine-tuned to generate summaries based on the input provided. It has been fine-tuned on a wide range of Persian news data, including [BBC news](https://huggingface.co./datasets/csebuetnlp/xlsum) and [pn_summary](https://huggingface.co./datasets/pn_summary).
## Usage
```python
from transformers import AutoModelForSeq2SeqLM, MT5Tokenizer
model = AutoModelForSeq2SeqLM.from_pretrained('nafisehNik/mt5-persian-summary')
tokenizer = MT5Tokenizer.from_pretrained("nafisehNik/mt5-persian-summary")
# method for summary generation, using the global model and tokenizer
def generate_summary(model, abstract, num_beams = 2, repetition_penalty = 1.0,
length_penalty = 2.0, early_stopping = True, max_output_length = 120):
source_encoding=tokenizer(abstract, max_length=1000, padding="max_length", truncation=True, return_attention_mask=True, add_special_tokens=True, return_tensors="pt")
generated_ids=model.generate(
input_ids=source_encoding["input_ids"],
attention_mask=source_encoding["attention_mask"],
num_beams=num_beams,
max_length=max_output_length,
repetition_penalty=repetition_penalty,
length_penalty=length_penalty,
early_stopping=early_stopping,
use_cache=True
)
preds=[tokenizer.decode(gen_id, skip_special_tokens=True, clean_up_tokenization_spaces=True)
for gen_id in generated_ids]
return "".join(preds)
text = "YOUR INPUT TEXT"
result = generate_summary(model=model, abstract=text, num_beams=2, max_output_length=120)
```
## Citation
If you find this model useful, make a link to the huggingface model.
|