--- tags: - generated_from_keras_callback model-index: - name: arabert-sarcasm-detector results: [] license: afl-3.0 language: - ar metrics: - accuracy - F1 score - precession - recall pipeline_tag: text-classification widget: - text: بعد أن حصل الطالب على شهادة الليسانس بدأ فى تحضير الماجستير. example_title: NonSarc 01 - text: >- بعد أن حصل على الليسانس بدأ فى تحضيرالماجستير .وبعد أن حصل على الماجستير بدأ فى «تحضير» الشاى للزبائن. example_title: Sarc 01 - text: ' .جمع كلمة امراءة هي كلمة نساء' example_title: NonSarc 02 - text: .جمع كلمة امراءة هي كلمة نساء. حتى اللغة مش قادرة عليهم هههههههه example_title: Sarc 02 - text: .للجامعة العربية موقفا كبيرا example_title: NonSarc 03 - text: ' للجامعة العربية للانصاف موقفاَ كبيراَ !!!!! يتسع لاكثر من الف سيارة امام المبنى , هاهاها ' example_title: Sarc 03 - text: '!!هو أنت كدة عايش؟ يا بني دا أنت ميت بالحياة' example_title: Sarc 04 - text: شهر أكتوبر ده شهر عسل بجد مبيجبش ليا فيه غير الاكتئاب كل سنه example_title: Sarc 05 - text: ' فى ناس زى النسكافيه ثلاثة فى واحد يتكلموا معاك وعنك وعليك' example_title: Sarc 06 - text: ' في ناس زي النسمة روحهم خفيفية و وجدهم يشرح الصدر. اهلا و سهلا بكم . اسعدنا مروركم من هنا. ' example_title: NonSarc 06 datasets: - MohamedGalal/ArSarcasT base_model: - aubmindlab/bert-base-arabertv02 library_name: adapter-transformers --- # arabert-sarcasm-detector This model is a fine-tuned aubmindlab/bert-base-arabertv02-twitter that was fine-tuned on the ArSarcasT dataset. It achieves the following results on the evaluation set: | Eval Datatset| Accuracy | F1 | Precession | Recall| | :----- | :---: | :---: | :---: | :---: | |ArSarcasT |0.839 | 0.730 | 0.743 | 0.761 | |iSarcasmEVAL |0.897 | 0.633 | 0.646 | 0.620 | |AraSarcasmV2 |0.769 | 0.553 | 0.587 | 0.523 | |IDAT |0.807 | 0.807 | 0.775 | 0.842 | ## Model description Fine-tuned aubmindlab/bert-base-arabertv02-twitter on Sarcastic tweets dataset for sarcasm detection text classification. ## Intended uses & limitations More information needed ## Training and evaluation data - Training dataset: ArSarcasT development split. - Evaluation Datasets: - ArSarcasm-v2 test dataset. - iSarcasmEVAL test dataset. - ArSarcasT test dataset. ## Training procedure Fine-tuning, 3 epochs. ### Training hyperparameters The following hyperparameters were used during training: - optimizer: None - training_precision: float32 ### Training results ### Framework versions - Transformers 4.28.1 - TensorFlow 2.12.0 - Tokenizers 0.13.3 ## Paper Citation If you use this fine-tuned model based on the original ARABERT model, please cite the following paper: Galal, M. A., Yousef, A. H., Zayed, H. H., & Medhat, W. (2024). Arabic sarcasm detection: An enhanced fine-tuned language model approach. Ain Shams Engineering Journal, 15(6), 102736. https://doi.org/10.1016/j.asej.2024.102736 ### Dataset Repo https://github.com/Mabdelaziz/ArSarcasT