MARTINI_enrich_BERTopic_Turk_Lobisi
This is a BERTopic model. BERTopic is a flexible and modular topic modeling framework that allows for the generation of easily interpretable topics from large datasets.
Usage
To use this model, please install BERTopic:
pip install -U bertopic
You can use the model as follows:
from bertopic import BERTopic
topic_model = BERTopic.load("AIDA-UPM/MARTINI_enrich_BERTopic_Turk_Lobisi")
topic_model.get_topic_info()
Topic overview
- Number of topics: 7
- Number of training documents: 915
Click here for an overview of all topics.
Topic ID | Topic Keywords | Topic Frequency | Label |
---|---|---|---|
-1 | bakanı - cumhurbaskanı - erdogan - devlet - kanalımızda | 21 | -1_bakanı_cumhurbaskanı_erdogan_devlet |
0 | yasadıgı - kızı - sanlıurfa - kanalımıza - denizli | 521 | 0_yasadıgı_kızı_sanlıurfa_kanalımıza |
1 | sıgınmacılar - kanalımızı - izmir - gideceksiniz - dunyanın | 102 | 1_sıgınmacılar_kanalımızı_izmir_gideceksiniz |
2 | cumhuriyet - eskisehir - karamahmutoglu - partisi - bassavcılıgı | 88 | 2_cumhuriyet_eskisehir_karamahmutoglu_partisi |
3 | ilahiyatcı - cumhuriyet - mehmed - dusmanlıgın - aksaray | 63 | 3_ilahiyatcı_cumhuriyet_mehmed_dusmanlıgın |
4 | israilogullarına - muslumanlar - hamas - yahudiler - netanyahu | 62 | 4_israilogullarına_muslumanlar_hamas_yahudiler |
5 | saglayamamaları - uygulamasında - mulakatsız100binogretmen - instagram - hashtagi | 58 | 5_saglayamamaları_uygulamasında_mulakatsız100binogretmen_instagram |
Training hyperparameters
- calculate_probabilities: True
- language: None
- low_memory: False
- min_topic_size: 10
- n_gram_range: (1, 1)
- nr_topics: None
- seed_topic_list: None
- top_n_words: 10
- verbose: False
- zeroshot_min_similarity: 0.7
- zeroshot_topic_list: None
Framework versions
- Numpy: 1.26.4
- HDBSCAN: 0.8.40
- UMAP: 0.5.7
- Pandas: 2.2.3
- Scikit-Learn: 1.5.2
- Sentence-transformers: 3.3.1
- Transformers: 4.46.3
- Numba: 0.60.0
- Plotly: 5.24.1
- Python: 3.10.12
- Downloads last month
- 5
Inference Providers
NEW
This model is not currently available via any of the supported third-party Inference Providers, and
the model is not deployed on the HF Inference API.