Fill-Mask
Transformers
PyTorch
Japanese
bert
Inference Endpoints
Edit model card

output

筑波 2.0035860538482666
つくば 1.6586617231369019
研究 1.6227693557739258
大学 1.3798155784606934
実験 0.5522942543029785
学生 0.42351895570755005
分析 0.37844282388687134
国立 0.3685397505760193
キャンパス 0.36495038866996765
茨城 0.3056415021419525
科学 0.2876652181148529
関東 0.24301066994667053
地域 0.21340851485729218
実施 0.1976248174905777
先端 0.192025288939476
サイト 0.11629197001457214
調査 0.09159307181835175
プロジェクト 0.08552580326795578
議論 0.07484486699104309
検討 0.007034890353679657
Downloads last month
7
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Datasets used to train aken12/splade-japanese-efficient