File size: 2,153 Bytes
39fa286 806ad41 d329871 806ad41 d329871 806ad41 d329871 39fa286 d329871 39fa286 ec7bbcf 095716c ec7bbcf 095716c ec7bbcf 095716c ec7bbcf 095716c a06b020 095716c 39fa286 796c2c6 68e574a 796c2c6 4372e67 796c2c6 f5a4632 796c2c6 39fa286 753ffcc 3acf69b 753ffcc 7c5289a 3acf69b a827106 3acf69b 7c5289a 753ffcc 3acf69b f548eec |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 |
---
dataset_info:
features:
- name: uuid
dtype: string
- name: url
dtype: string
- name: title
dtype: string
- name: html_content
dtype: string
splits:
- name: zh
num_bytes: 4667272633
num_examples: 39850
- name: en
num_bytes: 8180560380
num_examples: 67374
- name: ar
num_bytes: 4456751663
num_examples: 35807
- name: ru
num_bytes: 4311781034
num_examples: 34774
- name: es
num_bytes: 5336518150
num_examples: 44877
- name: fr
num_bytes: 5709424711
num_examples: 46756
download_size: 0
dataset_size: 32662308571
---
# Dataset Card for "UN Sitemap Multilingual HTML Corpus"
## Update Time +8:00 2023-3-23 17:25:20
## Dataset Summary
此数据集是从联合国网站提供的的sitemap中爬取的,包含了各种语言的HTML文件,并按照语言进行分类。数据集包含了不同语言的文章、新闻等联合国文本。数据集旨在为研究人员、学者和语言技术开发人员提供一个多语言文本集,可用于各种自然语言处理任务和应用。
数据集包括以下语言:汉语(zh)、英语(en)、西班牙语(ar)、俄语(ru)、西班牙语(es)、法语(fr)。
## Dataset Structure
### Data Instances
- **数据集文件大小:** 约 14 GB
一个 'zh' 的例子如下:
```
{
'uuid': 'a154688c-b385-4d2a-bec7-f239f1397d21',
'url': 'https://news.un.org/zh/gallery/287612',
'title': '印度尼西亚承诺到2022年消除一切形式的童工现象',
'html_content': '<!DOCTYPE html> <html lang="zh-hans" ...'
}
```
# How to use
```python
from datasets import load_dataset
import datasets
dataset = load_dataset('ranWang/UN_Sitemap_Multilingual_HTML_Corpus')
# lang_list = ['zh', 'en', 'fr', 'es', 'ru', 'ar']
for lang in dataset:
for colum in dataset[lang]:
# colum.keys = ['uuid', 'url', 'title', 'html_content']
# code...
OR
# you want to specify the language
dataset = load_dataset('ranWang/UN_Sitemap_Multilingual_HTML_Corpus', split={lang})
for colum in dataset:
# colum.keys = ['uuid', 'url', 'title', 'html_content']
# code...
``` |