Datasets:

Modalities:
Text
Formats:
parquet
Libraries:
Datasets
Dask
License:
File size: 14,953 Bytes
928922d
 
 
 
 
 
 
 
 
 
7d2638d
 
928922d
 
7d2638d
 
 
 
928922d
 
 
 
 
 
60bc715
928922d
905c7b0
32c55a1
 
5e6aa8c
32c55a1
928922d
5e6aa8c
928922d
905c7b0
 
 
 
 
928922d
905c7b0
928922d
905c7b0
928922d
905c7b0
928922d
905c7b0
 
928922d
 
905c7b0
928922d
905c7b0
 
 
928922d
905c7b0
928922d
 
905c7b0
74d4f7f
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
928922d
905c7b0
928922d
905c7b0
 
77cf641
 
 
 
 
 
 
928922d
905c7b0
 
 
928922d
905c7b0
 
 
 
 
 
928922d
32c55a1
5e6aa8c
32c55a1
5e6aa8c
 
 
 
 
 
77cf641
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
32c55a1
60bc715
32c55a1
928922d
5e6aa8c
 
 
 
 
 
 
 
 
 
 
60bc715
 
 
 
 
 
 
 
 
 
90f2865
60bc715
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
90f2865
60bc715
 
 
 
90f2865
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
---
license: cc-by-nc-4.0
dataset_info:
  features:
  - name: text
    dtype: string
  - name: url
    dtype: string
  - name: access_date
    dtype: timestamp[s]
  - name: id
    dtype: string
  splits:
  - name: train
    num_bytes: 91725520293
    num_examples: 34841241
  download_size: 55561669764
  dataset_size: 91725520293
configs:
- config_name: default
  data_files:
  - split: train
    path: data/train-*
---
*Note: This document is available both in english and portuguese. The portuguese version can be found bellow the english one*

# Dataset Information
Aroeira is a curated corpus designed for training large language models in the Portuguese language. Most existing research focuses on high-resource
languages like English and Chinese, with considerable efforts made to develop multilingual corpora. However, there is a pressing need to develop large datasets for lower-resource languages. 
This works aims to make this gap smaller contributing for the development of state-of-art research in Portugues. The final corpus is a result from the combinated work of researchers in the Instituto de Ciência e Tecnologia Itaú-Unibanco (ICTi)
and the details about how it was made are described in the paper (paper link or name).

**Dataset developer:** Instituto de Ciência e Tecnologia Itaú-Unibanco (ICTi)

**Dataset Creation Architecture:** The corpus creation is divided into two main objectives, (i) collect (Data Pipeline) and (ii) ensure content
safety (Content Safety Pipeline). Our whole pipeline contains nine steps: data
collection and sampling, text extraction, language identification, deduplication,
and quality filters in Data Pipeline, and sexual content filter, toxic data filter,
bias filter, and categorization in Content Safety Pipeline 

**Supported languages:** Brazilian Portuguese (PT-BR) and Portuguese (PT-PT).

**Dataset Release Date:** October, 2024.

**Status:** The current corpus version, released October 2024, contains approximately 100GB, 35 millions documents and 15 billions tokens. 

# License
The corpus is published over the **cc-by-nc-4.0** license. Other information and the complete license can be found at the [Creative Commons](https://creativecommons.org/licenses/by-nc/4.0/deed.en)


# Intended Use

**Intended Use Case:** Aroeira is intended for research use in portuguese or multiple languages experiments setup. The use of the corpus for development of 
comercial products or any other comercicial use is not allowed. More details about the correct and permissible usage can be found 
in the license.

**Out-of-scope:** Use in any manner that violates applicable laws or regulations (including trade compliance laws). Use in any other way that is prohibited by the Acceptable Use Policy and the license by wich the corpus is published.


# Data Structure
The corpus is saved as o jsonl (json line) file, where each line contains all the information for the respectively entry divide into  4 fields. Bellow we presente a example of a data point in the corpus.

<pre>
  {"text": "Olá pessoal,\nNo MSDN temos vários exemplos de código utilizando as tecnologias do Windows Azure no Windows Azure Samples.Lá existe a possibilidade de filtrar os vários exemplos por versão do Visual Studio, linguagem de programação, quem criou ocódigo (Microsoft ou comunidade) como também pelas tecnologias (Windows Azure, Service Bus, Storage, SQL Azure, etc).\nUma opção interessante é a possibilidade de upload para enviar seu código de exemplo, você já enviou o seu?\nRG", 
  "url": "http://blogs.msdn.com/b/rafaelgodinho/archive/2011/12/21/v-225-rios-exemplos-de-c-243-digo-para-windows-azure.aspx", 
  "access_date": "2014-07-12T07:40:01Z", 
  "index": 0}
</pre>

**Fields:** 
  - Text: This field contains the plain text of the web page from where the data os crawled.
  - URL: The url from where the the text was obtained
  - Acess date: The acess date when Common Crawl crawled the data
  - Index: The index of each line

**Split:** The data is only split into train set.

**Data Freshness:** The available data has a cutoff of December 2023.

# How to use

**Use with datasets**

```py
from datasets import load_dataset
dataset = load_dataset("Itau-Unibanco/aroeira")
```


# Benchmark with other Portuguese datasets
Aroeira is, in our knowlegde, the largest dataset available for Portuguese language. 
In the table bellow we present the comparision with other well know Portuguese datasets.

|      Corpus      |   Size   |  #Documents |  #Tokens |
|:-----------------|:--------:|------------:|---------:|
| Aroeira          |   100GB  |   35.3 Mi   |  15.1 Bi |
| brWac            |    25GB  |   3.53 Mi   |  2.58 Bi |
| Carolina 1.2 Ada |    11GB  |   2.11 Mi   |  0.82 Bi |
 

# Responsibility & Safety
Our primary objective was to deliver a high-quality dataset, and the Content Safety pipeline was developed to uphold these standards. The pipeline consists of four steps: sexual content filtering, toxic data filtering, bias filtering, and categorization. Each step is crafted to address significant concerns that could affect the quality and integrity of models trained using the corpus.

The sexual content filter focuses on removing inappropriate sexual material, while the toxic filter takes a broader approach, removing content related to violence, sexism, and similar harmful elements. The bias filter addresses biases such as gender, race, and others.

As it was impractical to manually review the entire dataset, validation of filter efficiency was performed using sample data. Nonetheless, a small degree of contamination may still exist in the corpus. Users are responsible for reviewing and filtering out any potentially inappropriate content

  The corpus data is primarily sourced from [Common Crawl](https://commoncrawl.org/), which collects publicly accessible content. 
  One of the key concerns was to validate whether any of the crawled content infringed on copyright protections. 
  A thorough effort was made to remove any documents that might violate copyright laws.

# Citation Information
Our paper "Aroeira: A Curated Corpus for the Portuguese Language with a Large Number of Tokens" that fully describes the corpus creation was accepted on the
34th Brazilian Conference on Intelligent Systems (BRACIS) taking place in november 2024. We will soon provide detailed instrctions on how to correctly cite it.




<!-- <pre>
@Article{lira2024aroeira,
  author        = {Thiago Lira, Flávio Cação, Cinthia Souza, João Valentini, Edson Bollis, Otavio, Oliveira, Renato Almeida, Marcio Magalhães, Katia Polini, Andre Oliveira, and Lucas Pellicer},
  title         = {Aroeira: A Curated Corpus for the Portuguese Language with a Large Number of Tokens},
  year          = {2024},
  month         = oct,
  abstract      = {The emphasis on constructing extensive datasets for traininglarge language models (LLM) has recently increased, and current literature predominantly features datasets for high-resource languages such asEnglish and Chinese. However, there is a notable scarcity of high-quality corpora for the Portuguese language. To address this limitation, we propose
                  Aroeira, a curated corpus explicitly designed for training large language
                  models in the Portuguese language, with a focus on the Brazilian
                  Portuguese one. The Aroeira Corpus consists of 100 GB of texts from various
                  internet platforms, processed through a comprehensive pipeline to
                  ensure superior quality. The pipeline handles downloading, text extraction,
                  language identification, application of quality and bias filters, and
                  storage, all tailored for the Portuguese language. The resulting corpus
                  contains 35.3 million documents and over 15.1 billion tokens, surpassing
                  the largest previously available corpus in this domain.},
  eprint        = {},
  file          = {},
  keywords      = {cs.CL},
  primaryclass  = {cs.CL},
} -->
  
</pre>


# Contributors

- Thiago Lira
- Flávio Cação
- Cinthia Souza
- João Pedro Hannauer
- Edson Bollis
- Otavio Oliveira
- Renato Almeida
- Marcio Magalhaes
- Katia Poloni
- Andre Oliveira
- Lucas Pellicer

----------------------------------------------------------------------------------------------------------------------------------------------------------------------------
# 🠮 Português


# Informações sobre o Conjunto de Dados
Aroeira é um corpus curado desenvolvido para o treinamento de grandes modelos de linguagem em português. A maior parte das pesquisas existentes foca em línguas com muitos recursos, como o inglês e o chinês, com esforços consideráveis para desenvolver corpora multilíngues. No entanto, há uma necessidade urgente de desenvolver grandes conjuntos de dados para línguas com menos recursos. Este trabalho visa diminuir essa lacuna, contribuindo para o desenvolvimento de pesquisas de ponta em português. O corpus final é o resultado do trabalho combinado de pesquisadores do Instituto de Ciência e Tecnologia Itaú-Unibanco (ICTi), e os detalhes sobre como foi feito estão descritos no artigo (link ou nome do artigo).
 
**Desenvolvedor do Conjunto de Dados:** Instituto de Ciência e Tecnologia Itaú-Unibanco (ICTi)
 
**Arquitetura de Criação do Conjunto de Dados:** A criação do corpus é dividida em módulos, (i) coleta (Pipeline de Dados) e (ii) garantia de segurança do conteúdo (Pipeline de Segurança de Conteúdo). O pipeline completo contém nove etapas: coleta e amostragem de dados, extração de texto, identificação de idioma, remoção de duplicados e filtros de qualidade no Pipeline de Dados, e filtro de conteúdo sexual, filtro de dados tóxicos, filtro de viés e categorização no Pipeline de Segurança de Conteúdo.
 
**Idiomas Suportados:** Português Brasileiro (PT-BR) e Português de Portugal (PT-PT).
 
**Data de Lançamento do Conjunto de Dados:** Outubro de 2024.
 
**Status:** A versão atual do corpus, lançada em outubro de 2024, contém aproximadamente 100 GB, 35 milhões de documentos e 15 bilhões de tokens.
 
# Licença
O corpus é publicado sob a licença **cc-by-nc-4.0**. Outras informações e a licença completa podem ser encontradas em [Creative Commons](https://creativecommons.org/licenses/by-nc/4.0/deed.en).
 
# Uso Pretendido
 
**Caso de Uso Pretendido:** O Aroeira é destinado ao uso em pesquisas em português ou em experimentos configurados para múltiplos idiomas. O uso do corpus para o desenvolvimento de produtos comerciais ou qualquer outro uso comercial não é permitido. Mais detalhes sobre o uso correto e permitido podem ser encontrados na licença.
 
**Fora do Escopo:** O uso de qualquer forma que viole leis ou regulamentos aplicáveis (incluindo leis de conformidade comercial). Qualquer outro uso que seja proibido pela Política de Uso Aceitável e pela licença pela qual o corpus é publicado.
 
# Estrutura de Dados
O corpus é salvo como um arquivo jsonl (json line), onde cada linha contém todas as informações para a respectiva entrada dividida em 4 campos. Abaixo apresentamos um exemplo de um ponto de dados no corpus.
 
<pre>
  {"text": "Olá pessoal,\nNo MSDN temos vários exemplos de código utilizando as tecnologias do Windows Azure no Windows Azure Samples.Lá existe a possibilidade de filtrar os vários exemplos por versão do Visual Studio, linguagem de programação, quem criou ocódigo (Microsoft ou comunidade) como também pelas tecnologias (Windows Azure, Service Bus, Storage, SQL Azure, etc).\nUma opção interessante é a possibilidade de upload para enviar seu código de exemplo, você já enviou o seu?\nRG", 
  "url": "http://blogs.msdn.com/b/rafaelgodinho/archive/2011/12/21/v-225-rios-exemplos-de-c-243-digo-para-windows-azure.aspx", 
  "access_date": "2014-07-12T07:40:01Z", 
  "index": 0}
</pre>
 
**Campos:** 
  - Texto: Este campo contém o texto em formato simples da página web de onde os dados foram extraídos.
  - URL: A URL de onde o texto foi obtido.
  - Data de Acesso: A data de acesso quando o Common Crawl obteve os dados.
  - Índice: O índice de cada linha.
 
**Divisão:** Os dados estão divididos apenas em conjunto de treinamento.
 
**Atualização dos Dados:** Os dados disponíveis têm um corte em dezembro de 2023.
 
# Como usar
 
**Usar com datasets**
 
```py
from datasets import load_dataset
dataset = load_dataset("Itau-Unibanco/aroeira")
```
 
# Comparação com outros conjuntos de dados em português
Aroeira é, em nosso conhecimento, o maior conjunto de dados disponível para a língua portuguesa. Na tabela abaixo apresentamos a comparação com outros conjuntos de dados em português bem conhecidos.
 
|      Corpus      |   Tamanho   |  #Documentos |  #Tokens |
|:-----------------|:-----------:|-------------:|---------:|
| Aroeira          |   100GB     |   35,3 Mi    |  15,1 Bi |
| brWac            |    25GB     |   3,53 Mi    |  2,58 Bi |
| Carolina 1.2 Ada |    11GB     |   2,11 Mi    |  0,82 Bi |
 
# Responsabilidade e Segurança
Nosso principal objetivo foi entregar um conjunto de dados de alta qualidade, e o Pipeline de Segurança de Conteúdo foi desenvolvido para manter esses padrões. O pipeline consiste em quatro etapas: filtragem de conteúdo sexual, filtragem de dados tóxicos, filtragem de viés e categorização. Cada etapa foi projetada para tratar preocupações significativas que poderiam afetar a qualidade e integridade dos modelos treinados usando o corpus.
 
O filtro de conteúdo sexual se concentra em remover material sexual inapropriado, enquanto o filtro de toxicidade tem um enfoque mais amplo, removendo conteúdo relacionado a violência, sexismo e elementos prejudiciais semelhantes. O filtro de viés aborda viés de gênero, raça e outros.
 
Como não era prático revisar manualmente todo o conjunto de dados, a validação da eficiência dos filtros foi realizada usando dados amostrais. Desse modo, ainda pode existir um pequeno grau de contaminação no corpus. Os usuários são responsáveis por revisar e filtrar qualquer conteúdo potencialmente inadequado.
 
Os dados do corpus são provenientes principalmente do [Common Crawl](https://commoncrawl.org/), que coleta conteúdo publicamente acessível. Uma das principais preocupações foi validar se algum do conteúdo extraído infringia proteções de direitos autorais. Um esforço rigoroso foi feito para remover quaisquer documentos que pudessem violar as leis de direitos autorais.
 
# Informações de Citação
O artigo "Aroeira: A Curated Corpus for the Portuguese Language with a Large Number of Tokens", que descreve completamente a criação do corpus, foi aceito na 34ª Conferência Brasileira de Sistemas Inteligentes (BRACIS), que ocorrerá em novembro de 2024. Em breve, forneceremos instruções detalhadas sobre como citá-lo corretamente.