Datasets:

Modalities:
Text
Formats:
csv
Libraries:
Datasets
pandas
tweet id
int64
769,233,053B
804,823,386B
target
stringclasses
5 values
796,111,440,029,564,900
F
778,274,191,967,682,600
A
794,831,674,215,374,800
P
777,912,509,567,213,600
F
773,122,464,419,283,000
A
797,911,933,659,672,600
C
794,321,133,084,536,800
A
795,024,288,864,731,100
N
778,203,562,597,716,000
A
792,155,254,599,057,400
C
795,032,963,972,997,100
A
794,549,126,100,873,200
C
797,036,251,845,103,600
N
801,817,675,080,966,100
A
796,450,177,175,474,200
F
788,932,877,186,629,600
A
788,356,430,336,237,600
C
796,723,639,391,551,500
A
797,447,047,494,434,800
A
788,957,075,380,449,300
C
788,560,173,182,877,700
A
798,303,753,065,660,400
A
788,232,355,295,141,900
A
798,886,007,441,596,400
C
793,397,741,871,300,600
C
792,467,306,471,358,500
A
793,870,735,609,589,800
C
802,933,807,926,091,800
C
769,247,190,082,543,600
F
772,826,735,498,891,300
P
793,401,467,315,060,700
F
787,114,617,805,926,400
N
778,000,790,405,480,400
C
792,431,533,105,750,000
A
798,561,399,354,036,200
N
789,116,958,067,322,900
A
796,315,198,797,783,000
A
794,595,137,103,900,700
P
786,552,208,783,470,600
P
796,294,876,803,514,400
C
789,009,454,683,590,700
P
787,114,774,668,701,700
P
793,589,336,352,690,200
A
788,430,502,734,729,200
A
787,056,322,478,878,700
A
778,203,863,040,090,100
N
788,750,437,365,133,300
C
777,988,366,319,120,400
N
803,169,113,208,225,800
C
792,442,984,507,867,100
A
785,581,238,094,471,200
A
802,038,170,258,993,200
A
801,724,392,044,691,500
C
797,455,499,897,831,400
A
789,297,188,518,170,600
C
773,003,487,613,296,600
F
794,585,246,377,218,000
N
797,616,048,832,938,000
F
793,490,290,380,202,000
C
792,788,508,054,257,700
C
777,916,741,246,681,100
A
778,032,188,436,668,400
A
802,662,641,206,493,200
N
788,051,904,391,618,600
P
793,262,644,664,741,900
F
783,035,608,407,023,600
F
793,950,650,870,558,700
A
798,905,526,222,471,200
A
783,295,688,901,849,100
A
793,653,343,126,192,100
C
794,933,031,039,402,000
A
793,951,110,688,075,800
A
798,865,726,224,343,000
C
802,519,114,455,679,000
A
796,147,521,647,235,100
A
778,174,649,599,397,900
C
788,589,141,185,421,300
A
793,477,977,333,956,600
F
773,185,982,531,330,000
A
783,488,770,611,875,800
C
793,792,631,427,964,900
N
794,141,187,900,928,000
A
789,228,921,141,231,600
N
793,035,286,158,516,200
A
802,227,102,988,849,200
C
797,776,416,855,179,300
A
787,031,468,778,352,600
F
770,999,059,469,434,900
A
789,129,014,208,106,500
A
802,431,505,372,827,600
A
788,554,840,691,605,500
P
794,174,804,769,128,400
A
788,535,949,051,383,800
A
796,365,236,190,134,300
P
794,379,294,302,699,500
N
788,174,001,449,369,600
N
788,746,103,084,740,600
A
803,177,919,929,602,000
A
802,532,701,395,943,400
A
795,184,960,906,887,200
A
YAML Metadata Warning: empty or missing yaml metadata in repo card (https://huggingface.co./docs/hub/datasets-cards)

:smiley: Análisis de tweets de felicidad

El corpus para este proyecto es una recopilación de 10048 tuits obtenidos de la búsqueda del tag #felicidad. El corpus recopilado fue dado a 3 voluntarios a quienes se les pidió etiquetaran cada tuit, según su criterio, en los que expresaran alegría (A), publicidad (P), felicitaciones (F), consejos (C) y no alegría o sarcasmos (N). Al finalizar el etiquetado se realizó un filtro para obtener aquellos tuits que coincidian en más de una etiqueta y aquellos en los que ocurrió lo contrario se clasificaron en una sexta categoría nombrada No Agreement (NA). Por último, se realizó un preprocesamiento al corpus tokenizando, eliminando signos de puntuación e hiperenlaces además de una extracción de raíces. Lo anterior descrito puede ser encontrado en el archivo Pre-procesamiento.

Como parte del análisis, en el archivo Frecuencias Relativas, se encuentra el código para obtener las frecuencias de las palabras dentro de cada categoría y dentro del corpus total además de las frecuencias relativas de cada categoría con respecto al corpus total.

Por último, dentro del archivo Sistemas de aprendizaje, se muestra el código de como se han aplicado los sistemas de aprendizaje Naive Bayes (NB), Logistic Regression (LR), Random Forest (RF) y Support Vector Machine (SVM) con conjuntos de train-tests en estratificaciones de 3 capas y obteniendo un porcentaje de exactitud y un score para cada sistema de aprendizaje en cada capa.

La lista de los principales paquetes empleados en la ejecución de los códigos se pueden encontrar en el archivo Pre-requisitos.

:pencil: Cómo citar

:neckbeard: Colaboradores

  • Gemma Bel-Enguix, Instituto de Ingeniería - UNAM
  • Helena Gómez Adorno, Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas - UNAM
  • Karla Mendoza Grageda, Facultad de Ciencias - UNAM
  • Grigori Sidorov, Instituto Politécnico Nacional - UNAM
Downloads last month
6
Edit dataset card