Nombre
stringlengths
54
100
Transcripción
stringlengths
12.7k
85.9k
Autor
stringlengths
10
33
IA y Modelos del Lenguaje, retos y oportunidades con Elena González-Blanco @Microsoft | #Somos600M
Hola a todos. Soy María Grandury y os doy la bienvenida a la primera keynote de nuestro hackatón internacional de procesamiento de lenguaje natural open source en español. Hoy descubriremos los actuales retos y oportunidades de la inteligencia artificial y los modelos del lenguaje con Elena González Blanco, GEDO-BII, 4M Digital Natives y Microsoft. Recomendamos esta charla para todas las personas interesadas en la revolución de inteligencia artificial que estamos viviendo, dado que hoy inauguramos las charlas de especialistas. Voy a aprovechar para recordar en qué consiste este hackatón y después ya daré paso a Elena que ya está aquí en el backstage. El hackatón tiene por objetivo facilitar la creación de modelos que representan la diversidad de las personas disponibilizantes. En esta tercera edición nos sumamos a la revolución, no sólo de la IA, pero de los grandes modelos del lenguaje y fijamos dos objetivos que tienen un gran impacto. El primero de ellos es crear el mayor corpus de instrucciones en español y lenguas cooficiales que representen las grandes variedades habladas por los 600 millones de personas disponibilizantes, de tal manera que después con ese corpus podamos entrenar modelos inclusivos. Y el segundo objetivo que tenemos es crear la primera líder board pública de LLMS en español que nos permita estandarizar cómo evaluar y comparar los diferentes modelos en español y lenguas cooficiales. Las inscripciones siguen abiertas, o sea que invito a todas las personas independientemente de vuestros conocimientos a participar ya que hay tareas de todos los niveles. Habrá equipos, se puede participar en el nivel de la mente o hasta cinco personas y como siempre intentamos que los proyectos tengan un impacto social relacionados por ejemplo con los objetivos de desarrollo sostenible de la ONU. Y bueno además del hackatón pues tenemos Keynotes como la de hoy en la que especialistas del campo de la AIA nos irán contando su experiencia y compartiendo con nosotros todo su conocimiento para que también nos podamos enriquecer. Entonces vamos con la primera Keynote o la Elena ahora mismo ya te puede ver todo el mundo. Os presento a Elena aunque bueno, muchos de los presentes seguramente ya la conozcáis. Elena González Blanco tiene un perfil muy interesante porque combina academia e industria. Actualmente como dije antes es Head of the I for M. Digital Natives en Microsoft y profesora en la Universidad de Lien. Esco fundadora de Cleabrain y CleaDrive, miembro asesor de la Junta Directiva de varias empresas y también instituciones e instituciones de investigación y ha sido investigadora en diversas universidades como la UNED donde fundó el Laboratorio de Innovación en Humanidades Digitales. Entonces bueno bienvenida de nuevo Elena, muchísimas gracias por estar hoy aquí. Ahora me voy pero me quedo en el backstage entonces os iré leyendo a todas las personas presentes, podéis compartir vuestras comentarios, preguntas y yo al final de la presentación se las leo a Elena. Muy bien, eso es todo, muchísimas gracias y allá vamos, puedes compartir tu pantalla cuando quieras. Pues muchísimas gracias María, la verdad es que es un honor estar aquí esta tarde porque creo que los hackatones son muy importantes en esta industria de inteligencia artificial y de datos que nos movemos y además estoy muy orgullosa de ver que pues este es un hackatón en español que no es su primera edición sino que cada vez va cogiendo mayor fuerza porque como dice el logo pues somos 600 millones pero a pesar de la cantidad de hispanohablantes que somos en el mundo todavía tenemos mucho que hacer porque en tecnología y especialmente en inteligencia artificial aún vamos por detrás y esto no es una cuestión de tecnología, es una cuestión de usuarios y de datos y por eso creo que eventos como este tienen muchísima importancia y deberían pues depender continuidad y ecos para poder construir entre toda lacomunidad pues la tecnología a la altura del lenguaje. De esto precisamente voy a hablar hoy y voy a hablar porque como bien ha dicho María pues llevo toda mi vida trabajando en esto aunque antes estaba menos de moda y la tecnología funcionaba peor pero precisamente eso es lo que os voy a contar hoy. Cómo hemos llegado hasta donde estamos con los modelos del lenguaje que cuáles son los retos a los que nos enfrentamos ahora mismo y por qué estamos aquí y cuáles son estos próximos pasos que tenemos que dar. Voy a compartir mi pantalla. Genial muchísimas gracias por tus palabras también la verdad que sabemos que hay mucha gente que nos apoya pero es muy importante para mí y para toda la comunidad creo también tener apoyos tan importantes. De nuevo gracias comparto tus presentación y ahora sí que sí hasta luego muchas gracias. Perfecto María pues vamos a ello siempre me gusta empezar a hablar de inteligencia artificial y de modelos del lenguaje remontándome hace ya bastante tiempo. El año 1951 es un año crucial para los orígenes de la inteligencia artificial porque se publica un artículo cuya autor es Alan Turing conocido por los descubrimientos de criptografía, los avances durante la guerra mundial pero publica un artículo que se llama "Computing Machinery and Intelligence" donde él mismo dice que si ponemos una máquina y una persona en una habitación y ponemos una persona fuera de esa habitación el día en que la persona que está fuera de la habitación sea capaz de no distinguir si está hablando con la persona o con la máquina ese es el momento que la inteligencia artificial está en la madura. Esto es lo que se ha venido llamando el juego de la imitación y cuando hoy en día pregunto y además me gustaría muchísimo ver todas vuestras caras hemos llegado hasta aquí es el juego de la imitación una realidad hace unos meses la mayor parte de la gente decía que no. A día de hoy hay muchos que ya asienten o afirman que la inteligencia artificial ha llegado a su madurez y que ya es capaz de interactuar como si fuera una persona humana. Hago aquí un pequeño inciso dado que estamos en un hackatón de español pero mi reflexión aquí es que todavía funciona mucho mejor en inglés que en otras lenguas entre las que se incluye la nuestra. Unos años después o casi durante la misma época surge la figura de Márgio Miskie fundador del primer laboratorio de inteligencia artificial del MLT. Se le considera el cerebro de la inteligencia artificial el que da por inaugurada esta disciplina en una conferencia en Darnoz y que además hace una investigación muy profunda en torno a las redes neuronales desde el punto de vista matemático y esto es muy importante tenedlo presente años 50 inicios matemáticos de los algoritmos que vamos a ver en la base de los transformers o los gpt que estamos viendo a día de hoy. Sin embargo lo que observamos es que los miedos que teníamos en vamos que tenemos ahora mismo también estaban ya en aquella época. [Música] Podéis ser en el espacio 1968 el miedo a que la inteligencia artificial destruyes el mundo ya estaba en boca de todos y ya era una comidilla cuando empezaban a surgir estos avances técnicos que sin embargo todavía no han llegado a funcionar a la altura de Jal ni siquiera en el entorno de nuestras mesillas que pronto si Dios quiere pues esperemos funcionando con la inteligencia artificial generativa pero que todavía no estamos ahí en ese Jal que va a destruir el mundo y que se va a hacer con la famosa AGI que es la inteligencia artificial general de la que tanto se habla en nuestros periódicos de una forma tremendista. Lo que estamos viendo y a mí es lo que me parece más relevante es que los orígenes de la inteligencia artificial se encuentran en los años 50 del siglo pasado. Esta época es crucial porque se desarrollan los primeros algoritmos matemáticos que están en la base de los sistemas de vectores, matrices y redes neuronales que vamos a ver después constituyendo los transformers de los que tanto estamos hablando últimamente. En la parte del lenguaje loque vemos es que se crean los sistemas de reglas para hacer una frase para traducirla decimos que hay un sujeto, un verbo y un predicado y unos diccionales y a partir de ahí empezamos a funcionar con la llamada lingüística computacional. Se desarrollan los fundamentos del NLP Natural Language Processing y los inicios del Machine Learning de una forma muy matemática y muy como digo basada en la lógica y en las reglas. En los años 80-90 después de un invierno de la inteligencia artificial se combina la inteligencia artificial con la probabilidad y el aumento de las capacidades de computación y la capacidad de entrenar con datos hace que la inlusión de gramáticas complejas pues puedan dar lugar a ciertos sistemas de generación del lenguaje. En esta época vemos como por ejemplo en el año 1997 el primer jugador de fede del mundo es derrotado, Kasparov es derrotado por un sistema entrenado con inteligencia artificial entre comidas. ¿Por qué? Porque la fede es un juego de reglas y las reglas combinadas con la probabilidad y una capacidad de computación adecuadas son predecibles a partir de un sistema de lógica y de estadística. Sin embargo hemos tenido que esperar hasta el tercer periodo hasta el año 2016 para que el mejor jugador del mundo de Go haya sido derrotado por un sistema de inteligencia artificial, DeepMind. Esto sucedió como os digo hace apenas seis años en un momento en el que se aplican las redes neuronales para utilizar aprendizaje no supervisado, es decir un sistema que no está basado en reglas porque se trata de un poco de estrategia parecido a las damas en el que se combina este procesamiento de los datos con un sistema de redes neuronales que es capaz de aprender a partir de esa información. Esto sucede como os digo hace bastante poco tiempo y a partir de entonces pues Google compra DeepMind y empiezan a surgir muchas mejoras en la traducción que empieza a basarse en redes neuronales. Si tenéis curiosidad sobre esta historia os recomiendo que veáis un documental que se llama AlphaGo en Netflix que explica un poco cómo sucedió todo esto y es bastante divertido. Pero para mí lo más importante es entender desde dónde hemos arrancado y cómo hemos llegado hasta aquí. La inteligencia artificial per se en el sentido más amplio de la palabra comienza a desarrollarse en los años 50 del siglo pasado. El machine learning comienza a finales de los 90 desde el punto de vista matemático y de aplicación de las redes neuronales. A partir del año 2012 y como os decía en producción más bien a partir del 2015 empiezan estos algoritmos de aprendizaje automático no supervisado a tener resultados reales y a ser posibles en ámbitos como por ejemplo la generación bueno la generación no en en ámbitos como el análisis de imagen o todo lo que son por ejemplo detección de caras o temas de seguridad. Pero hemos tenido que esperar hasta el año 2021 para la eclosión de la inteligencia artificial generativa de la cual hablaremos un poquito más adelante. La pregunta de todo esto es ¿por qué ha pasado todo esto y por qué? Pero hay que tener mucho en perspectiva el cómo y qué tipo de cosas han ido pasando. Los últimos años como os decía el año 2016 ha sido ese inicio de toda esta vorágine que parece que ha explotado el año pasado pero que ya lleva unos cuantos años explotando esa capacidad de reconocer objetos que surgen el año 2016 y como os decía empieza con imágenes. En el 2017 se hacen avances importantes en el reconocimiento del habla. 2018 toda la parte de comprensión de reading de lectura. 2018 también la traducción. Todos los sistemas de asistentes conversacionales mejorar notablemente y toda la parte de capturas de imágenes también. Hasta que llegamos al famoso chat GPT en el año 2022 y en GPT4 en el 2023. Esto ha suscitado pues una serie de revolución casi en la industria pero no solamente en la industria sino en todas las áreas de la sociedad y por eso se habla tanto de inteligencia artificial generativa. La pregunta es ¿por quési esto empezó hace tanto tiempo se ha puesto de moda ahora y por qué y si va a venir para quedarse? Bueno pues la respuesta es esto se ha dado gracias a tres razones. En primer lugar los datos. Cada día tenemos más datos en el último año se han producido más datos que en todos los años anteriores juntos y esta tendencia va en aumento exponencial. Estos datos se almacenan en la lube y son baratos son rápidos de almacenar y cada vez se almacenan con mayor agilidad. En segundo lugar la capacidad de procesamiento. Se oye mucho hablar de envidia últimamente. En envidia que viene también pues de esta origen en todo lo que son las GPUs y todo los sistemas de hardware asociados por una parte a la industria del videojuego y por otra parte a esta necesidad de capacidad de computación y velocidad ha sido crucial para el desarrollo de la inteligencia artificial porque como decíamos tenemos que procesar millones de datos a una velocidad enorme y cada vez mayor para entrenar y para poder poner en inferencia en producción estos modelos de redes neuronales y para ello también es necesario que el software acompañe movimientos como el software libre que también se han aplicado a los modelos de lenguaje han hecho que cada vez sea más fácil para cualquier persona poder tener acceso al desarrollo de estos sistemas incluso a través de su propio ordenador gracias a la computación en la lube. Sin embargo, cuando hablamos de inteligencia artificial tocamos varios campos. En la base siempre está el sistema de aprendizaje automático de machine learning desde el grado menos supervisado hasta el deep learning y ahora mismo pues toda la parte de transformes pero dentro de lo que son los datos que hay detrás de cada uno de los modelos es importante diferenciar que hay distintos tipos de datos y por tanto distintos tipos de algoritmos y por ende de modelos no solamente de imagen sino de texto y también de sonido o de voz. Esto quiere decir que cuando hablamos de procesamiento del lenguaje natural o de texto nos referimos al texto escrito y esto es fundamental caracteres alfanuméricos que son procesables por un ordenador. Cuando hablamos de visión o de imagen nos referimos a píxeles y estas pequeñas unidades en estos cuadraditos son los que van a constituir estos modelos de imagen como tenemos Dali o como tenemos los modelos que están surgiendo ahora mismo y que están dando lugar a todos estos fenómenos de los que tanto se habla como los deep face. Cuando hablamos de sonido estamos hablando de procesamiento de ondas sonoras el speech analytics es complejo porque combina tanto la parte de sonido como la parte de texto y la música y el vídeo pues tienen también esta complejidad que combinan distintos tipos de sistemas de datos. Si vemos de a centraros en el lenguaje porque como decíamos en esta en esta charla vamos a hablar de modelos del lenguaje vamos a ver un poquito cómo hemos llegado hasta todo lo que son los LLM o large language modes. Cuando empezamos a analizar cómo funciona una máquina y cómo aprende un ordenador a detectar cualquier tipo de frase lo primero que tenemos que ver es que cuando hablamos nosotros no hacemos paradas entre las palabras. Esto quiere decir que si yo digo Juan comió una manzana lo que el ordenador transcribiría sistemáticamente es este chorro de palabras que yo tendría que separar pero esto es una convención desde el punto de vista escritura. Esto quiere decir que lo primero que tengo que hacer cada vez que voy a utilizar un sistema de procesamiento del lenguaje es dividir las frases en tokens ni por qué toquen sino palabras y por qué tanto se habla de tokens y ahora mismo bueno parece que es un concepto que vamos ha surgido de la nada de lo que todo el mundo está hablando y por lo que nos cobra la GPT. Bien pues porque realmente cada sistema lingüístico tiene una forma distinta de tener su flexión, su morfología, su forma de derivar las palabras. Por cierto no lo he dicho soy lingüista así que este tipo de cuestiones puesme toca un poco la fibra pero es importante saber que por ejemplo entre un idioma como el español y que es flexivo y un idioma como el turco que es aglutinante el turco va pegando las palabras una detrás de otra como nosotros hacemos con los pronombres cuando yo digo dáselo ahí tenemos tres palabras o tres tokens. Esto quiere decir que dependiendo de cómo sea el lenguaje el concepto de token va a variar y va a ser procesado de distinta forma lo que aumenta por supuesto la complejidad a la hora de frenar estos modelos del lenguaje. Pero además de la morfología está la sintaxis esto quiere decir que el orden en el que aparecen las palabras en la frase es importante y esto es muy relevante porque los transformers y los GPT es todo lo que vemos detrás de chat GPT y de los sistemas los modelos del lenguaje que estamos analizando actualmente lo que tienen es un sistema probabilístico detrás que predice cuál es la siguiente palabra más probable dentro de una estructura por lo tanto el cambio de orden de una palabra afectaría completamente a lo que es por ejemplo un prompt o una instrucción porque el sistema está muy muy relacionado con la forma y toda la el espacio que ocupan las palabras dentro de la frase incluso nuestra propia lengua cuando convíamos una palabra de orden puede significar exactamente lo contrario y nos puedes imaginar en congresos como la sociedad de procesamiento del lenguaje natural la cantidad de papers que hay sobre la negación en español y sobre fenómenos de este tipo que lo que hacen es que sea altamente complejo detectar ciertos fenómenos lingüísticos como puede ser la ironía o las metáforas que también dependen un poco de cómo estén las palabras dentro de la frase. La cuestión aquí es cómo enseñamos todo esto a un ordenador porque a la hora por ejemplo de entrenar un chatbot vemos que ha sido bastante difícil el conseguir pues hace ya muchos años que un sistema de asistente virtual pidiera una pizza. Nos podéis imaginar la cantidad de horas de energía y de investigación que se han utilizado para combinar estos modelos del lenguaje y estos fenómenos lingüísticos que van desde la fonética hasta la pragmática. ¿Por qué? Pues precisamente porque en un idioma como el nuestro del español tenemos fenómenos que afectan a todas las capas. Cuando estamos hablando de fonética es decir de cómo se pronuncian las palabras o de cómo suenan vemos que hay fenómenos como el CSEO o el CSEO en distintas regiones de España como Canaria, Santa Lucía o Latinoamérica pues se pronuncian con un solo fonema. Esto a la hora de entrenar modelos y a la hora de diferenciar variantes lingüísticas es un matiz bastante importante para hacer por ejemplo sistemas de speech-to-text y hasta hace poco tiempo era uno de los obstáculos para conseguir que unas transcripciones funcionase de forma adecuada. La morpología es decir esta forma que tienen las palabras afecta por ejemplo a fenómenos como el CSEO o el de tú o el usted. Las formas de tratamiento en Latinoamérica y sus usos son muy diferentes y también las implicaciones que tiene el usar una forma u otra en un contexto más de respeto o más coloquia y por lo tanto también debemos de entrenar a los modelos con este tipo de variantes en función de esas necesidades y esas situaciones geográficas y de contexto. Y la pragmática y la semántica más aún es decir lo más difícil del lenguaje es ver qué significa una palabra o cuál es esa variedad de palabra que se utiliza en un determinado contexto y especialmente hablando de un idioma como el español donde podemos tener situaciones divertidas incluso palabras como ahora o ahorita que significan implicaciones muy distintas en España o en México y la pragmática cuando hablamos ya con sistemas de contexto cultural. Esto es aún más complejo todavía sobre todo en registros orales. Una persona de Puerto Rico, un gran amigo me decía no sé cómo van a enseñar ustedes a hablar de esas máquinas porque en mi país cada vez quehablamos dos frases decimos un refrán. Pues bien, la inteligencia artificial si bien está entrenada aún le queda por aprender bastante de refranes. Y cuando intentamos trasladar todo esto a un sistema de asistente virtual o un sistema de voz como decía todavía son bastante tontos porque porque necesitamos que ese speech analytics, esa conversación que yo tengo cada vez que habló con un asistente que pueda tener el nimensita de noche, se transcribe de voz a texto. Después ese texto se analice, se extraigan esos insights, se extraigan esos mensajes y después se pasen a otra vez a un sistema conversacional donde tengamos una frase que se genere y a partir de ahí pues un sistema de voz que lo pronuncie. Esto quiere decir que en cada uno de estos pasos se puede perder información si hay errores que inducen pues a una perdida de contexto o a un significado que no fuera del esperado. Por ello, pues aún no hemos visto esa realidad de asistentes virtuales a tiempo real más allá de que hay procesos que son computacionalmente complejos y que requieren una latencia, una velocidad de explosión que hace que no sea inmediata esta transcripción o este fenómeno de traer a texto o a voz lo que se trasfera a partir de un canal o de otro. Pero aquí lo importante es saber cómo han evolucionado estas tecnologías. Como os decía antes, cuando empezaron los sistemas de inteligencia artificial hablábamos de reglas y si trasladamos esto al lenguaje vemos que, por ejemplo, para hacer un clasificador una clasificación de un correo electrónico en un buzón o en una serie de documentos para saber si una palabra como banco significa objeto para sentarse o significa entidad bancaria y lo que quiero es analizar el contexto de esa conversación. Lo que hacíamos en estos orígenes del procesamiento del lenguaje era utilizar una técnica que medía las frecuencias de palabras. Si yo situaba banco en un contexto rural pues por las palabras que la rodeaban y todo ese contexto era capaz de predecir que se refiere a ese objeto de sentarse. Si lo situaba en un contexto de entidad bancaria por los pesos de las palabras relacionadas con el mundo de las finanzas era capaz de hacer esa clasificación. El problema era cuando el contexto no era lo suficientemente abundante. De ahí se pasó a lo que se llaman los sistemas de vectores y aquí entramos en una parte que es matemáticamente más compleja pero como comentaba ya estaba inventada hace mucho tiempo. En este momento dejamos de tener esa conciencia de esta palabra significa una cosa. La convertimos en un vector en el que cada elemento del vector es un campo numérico que tiene una longitud determinada y que se representa en un espacio tridimensional como se puede ver aquí abajo a la derecha. Estos vectores se representan en ese espacio y en función de las distancias que separan los ángulos de coseno entre los ejes podemos ver cuál es el vector más próximo un ángulo u a otro y cómo las palabras o las frases o los sistemas que analicemos transformados en estos vectores se parecen o se asimilan unos a otros. ¿Qué quiere decir esto? Bueno pues esto es importantísimo porque aunque parezca un poco abstracto esto está en la base de todos los sistemas de la inteligencia artificial generativa porque las bases de datos que se utilizan para gustar el lenguaje son vasos de datos vectoriales, es decir los datos de todo tipo se transforman en vectores y a partir de esos vectores somos capaces de realizar lo que llamamos búsqueda semántica para poder localizar cuáles son esas similitudes entre unas palabras y otras y construir las bases de lo que tenemos en los transformers o en los GPT. Esto como decía es matemáticamente muy complejo la estructura de una red neuronal es una combinación de capas de distintos vectores que se llaman neuronal no porque se parezca el cerebro ni porque tenga ningún tipo de actividad de pensamiento sino porque se asimila en cierta manera por los impulsos que se producen de transmisión de datos entre unos núcleosentre unas nodos de la red y otros. Esto lo que conlleva es una serie de procesos complejos matemáticamente en que los datos se van moviendo de capa a capa y por eso se necesita mucha capacidad computacional y mucha velocidad para conseguir que haya una serie de datos de entrada y una serie de capas de salida. Esto ha dado lugar a lo que es la arquitectura de transformers. La arquitectura de transformers está en la base de lo que es la célula de la inteligente artificial generativa y es un sistema en el que tenemos una serie de input-entrada y output de salida y están combinados en función de sistemas de razonamiento que parten de un paper que se llama o la "Tension is what you need" y que a partir de esta combinación de redes neuronales van combinándose entre sistemas de lo que se llama encoder y decoder para codificar y descodificar. No voy a entrar en la parte de matemática de todo lo que hay detrás porque es altamente complejo y lleva muchísimos años de investigación y como decía muchos años de investigación que solo se han podido implementar gracias a esta capacidad de computación de la que contamos muy recientemente pero que llevan ya mucho tiempo de aprendizaje desde el punto de vista matemático. Lo importante aquí es saber que estos transformers han constituido lo que son los GPTS Generative Procedure and Transformers, un sistema en el que se construyen los modelos de lenguaje mediante la combinación de estos transformers y lo que hacen es entrenarse con una serie de datos que van generando estos sistemas de entrada y de salida para después poder ponerse en producción y subirse a una nube donde se pueden utilizar para hacer consultados. ¿Qué hemos visto aquí? Bueno pues a partir del año 2012 empiezan a hacerse experimentos bastante interesantes. En el año 2015 se empieza a hacer un experimento con todas las imágenes de gatos que se encuentran en el internet. Sin decirle nada a este sistema de redes neuronales pues se entren a un sistema de transformers, empiezan a salir gatos sin haber dado ningún tipo de instrucción más ni de regla a todo este sistema. Entonces en el año 2015 se publica un "Pay for Pay" pero en la revista Wildt que dice "alimenta tu render onal con una gato y saldrán gatos" "alimenta tu render onal con nubes y saldrán nubes" la inteligencia artificial por fin funciona. Este es el primer experimento masivo que se lanza sobre la mayor cantidad de imágenes que había en internet que son las de gatos y gracias a esto pues podemos ver que por fin tenemos casos de uso de éxito en los que la inteligencia artificial empiezan a apuntar a lo que hemos ido viendo en estos últimos años de revolución. Sin embargo como os decía hemos tenido que esperar hasta el año 2018 para poder ver esa primera versión de GPT que todavía pues será una especie de embrión y no razonaba demasiado bien pero tenemos modelos como los modelos BERT sobre los cuales los investigadores hemos estado trabajando bastante en los últimos años con resultados que no dejaban de ser bastante interesantes. A partir del año 2020 empieza a acelerarse todo la aparición de GPT-3 es ya un buen cambio en el sistema y la aparición de Dali en 2021 empieza a cambiar las reglas de juego del mundo de la imagen. Sin embargo la eclosión de modelos surge a final de 2021 por incipios de 2022. La llegada de GPT-4 y la eclosión de modelos tanto de código abierto como de código cerrado hacen que el panorama cambie notablemente y además este gráfico se queda en 2023 pero lo que ha pasado en 2024 pues es todavía mayor. ¿Qué es lo que estamos viendo? Pues lo que estamos viendo es casi una guerra entre los distintos modelos en los que cada vez surgen nuevos benchmarks o sistemas de comparación de resultados donde lo que vemos es que hay modelos de distinto tipo. Tenemos por una parte los modelos basados como decía al comienzo en distintos tipos de datos de voz, de sonido, vamos de texto, de imagen y el concepto de multimodalidad es decirlos modelos que de pronto empiezan a mezclarlo todo. Los modelos de GPT al principio salieron como modelos de lenguaje ahora ya pues empiezan a combinar en las herramientas los distintos tipos de modelos para poder facilitar al usuario que de pronto meta un documento o una imagen y pueda ser capaz de extraer datos. Sin embargo todavía vemos que hay que realizar pequeños ajustes porque pues ha habido problemas como diferenciar o reconocer a veces las letras de una imagen cuando se mezclan distintos tipos de tecnología porque como decía esto no es tan sencillo desde el punto de vista del procesamiento de datos. ¿Qué es lo que hemos visto recientemente más llamativo? Bueno pues el lanzamiento hace un par de semanas de los modelos de SOTA de OpenEye que son los modelos de generación de vídeo que es una de las cosas más difíciles que tenemos dentro de toda esta tecnología. ¿Por qué? Porque el vídeo necesita imagen, sonido y texto a tiempo casi real entonces combinar todo esto requiere una cantidad enorme de datos, una capacidad de computación muy grande y verificar que todas estas tres líneas se orquestan de la forma que resulta adecuada para obtener buenos resultados. También lo que vemos aquí es que hay una especie de postura bastante diferenciada entre lo que son los modelos de código cerrado como pueden ser los modelos de OpenEye y todos los GPT es Dal y los modelos de código abierto como Unijune o como todo lo que son los modelos de llama que es la puesta de meta por toda la parte de software libre o de otras empresas como Mistral que es un unicornio que nació en Francia el año pasado y que ya ha producido pues uno de los mejores modelos de lenguaje que se puede utilizar y que bueno pues nosotros mismos hemos puesto en la propia plataforma Azure la semana pasada. Es decir, están pasando las cosas en tal velocidad que casi estar una semana sin leer todo lo que circula por redes, por publicaciones o por foros pues nos deja atrás en todo lo que es el desarrollo de esta tecnología que si bien pues no deja de ser una disrupción como tantas otras la velocidad que está cogiendo es absolutamente increíble. A mí lo que estamos viendo es que hay otras tendencias como a la creación de modelos más pequeños más especializados en determinados ámbitos o en resolver determinadas tareas porque los modelos muy grandes son muy caros de entrenar y muchas veces subó óptimos a la hora por ejemplo de poder correglos en un dispositivo como un teléfono móvil cuando no hay una conectividad muy grande o cuando no hay una capacidad de computación potente a la hora de ponerlo en inferencia, es decir ponerlo en producción para su uso. Pero lo que hemos visto también es una evolución pues bastante interesante entre estos modelos como imágenes generadas por Dalí y también su propio uso que lo que ha generado en nuestra sociedad es bastante revuelo con un fenómeno como los deepfakes que preocupa y mucho a la hora de ver pues hacia dónde pueden evolucionar los malos usos de la inteligencia artificial. También vemos que hay grandes esfuerzos por incorporar todas estas tecnologías en plataformas ya que al final no solamente se necesitan modelos para poder poner sistemas en producción sino que también se necesita infraestructura, se necesita seguridad, se necesita poder utilizar tus propios datos para trabajar con los modelos, es decir trabajar en lo que se llama una arquitectura RAC para poder de verdad consultar tu propia información a la hora de hablar con un modelo y conectarlo al mundo real sobre el que se quiere construir un caso de uso. Así pues vamos en Microsoft por ejemplo tenemos una arquitectura montada que cubre todo este tipo de cosas desde toda la parte de nube hasta todas las capacidades en función de los datos y luego herramientas que se van construyendo para montar lo que se dice soluciones sobre este tipo de productos. Pero volvamos un poco a lo que son los modelos, a lo que es la base de estos sistemas lingüísticosde lo que tanto se va a hablar aquí estos días y en lo que también todavía tenemos mucho que trabajar. ¿Qué son los modelos? Los modelos como decía son sistemas que están basados computacionalmente en transformes en elementos que predicen la probabilidad de que llegue la próxima palabra pero para qué sirven, o sea que es lo que ha hecho la inteligencia artificial generativa sobre todos estos sistemas. Bueno pues por una parte clasificar o analizar los datos, es decir nos sirven para mejorar todas estas capacidades analíticas que por otro lado muchas veces ya hacía el machine learning tradicional. Una de las cosas que hay que tener en cuenta es que esta inteligencia artificial no surge de la nada y que en varios casos de uso pues el machine learning tradicional ya lo resuelve sin tener que irnos a la idea generativa. Sin embargo la idea generativa nos da una ventaja competitiva a la hora de generar ese contenido y de mejorar por ejemplo la búsqueda que quedamos en los textos. ¿Qué podemos hacer con los modelos del lenguaje? Con estos grandes modelos. Bueno pues podemos mejorar mucho las tareas de resumen porque esa generación de resumen era algo que todavía no estaba bien resuelto con el procesamiento del lenguaje tradicional. Podemos mejorar mucho la extracción de datos estructurados y no estructurados. Todo lo que era el name entity recognition con toda la parte de búsqueda semántica mejora exponencialmente. Antes buscábamos una base de datos blockchain y no aparecía cripto. Ahora podemos establecer una relación y yo puedo ir a buscar en un concesionario. Quiero un coche azul o puedo decir tengo una familia grande y dos perros y me gustaría al campo el fin de semana y hacer que me recomienden un todoterreno y esto se hace por búsqueda semántica. Puedo también establecer comparaciones a mayor grado con grandes cantidades de documentación. Puedo mejorar los sistemas de traducción y puedo también mejorar muchos sistemas de recomendación. Los casos de uso son casi infinitos pero la realidad es que si se entiende bien esta tecnología se puede aplicar a casi cualquier cosa y también hay que os animo a que desarrolles vuestra imaginación en el jacatón porque muchas veces no se trata de buscar la tecnología más compleja. Muchas veces es buscar el caso de uso más apropiado para resolver un problema que se tiene con una tecnología que sea simple de implementar y al final cuando estamos trabajando en empresas y vemos cuáles son los problemas que tiene el cliente lo que vemos es que quizás ese camino más corto es el que sea el más difícil de encontrar porque las posibilidades son muchas. La parte de clasificación es una parte muy importante sobre todo cuando se tienen grandes cantidades de documentación en la que se quiere buscar esta información. Toda la parte de análisis de sentimiento que tradicionalmente funcionaba regular ahora abre una gran puerta pues con todo lo que es el análisis de ese contenido que está detrás de sentimiento. Ahora ya no es bueno o malo es de que se queja mi cliente porque se está quejando o que se está diciendo en la redes sociales sobre este tema cuando queremos analizar miles y miles de opiniones de forma simultánea gracias a la inteligencia artificial. La extracción de información documental es otro de los casos de uso que es bastante importante a la hora de ver las posibilidades que se abren. Aquí por ejemplo, vamos esto es un ejemplo de un pliego de una convocatoria de obra pública en un documento de 200 páginas donde tenemos una constructora buscando información sobre el tipo de materiales que necesitan y sobre los seguros que tienen que contratar para hacerla ahora. En circunstancias tradicionales sería una persona física la que emplearía muchas horas varios días en estudiar este documento y en extraer esa información casi de forma manual y ahora podemos tener un copiloto, un asistente virtual que nos ayude a extraer esta información y que la persona sólo tenga que revisarahorrando muchísimo tiempo del día a día de esta persona y que además bueno podamos entrenar ese modelo con los datos de documentos similares para mejorar ese resultado de una forma que casi la intervención de su mano sea pues prácticamente de control de calidad y como decía esta aplicación a la búsqueda en grandes cantidades de información es fácil gracias a la vectorización de los datos. La transformación de esas bases de datos tradicionales en bases de datos vectoriales permite que la búsqueda sea muchísimo más exacta y sea contextual. Al procesar este significado no solamente encontramos respuestas sino también buscamos por contexto sin tener que irnos a búsquedas textuales exactas entonces esto nos habla una cantidad de posibilidades enormes en cualquiera de los ámbitos que nos planteemos es decir estoy pensando en empresas con históricos documentales en distintos formatos de muchos años y de muy distintos contenidos como pueden ser despachos de abogados o cualquier tipo de empresa grande que al final pues tiene un archivo de data bastante bastante numeroso pero con todas estas maravillas tenemos una gran oportunidad y un gran retor a mí mismo tenemos un mercado como decía el título del jacatón de más de 600 millones de personas en los que todavía contamos con una tecnología cuyos moderos del envuje mayoritarios han sido entrenados en inglés y con datos de internet esto quiere decir que los problemas que comentaba antes desde el punto de vista semántico lexico morfológico sintáctico todavía no están bien resueltos sobre todo cuando entramos ya en variantes sociológicas en variantes orales en contextos específicos de ámbitos de dominio como puede ser pues el ámbito asegurador el ámbito legal el ámbito médico y cuáles son los usos del lenguaje que se hacen para cada uno de ellos el reto que tenemos ahora mismo es muy grande y es un reto no solamente computacional ni empresarial es un reto lingüístico en el que todos y cada uno de nosotros tenemos mucho que decir este jacatón pues hace un hallabamiento a esa accesión de datos a esa donación pero no sólo hay que donar esos datos después tenemos que construir con ellos tenemos que conseguir que creemos unos modelos que resuelvan de ver los problemas que queremos resolver tenemos que poder evaluarlos porque al final cuando hacemos un modelo lo primero que tenemos que saber para ver si funciona es meternos en un benchmark saber exactamente por qué se dice que gpt4 es mejor que yemen y por qué no es lo contrario esto hay que probarlo matemáticamente con datos y tenemos que tener un método científico para poder evaluar esto que es casi tan importante como producirlo entonces también tenemos que trabajar en toda esta parte de evaluación de modelos para para el ámbito del español y no queremos no podemos esperar a que bueno pues se lo lo hagan otros que no seamos nosotros es decir aquí es muy importante también que todo este contexto todo este conocimiento de para qué se usa determinada palabra o en qué contexto se usa o cómo se utiliza la tecnología para resolver un determinado tema también sea cuestión de cada uno de nosotros y por eso es tan importante que eventos como este pues abran la puerta a más desarrollos a la creación de nuevas empresas a la creación de nuevos corpus y a la evaluación también de todo lo que se está haciendo desde un punto de vista de esa exactitud o de ese funcionamiento porque como bien veníamos diciendo aún estamos en esta punta de dice ver han pasado muchas cosas en los últimos años y sobre todo en este último año han pasado unas cosas que nos han hecho volvernos a todos de locura pero aún queda muchísimo más por verse este año próximo va a ser emocionante y los próximos cinco se puede asegurar que también y me siento muy privilegiada de estar donde estoy y poder ver esto desde la primera fila del teatro pero realmente creo que esto no hay que verlo desde la barrera de esaplaza de todos los o desde ese teatro sino que hay que verlo desde el escenario porque nosotros somos los principales actores de esta obra y gracias a nosotros irán avanzando todas estas cosas como decía maro y minski que mencionaba al principio el fundador del primer laboratorio de inteligencia artificial del mt los robots se le dan a la tierra sí pero nosotros seremos sus padres así que con esta inauguración llamo a todos a participar en el jacatón y que esto no sólo se quede en el jacatón sino que sea el principio de una nueva aventura en la que cada uno de nosotros ponga un granito de arena para hacer avanzar la inteligencia artificial en español y por supuesto yo estaré aquí para ayudarles a todos ustedes y para poder colaborar en todas las iniciativas que vayan a favorecer a nuestra lengua a favorecer la banca de la inteligencia artificial y a construir soluciones para que hagamos humanos mejores gracias a esta tecnología maravillosa muchísimas gracias muchísimas gracias elena la verdad que súper completa la quinoa te hemos hablado de todo bueno has hablado de todo y bueno obviamente me ha parecido muy bueno me ha cantado el enfoque en la diversidad también el llamado a participar y a ser actores y bueno la verdad que bueno yo me estoy en latinamérica y el caribe y me estoy enamorando de los acentos también me ha hecho mucha gracia el ejemplo de cómo se dice eso amiga o colega yo siempre pongo el ejemplo de cómo decimos que algo nos encanta es guay chévere bacana y también 50 mil maneras de expresar eso entonces bueno muchas gracias y vamos a ver si hay preguntas podéis escribir las preguntas en el chat en youtube y tenemos una de joan manuel nos dice voy a ponerla aquí para que la puede leer todo el mundo elena muchas gracias por tu charla una pregunta general cuál es la mayor aplicación del lm es que ves con mayor impacto en el mercado laboral al menos en lo inmediato interesante muchas gracias por mano el bueno esto de jugarse a la mayor aplicación es muy difícil porque depende tanto del caso de uso que verdaderamente hay que analizarlo caso a caso pero yo diría que la mayor aplicación es la productividad es decir o sea los fenómenos como conocidos como los copilot son los asistentes virtuales ahora mismo lo que nos están demostrando es que tareas que me llevaban muchas horas pues han podido reducir su tiempo gracias a herramientas que me reducen ese tiempo de tareas inútiles y cuando hablo de copilot estoy pensando pues en asistentes que hacen que resuma ese texto que haga esa búsqueda de una forma más veló que redacte un correo electrónico por mí que haga ese proceso en el día a día pues más ágil y al final pues los niños empezaron el cole con el chac que pete nosotros lo estamos utilizando en el trabajo y esa tendencia a extenderlo a todas las capas como herramienta de productividad creo que es lo que a todos nos está afectando nos va a afectar como fue el uso de internet los teléfonos móviles o del ordenador personal creo que esta es como la primera capa y luego ya las segundas es buscar ese caso de uso más concreto dependiendo del tipo de datos que se tenga o sea aquí por ejemplo creo que hay dos ámbitos en la parte de lenguajes fundamentales o sea la voz y el texto entonces en la parte de voz todo lo que son sistemas de asistencia tanto para lo que es especial teis es decir por ejemplo colcente transcripciones de conversaciones consultas de médico todo lo que es habilizar toda esa transcripción y extracción de insides de conversaciones y usó grabar una reunión y sacar un resumen y unas notas de esa propia reunión pues es una es una realidad que ya tenemos en el día a día en nuestros propios sistemas de trabajo y luego toda la parte de procesamiento de documentación o sea y creo que hay un melón que todavía no se ha explotado de forma adecuada y es la cantidad de tiempo que perdemos leyendo documentos redactando documentos y revisando documentos y aquí nos pueden ayudar muchísimo todosestos sistemas de lenguaje hay bueno pues a buscar información a comparar documentos de todas estas tareas que quizás no son lo más importante de lo que hacemos muy bien la verdad que totalmente de acuerdo cada vez estamos utilizando más en nuestro día a día y seguirá subiendo tenemos otra pregunta sobre si los modelos bueno que dice que si los modelos funcionan mejor cuanto más grande es el data sobre el que entrenan no siempre hay hay papers interesantes sobre este tema crees que tiene tienen alguna posibilidad los modelos en español de igualar en calidad a los modelos multilingües bueno yo creo que está es una pregunta bastante compleja de contestar en el sentido de que depende mucho del caso es decir o sea aquí como decía antes esto no es burro grande ando no ande es decir los modelos grandes han demostrado que ahora mismo tienen el mejor performance a la hora de haber sido entrenados con datos masivos pero una tendencia que estamos viendo ahora mismo es a lo que son ese lm es la es la lengua es más o sea por ejemplo sacó fi 2 pero están saliendo cositas bastante interesantes que lo que hacen es ir a resolver determinado tipo de tareas con un coste mucho menor y una capacidad de computación más pequeña entonces esto permite que sean más baratos que se puedan correr más rápido que tengan menor latencia que se puedan desplegar en dispositivos móviles y que al final pues sean más ágiles a la hora de combinarlos entonces si bien esta primera tendencia ha sido al modelo grande ahora lo que se está buscando son eficiencias así que la respuesta es triki porque depende de para qué entonces también los modelos generalistas eran necesarios para empezar a trabajar desde un punto de vista de bueno primero tengo internet y tengo todo pero luego tengo que ver en qué páginas busco entonces ahora estamos en esa segunda fase de en qué páginas busco qué modelo se utilizo para resolver las tareas que yo necesito resolver porque ahora mismo tú no necesitas un modelo grande para todo eso ya lo tienes en los buscadores lo tienes en las fpte y lo tienes en binglo tienes en todos pero ahora lo que necesitamos es bueno pues tengo mi despacho de abogados y tengo mis documentos y quiero que la respuesta sea la mejor para un abogado y que además escriba como yo y utilice mi documentación entonces una de las cosas que estamos viendo es que no solamente son modelos sino que lo que necesitamos son arquitecturas de raf retriba la unidad de generación que lo que tiene es una combinación de modelos como motor de inteligencia y por otra parte de mis datos para trabajar sobre mis datos con modelos que vayan a realizar las tareas que yo quiero entonces para esto no necesitamos grandísimos modelos y una combinación de herramientas existentes una arquitectura de datos y bueno pues sistemas que funcionen bien para lo que yo quiero hacer. Efectivamente y después también añadir que bueno como no tenemos una líder en español tampoco podemos mirar muy bien si estos modelos son muy lindos realmente están pues son más potentes o en qué punto pues mejoran a los que sean entrenados únicamente en español o dependen. Tenemos que trabajar mucho en la parte de modelos en español o sea yo no estoy pensando tanto en un gran modelo desde pites de cero pero sí que es verdad que ahora mismo hay una opción que es bastante interesante y es coger modelos existentes y hacer fine tuning sobre ellos con determinados corpus entonces una cosa que sí que se puede hacer y es bastante más fácil y menos costoso que hacer un modelo grande es coger un modelo existente modelo que se puede hacer un fine tuning con un data set específico que puede ser geográficamente sobre un ámbito o automáticamente sobre un área y esto funciona bastante bien en muchos de los tasos. Efectivamente, esa es un poco la idea que cada equipo del hackathon que cada equipo cree un cuerpo de instrucciones de una temática o una variedad de un país específico yque hagan fine tuning y después si podemos ya a nivel organización entrenar un modelo con más datos pues mejor que mejor porque habrá falta más máquinas pero bueno vemos. Bueno pero es bueno y ya lo arreglamos. Lo arreglamos perfecto genial contar con tu apoyo. Marian nos dice bueno primero que muy buena charla quería consultarte Elena como ves a los frameworks y tecnologías alrededor de los LLMS, Lantern, Yamain, de STC en términos de madurez. ¿Es recomendable implementarlas en producción? Pues de nuevo aquí te digo ni sin irnos sino todo lo contrario, es decir depende de para qué. Aquí no podemos decir que es un LLMS grande o pequeño pues depende del caso de uso y depende de lo que queramos hacer con ello. O sea que al final lo que vemos es que todo lo que llamamos ML Ops todo lo que es operativa en torno a las arquitecturas que van jugando con sistemas inteligencia artificial de IA y modelos genéricos necesitan pues una serie de piezas que son las que han surgido pues a partir de todas estas arquitecturas desde las bases de datos vectoriales hasta todos los sistemas de orquestación como son la Anshin, Yamain, etcétera para poder ponerlos en producción. O sea a mí un modelo persenome sirve para nada y esto es también lo que tenemos que tener claro al final que esta inteligencia artificial funcione es una serie de piezas, necesita una arquitectura donde tenemos que tener capacidad computacional, sistemas para poder en producción y desplegar los modelos datos en toda la parte de arquitectura y luego pues un poco el que queremos o como queremos hacer esta consulta a todos estos datos. Entonces dependiendo de lo que se quiera hacer pues hay piezas que son más adecuadas que otras o sea uno es lo mismo hacer un prototipo de un bot para una prueba con un corpus pequeño de datos que poner esto en producción para reclamaciones de una aerolínea y tener un sistema en que todo el mundo reclama la vez porque es cuando se retrasa el vuelo. Entonces pues esto requiere ya unas distintas capacidades y sobre todo pues sistemas que no solamente van a toda esta parte tan bonita de inteligencia artificial sino que requieren también pues arquitectura de la de siempre y de la buena en toda la parte de data para que sus sistemas se sostenga porque no olvidemos que son sistemas computacionalmente. Bueno pues todavía les queda un ratito y que son muy costosos de mantener y de poner en producción y hay temas de latencia y hay temas de arquitectura de software que son importantes cuando manejamos grandes volúmenes de datos. Entonces a la hora de elegir una solución hay que tener en cuenta muchas cosas. Sí, sí, no es trivial para nada. Bueno la gente está animando y están llevando más preguntas pero bueno si queréis leemos como mucho una o dos más porque ya llegamos a las tres o bueno Elena en vez de ser tan increíble generosa con tus respuestas también puedes acceder. Es por ti para que bueno si no las recogemos y os lo vamos a expandir. Leemos la siguiente de Gabriel nos dice nos pregunta qué técnicas crees que sean mejores para crear un modelo específico para educación que pueda pindar mejores respuestas en un campo que es HPT. Mencionaste ya el RAG a ver si hay otras. A ver el RAG es una arquitectura entonces aquí lo que nos permite el RAG es utilizar un modelo, consultarlo sobre nuestros datos y permitir que ese modelo aparte del conocimiento que ya tiene en su entrenamiento pues sea capaz de responder con un determinado contenido entonces qué ventajas tiene esto bueno por un lado que evita las alucinaciones o sea no se inventan las cosas cuando no la sabe o sea le podemos orientar a un tema de grounding es decir que sólo me conteste sobre la información que yo le doy pero bueno pues dependiendo también del caso de uso tiene sus limitaciones es decir si un modelo no ha sido entrenado en nuestro idioma o no ha sido entrenado en un determinado dominio pues va a fallar y básicamente salióun point tuning es decir o sea que hay como tres niveles a la hora de utilizar todo esto uno es el nivel del prompting que es como esta primera consulta que como si le pregunta un modelo para que me conteste bien esto no es trivial y se habla hasta de prompting engineering que es cómo aprender a dar instrucciones a un modelo para que me conteste de la forma adecuada lo que yo quiero entonces al nivel de prompting se pueden hacer muchísimas cosas porque parte del contexto se puede meter en el prompt para hacer que estas respuestas sean las adecuadas otra es el ecosistema del RAG donde aquí pues lo que vamos a meter los datos y combinando estas dos pues se pueden resolver diríamos que el 90% de los casos en el tema del campo de la educación y en todos cuando ya hablamos de temas muy específicos donde como digo pues no está el modelo entrenado con los datos podríamos hablar de hacer ese point tuning y aquí pues como digo las cosas dependen o de si es una lengua que no tiene el modelo de si es un dominio en el que de verdad pues hay es necesario por ejemplo entrenado modelo en un ámbito legal como decía antes un modelo que en España uno sea entrenado en ámbito legal no pues falla como una escopeta de cañas porque no tiene el contexto histórico que lleva a nuestro sistema jurídico entonces probablemente sí que sea importante trabajar aquí pero en el campo de la educación y en todos entonces se trata de ver un poco cuáles son esas piezas para conseguir la mejor solución esto no es blanco negro es hacer casi encaje de bolillos para que las cosas funcionen adecuadamente estamos hablando de datos no estructurados no lo olvidéis el lenguaje es caprichoso lo es lo es dicho por la lingüista que se me olvidó decirlo en tu presentación carlos nos hace otra pregunta qué opinas del creciente uso de datos sintéticos en el entrenamiento de modelos desde un punto de vista utilitarista parece dar buen rendimiento pero metodológicamente presenta ciertas dudas no bueno pues como decía antes depende es decir o sea una de las cosas que se está haciendo para toda la parte de datos sintéticos es la traducción de datos es decir cuando tenemos suficiente corpus para poder hacer un entrenamiento y necesitamos pues que haya variedad se generan datos sintéticos y esto hace bueno pues por un lado que se hará telecoste por otro lado que se mejore el resultado si el procedimiento es bueno mejor el resultado y bueno nos está incursando en ningún tipo de problema pues no habría un porque dudar de la metodología no sea al final de lo que se trata es de mejorar las herramientas y de conseguir que nos den los resultados que nosotros queremos es al final los modelos lo que tenemos que tener muy claro es que reproducen lo que nosotros estamos en los datos y para poder hacer que funcionen bien pues necesitan un volumen y una variedad adecuada gracias a que la propia inteligencia artificial es capaz de generarlos pues es un buen sistema para no tener que utilizar datos originales que son más caros más imperfectos y que muchas veces no están disponibles grandes problemas y efectivamente de hecho en el hackathon como como colaboramos siempre con Archila este año el equipo nos ha preparado un no punto ejemplo para utilizar su nueva librería distil label efectivamente para crear data sets con o sea de datos de datos sintéticos vaya que les ha dado muy buen resultado con algunos modelos con notus y con esa familia a ver datas y más generales una pregunta sobre un caso de uso concreto la traducción del mudena crees que los lm's llegaran a sustituir a los nm's o sea neural machine translation o es coste de tiempo de datos depende otra vez bueno a ver yo creo que aquí es una combinación o sea es que los nm's al final están pasados en redes neuronales los lm's también entonces la traducción al final ha mejorado muchísimo con los lm's y se seguirán usando o sea la respuesta creo que en este caso es sí porque cada vez lo que vamos viendo es que la tecnología que va subiendo mejor elresultado y en el caso de la traducción es uno de los casos que para mí es claro el que se está dando un salto exponencial en toda la parte de cómo se está bueno cómo está funcionando sobre todo a la hora de la corrección del resultado no me digáis que no me ha gustado coger un email que has descrito en inglés medio su sube y pasarlo por el por un gpt y una perfecto a veces hay que tener hasta cuidar con palabras que yo no diría a ver si me van a pillar no hay tongos simplemente quería hacer preguntas que sean más genéricas pero bueno ya que insiste yo no es quiere preguntar nos dice que justo se puso a estudiar y a utilizar el nm's desde que vio la publicación del inte entonces pregunta que qué tal el desarrollo bueno bien desde que salió el inte a esta parte ha llovido mucho en el ámbito de los modelos de lenguaje o sea digamos que todos hemos puesto nuestro nm's de arena pero ahora mismo lo que estamos viendo en el ecosistema es que hay muchísimas soluciones que han superado bueno pues muchos desarrollos en este sentido entonces ahora mismo lo que hay que hacer es construir sólo lo último que sale o sea y sin miedo a barrer todo lo que uno ha hecho antes porque al final esto es como la investigación o sea cada paso que se ha dado va para para facilitar el siguiente pero a veces se comete el error y esto vamos estamos viendo muchas empresas que llevan toda la vida trabajando en temas de procesamiento del lenguaje natural que le han cogido mucho cariño a su bebé pero es que el problema es que la tecnología ha cambiado mucho entonces hay veces en que hay que barrer para atrás todo lo que uno ha hecho incluso y decir vamos a ver ahora mismo la ciencia va por aquí me tengo que subir a siguiente escalón así que ese es el mensaje o sea en este campo hay que ir a basarse en lo último que ha sabido y si me preguntas sobre qué construyes hoy te diría que miremos un poco el benchmark de modelos y sobre el último que mejor funcione hagamos una prueba muy buena respuesta y con mucha mucha ilusión y motivación para el ante ya dos últimas recomendar o por ejemplo algún desarrollo para despliegue on device ya que hablaste mencionaste esto en en tu charla si vamos a ver aunque todos estos modelos están desplegando en la nube o sea lo que estamos viendo también es que por un lado ni todo el mundo está igual de conectado ni todas las soluciones necesitan una conexión y una potencia para un desarrollo es decir o sea un despliegue on device podría ser un sistema de traducción como el que hemos hablado pero es que esto por ejemplo es muy necesario pues en ámbitos donde la conectividad no es 5g como tenemos la suerte de tener aquí entonces no olvidemos también en que en un mundo en que las gpu sabras se convierten en bueno pues casi lo necesario para poder correr un modelo hay muchos lugares donde apenas llega a internet en forma bueno pues lo suficientemente potente como para poder hacer una consulta rápida y menos para poder interactuar con este tipo de sistemas entonces por un lado la conectividad es un asunto y por otro lado las aplicaciones que se encuentran en entornos en torno de desplegados entre los sistemas pues por ejemplo como puede ser un sistema bancario una aplicación de pagos etcétera donde no necesariamente tiene que haber una condición una conexión de internet para poder hacer ese despliegue de modelo entonces bueno que hubo también hay ámbitos donde se están viendo el desarrollo de modelos en greenfield como pueden ser pues áreas donde la seguridad pues es fundamental y ni siquiera pues se están desplegando en la nube aquí ya pues son casos muy específicos porque evidentemente poner un modelo y subirlo a un sistema pues es muy caro respecto a ponerlo en una nube y poder desplegarlo para distintas instancias pero pero sí se está investigando también mucho en este sentido porque dependiendo del caso de uso y la necesidad tanto por exigencia de privacidad y de seguridad como por exigencia de conectividadpues esto abre una puerta a que se despliegue en modelos en en ámbitos donde no se puede genial y la última además hacemos así como un buen cierre porque nos preguntan sobre microsoft qué opinas del último paper de microsoft de net que parece tan prometedor y también gracias por la charla creo que todo el mundo la ha encantado bueno creo que ahora mismo o sea queda muy mal hablar de la propia casa de uno sobre todo cuando lleva poquito tiempo pero creo que lo que el papel que está jugando microsoft en el ámbito de la inteligencia artificial es fundamental también a la hora de investigación y una de las cosas que a mí como lingüista académica y convencida de que la investigación y la empresación inquieta de la mano es ese rol de estar a la última en todo lo que va saliendo entonces bueno creo que que ahora mismo estoy como en el olimpo de donde querría estar en el sentido de que se han juntado todos estos mundos es decir necesitamos que haya muchísima investigación porque como os decía tenemos que estar a la última de lo que ha salido esta semana para poder ver cuál es el siguiente desarrollo pero también tenemos que ser capaz de ponerle producción y por tanto no solamente se trata de investigar sino de ser capaz después de montar ese modelo de desplegarlo de que los clientes lo puedan consumir y de poder llevar la producción y que no tengamos un problema después de que lo que había en el paper no se puede implementar porque no hay capacidad computación para hacerlo entonces esto es pensarlo inventarlo idearlo y producirlo hacer toda la cadena de valor de principio a fin y para eso pues creo que las empresas tienen que investigar y las universidades tienen que trabajar con empresas así que hay que trabajar mucho en este círculo porque aquí no hay ganadores aquí hay colaboradores y creo que todos somos parte de ese ecosistema totalmente muy bonito terminar con un mensaje de colaboración de siempre poder construir sobre lo que ha lo que ha publicado el equipo de al lado de enfrente del otro país del otro lado del de el océano entonces bueno ya con este mensaje vamos a vamos a cerrar la charla muchísimas gracias al final ha sido casi una hora pero bueno muchísimas gracias Elena por por compartir toda tu experiencia tu conocimiento también con las preguntas del final y obviamente pues por por apoyar a somos en el epi y nuestra misión muchas gracias María un abrazo a todos y suerte en el sacatón un abrazo [MÚSICA]
Elena González-Blanco
La importancia de la diversidad lingüística, María Grandury @SomosNLP | Hackathon #Somos600M
Hola a todo el mundo, hoy comienza la segunda semana del hackathon "Somos 600M". Y sí, la pregunta que más nacéis, las inscripciones siguen abiertas. Esta mañana, de hecho, había ya 450 personas apuntadas, o sea, es increíble. Y muchísimas gracias a todo el mundo por apoyar nuestra misión de crear más recursos, y sobre todo más recursos abiertos y diversos en español y las lenguas cooficiales. Hoy vamos a ver tres, bueno, una, aquí no, y dos talleres. Primero voy a empezar hablando yo un poco sobre la importancia de la diversidad lingüística. Veremos el impacto del hackathon, cuáles son los objetivos que tenemos y cómo podéis apoyar. Será muy cortito, menos de 15 minutos. Y a continuación os presentaré a Gabriel, Gabriel des ingenieros de Machine Learning en Archila, donde actualmente se centran en el desarrollo de herramientas para la generación y anotación de datos para el entrenamiento de LLMS. La persona perfecta para hablarnos de cómo crear datos de calidad y cómo entrenar modelos como notos, ¿vale? Y por último llegará Manu Romero, ya le conocéis de otras ediciones. Machine Learning Engineer y CSO en Maesa también contribuye muchísimo con HindFace, tiene más de 500 modelos en el hack y bueno, también investiga en varios proyectos internacionales. Entonces, vamos a empezar esta introducción sobre el hackathon. Pero antes de decir por qué necesitamos diversidad lingüística y por qué tiene que estar representada, vamos a ver qué es muy rápidamente, no vamos a entrar en temas de lingüística. Hay diferentes variedades, ¿vale? Diatópicas o geográficas, que serían lo que comúnmente llamamos dialectos. Diacrónicas o históricas. Por ejemplo, yo estoy hablando español actual, también habría moderno, clásico del siglo de oro y medieval. Variades diastráticas o socioculturales, que son los diferentes niveles lingüísticos, alto, oculto, medio y bajo, global. Y las diafásicas o funcionales, que serían los instintos registros, registro coloquial, formal, familiar, respetizarizado. Entonces, antes de hablarmos del mismo tipo de español, dependiendo del contexto en el que estamos, ¿vale? Y estas son esas variedades. Bueno, y ya está. Bueno, si os interesa un poco más de lingüística, os recomiendo una charla de Crisaranda de la primera edición del hackathon, en la que vimos todo esto mucho más en detalle. Está en el canal de YouTube. Bueno, os he dicho por el canal, bueno, por el chat, que estaba en Buenos Aires y es que llevo un mes por Latinoamérica y el Caribe, porque estoy más enamorada de las diferentes maneras que hay, bueno, que tenemos de expresarnos en español. Hay diferentes maneras de nombrar, por ejemplo, si queremos decir que algunos encantan, podemos decir que chévere, que bacán, que guay, podemos tomar la agua al colectivo, el autobús. También hay diferentes expresiones coloquiales, dependiendo, bueno, en el lenguaje oral. Por ejemplo, en Uruguay dicen todo el ratota y en Chile dicen sípo, no puedo, por ratopó. Y en Puerto Rico, donde me invitaran a dar una conferencia, también es muy común utilizar palabras en inglés. De hecho, dos de cada tres palabras sin estar en inglés. Entonces, esto es del punto de vista de modelos del lenguaje. Es muy interesante ver cómo respondería, ¿no? Si vas cambiando, mezclando idiomas. No todo es escribir, también tenemos diferentes acentos, muy interesantes desde el punto de vista de los modelos multimodales. Por ejemplo, es muy común el cesio en Andalucía, en Canarias, en Latinoamérica, en Caribe, por eso Vestón Sol, donde hay, donde hace bueno, es como mi cesio. En Argentina y Uruguay, el español río platense que dejamos, utilizan la E y la Y, se pronuncian como "sh". También aspiran la S, de hecho aspirar la S es bastante común, por ejemplo, en otras zonas, en el sur España, en Chile, en diferentes zonas del Caribe. Y así como otra curiosidad, en Puerto Rico a veces cambian la R, el final de las palabras, por L, que de hecho lo habréis escuchado en muchísimas canciones. Y bueno, hay muchísimasparticularidades más. El tema es que, bueno, a mí personalmente me encantan, creo que son preciosas, y todas estas maneras de expresarnos. El tema es que en general los modelos de lenguaje hablan un tipo de español, realmente no hablan español porque es muy rico. Entonces, uno de los objetivos de este jacatón es crear más recursos que representen todas estas variedades de la lengua, habladas por el número que siempre aparecen, las partes que es 600 millones de hispanohablantes. El tema es que no sólo hablamos español en estos países hispanohablantes, por ejemplo, en España hay cuatro lenguas oficiales, que serían el catalán, el valenciano, el leusquera y el gallego. Y tenemos el proyecto "Hilenia", que de hecho colaboró con el jacatón también, y los subproyectos digamos "Aina vives en el gaitú y nos", cuyo objetivo es generar más recursos en estas lenguas oficiales. En Latinoamérica y el grébet también encontramos un montón de otras lenguas habladas en estos países. Por ejemplo, en México tenemos la lengua Nahuatl, y de hecho otra charla que os recomiendo es de Ximena Gutiérrez, que la dio también en la primera edición del jacatón sobre cómo crearon este corpus paralelo de Nahuatl a español. En Chile tienen en la isla de Pascua la lengua de la civilización Rapanui, y también la lengua de la comunidad originaria Mapuche. Entonces, bueno, aquí he puesto un montón de, bueno, cuatro logos, que serían de la Atenia, la Unesía Católica, la Academia de la Lengua Rapanui, Instituto de Lengua y Cultura Mapuche, que están creando pues es un proyecto para crear más recursos también en estas lenguas que se podan en su país. Y también lo bueno es que estamos empezando a ver también varios congresos o workshops en diferentes congresos sobre lenguas indígenas. Entonces, bueno, estoy seguraísima de que hay más proyectos que no conozco, me encantaría que me los pasasis para incluirlos en esta diapositiva y apoyarlos, darle más suficididad dentro de lo que podamos hacer. O sea que, bueno, desde aquí pues un poco el mensaje de aunar los esfuerzos para impulsar la Aya en estos idiomas y conseguir que tengan representación digital, que es muy importante. Entonces, ¿qué queremos? Modulos inclusivos, bien, y para eso que necesitamos pues datos diversos, ¿vale? Datos diversos que representen a los 600 millones de personas disponablantes, porque todos ya sabemos que la Aya no hace mágia, o sea, si no hay algo en los datos, después no va a aparecer en el modelo, o sea, el modelo no va a ver generar texto en una variedad que no ha sido entrenado. Y ¿por qué queremos modelos inclusivos? Entre otras muchas razones, meteorcesgos, ya sean de género, diversidad de opiniones, o también pues que si yo voy y le hablo en español colombiano, pues me responda en la misma variedad que no me mezcle o no me responda en español neutro, que tampoco existe, ¿vale? Como tal. Y también muy importante, mitigación de desigualdades, en el sentido de que si una lengua o variedad no está representada en el mundo digital, la brecha sociocultural, que ya existe, casi todos en muchos de los casos, se va a hacer mucho más grande y lejos de mitigarse. Entonces, bueno, queremos modelos inclusivos, necesitamos datos representativos y cómo evaluamos estos modelos, que es otra pregunta. De hecho, la pregunta más común que nos hacen en el servidor de la comunidad en Discord es ¿cuál es el mejor modelo en español? Y el tema es que no sabemos, porque no hay una líder board pública en la que podamos hacer esta comparación. Entonces, pues bueno, el segundo objetivo de este hackathon o de este proyecto es crear una líder board abierta de LMS en español y lenguas cooficiales que nos permita estandarizar cómo evaluar y comparar nuestros modelos. Ahora, en general, lo que pasa es que cada un setuto de investigación o cada empresa tiene su propia líder board pública, es abribada, pero necesitaríamos, si queremos medir el avance de la idea en español, incentivartambién una competitividad sana y probar la valida de nuestros modelos, pues necesitamos una manera pública e imparcial de evaluarlos. O sea que bueno, recopilamos, necesitamos un gran corpus diverso y una líder board, entonces esos son justo los dos objetivos del hackathon al que os invito a uniros. Está ya no estáis. Vamos a colaborar en equipos de hasta cinco personas, ahora os explico un poco más. Siempre, como las otras audiciones, con la intención de que tenga un impacto social en cada proyecto que estén relacionados con los objetivos desarrollados sostenibles de la ONU y a la vez que se organiza todo esto, pues también hay keynotes y talleres, como el ejemplo de los dos de hoy, ya tuvimos uno el jueves pasado de Elena González Blanco de Microsoft y bueno, tendremos más esta semana, más la que viene para seguir aprendiendo. Y las keynotes están abiertas también a la gente que no participe en desarrollar proyectos. Vale, los dos objetivos, crear el mayor corpus instrucciones y la primera líder board del LMS en español, ¿cómo se puede colaborar con el corpus? Pues como había dicho, vamos a hacer uno, ya de hecho hay bastantes equipos de unas cinco personas. Cada uno va a crear una parte de ese gran corpus, por ejemplo crear una parte enfocada a un país determinado o una temática específica. Por ejemplo, un corpus de políticas de igualdad de género en Chile, ¿vale? Entonces puedes poner un ejemplo, pero puedes coger cualquier PDF y generar una base de datos de preguntas y respuestas a partir de él. ¿Cómo lo creamos? O sea, recomendamos utilizar Distill Label, que de hecho justo ahora hay cuarto, bueno, 5 o 4 minutos, Gabriel nos dará un taller explicando la librería y bueno, hemos puesto también a vuestra disposición un notebook. Una vez tengáis el corpus, lo utilizaréis para entrenar vuestro LLM y que también veremos en el taller siguiente, como podéis entrar este LLM, nos preocupéis, si no sabéis, os ayudamos en todos los pasos. Otro opción, obviamente, si ya tenéis un corpus instrucciones desarrollado por vuestro grupo de investigación, por vuestra empresa X, lo podéis donar. Estábamos muy agradecidos. Y para colaborar con la Leaderboard también, obviamente, aceptamos donaciones y si no, estamos organizando un esfuerzo colaborativo para validar las traducciones hechas, las traducciones del inglés al español de la famosa Open LLM Leaderboard, ¿vale? Entonces, pues también nos invitamos a unirnos a este esfuerzo. Os dejo ahí los dos enlaces, tanto para participar como si queréis donar un corpus. Como sabéis, en todo lo que hacemos en el hackathon, todo lo que hace la comunidad es Open Source. Y además, por favor, os invitamos a desarrollar proyectos de manera responsable. ¿Qué significa esto? Que presteis atención a los sesgos, a la agüilla de carbono y a la documentación. Muy rápido. La ya sabemos que depende de los datos. ¿Vale? Entonces, ¿cuál es el problema? Que están sesgados. Vamos mejorando mucho como sociedad, pero siguen viviendo sesgos inconscientes o inerentes en las noticias, páginas, web, libros que ya hemos escrito. Entonces, el problema es que cogemos todo este contenido para entrenar un modelo. Y entonces, como los modelos aprenden patrones, pues el modelo aprende conducta racistas, homófobas, cualquier tipo de discriminación. Mítico, gracias a todos los mimos serri, de garbage in, garbage out. Entonces, bueno, pues, a tenerlo en cuenta ser conscientes y sobre todo, pues, incluirlo en la documentación, que ya lo haremos un poco más de ahora. Y ojo al impacto medioambiental. Sabemos que tienen un gran impacto todos estos modelos. ¿Cómo mejorarlo desde vuestro punto de vista ahora mismo, eligiendo el tipo de energía? Puede ser renovable. O sea, el final es decidiendo qué regiones de computación utilizáis, si las GPUs son eficientes e intentar utilizarlas el 100% del tiempo. Y sobre todo, intentar reducir todo lo que podáis el tiempo de entrenamiento. En vuestro caso, hacer pruebas como de lospequeñitos o en colab, en máquinas un poco más pequeñas. Antes de ponerlo a entrenar, el gran, entre comidas, gran LLM, ¿vale? Y la documentación, por favor, es inútil un modelo que no tenga documentación. Entonces, por favor, escribid como lo habéis entrenado, con qué datos, cuáles es la evaluación, todo lo que podáis, ¿vale? También nos dejaremos una guía de cómo hacer estos tres pasos que he dicho ahora muy rápido. Y además, bueno, un comentario, es que no hay más excusas por la documentación porque será un requerimiento del futuro reglamento de IA de la web. Entonces, por favor, documentación. Y ya está, justísimo en 15 minutos. Vamos al primer taller, tenéis el enlace en la descripción y ahora os encuentro ahí con Gabriel. Muchas gracias y hasta ahora. [MÚSICA]
María Grandury
Taller: Argilla y distilabel, herramientas para crear datos de calidad, Gabriel @Argilla #Somos600M
Hola a todo el mundo de nuevo estamos en la segunda segunda semana del hackathon bueno al parecer en la charla anterior no para compartir las pantalas o sea mis mis diapositivas entonces no os preocupéis las voy a poner las voy a o las voy a subir como decía sí que están las inscripciones abiertas y hoy vamos a tener los dos talleres principales del hackathon vale primero vamos a ver con gabriel ingeniero de machine learning en argila como podéis utilizar argila y distil label para crear data sets de calidad y sobre todo para entrenar notus vale notus es una lm entrenada por argila a finales de año 2023 que tuvo muy buenos resultados en los benchmarks a través de la mejora de los datos de entrenamiento además gabriel nos va a enseñar cómo crear un data set similar utilizando un data set similar a lo utilizado en el fin de de notus utilizando estas dos herramientas que os comentaba al principio argila y distil label entonces bueno ya te doy doy paso a gabriel ya estás compartiendo las pantalas todos los positivos ahora sí entonces bueno podéis publicar vuestros comentarios para gabriel en el chat de youtube y al final del taller se las leeré vale entonces bueno muchas gracias gabriel bien venido y todo tuyo perfecto gracias pues nada como bien ha dicho maría en esta charla voy a estar hablando un poco sobre notus no que es un modelo una lm que entrenamos en argila a finales de año de 2023 y que tuvo muy buenos resultados sobre todo porque nos centramos en en analizar los datos y y mejorarlos y con ello bueno pues conseguimos muy buenos resultados y bueno empiezo explicando mencionando notus para ver si os sirve de motivación para para utilizar herramientas como argila y distil label que con las cuales podemos conseguir bueno pues unos data sets mejores de más calidad y en los cual podemos bueno pues evaluar distintos aspectos y también tener en consideración otros aspectos como filtrado de desesgos y demás cosas que bueno maría ha mencionado en su anterior charla bueno entonces vamos a comenzar nada no tus es una familia de modelos que creamos en argila y donde nos centramos sobre todo como ya he dicho en una en una mejora a través del modelo a través de la mejora de los datos es lo típico de si tienes mierda pues puede ser que entrenes algo que que sea de frente pero es cuanto mejor sean los datos mejor va a ser el resultado no entonces bueno antes de comenzar a describir un poco no tus no quiero recordar un poco también las fases de entrenamiento por las que pasa una lm entonces bueno tenemos la primera fase de entrenamiento no en la cual básicamente se construye un data set muy muy grande haciendo básicamente es creyping de páginas web de internet como wikipedia reddit está cover flow y bueno muchísimas fuentes más y bueno esta primera frase de entrenamiento es un entrenamiento no supervisado porque es no supervisado no hay humanos que estén etiquetando estos textos que se tienen de internet sino que lo que se hace es que se entrenar el lm metiendo más caras en los textos y el objetivo del modelo entonces es predecir la palabra que hemos enmascarado y entonces con esto lo que se lo que se intentan esta primera fase es que bueno el modelo aprenda un idioma y empieza a coger bueno obtenga conocimiento un poco más generalista no luego tenemos una segunda fase que es la que se conoce como la de super base finetino en el caso de de los elements instrucción finetino y bueno esta fase sí que ya tenemos un un data set que ha sido creado por humanos y bueno etiquetado por humanos o como veremos más tarde también puede ser que sea etiquetado por por otras lm y básicamente lo que queremos conseguir en esta en esta fase es te doy una instrucción a la lm y queremos una instrucción que es una tarea básicamente y queremos que aprenda a realizar esa tarea no entonces también le damos la respuesta para que aprenda con esto conseguimos que nuestra lm aprenda ciertas tareas o aprenda a hacer lo que para lo que nosotros queremosutilizarla pero aún no sigue quedando otra fase que es la de alineamiento en la fase previa la lm aprendió a realizar una tarea pero a lo mejor no ha aprendido la mejor forma para hacerlo o de la forma que queremos nosotros queremos alinearla por ejemplo para que lo haga de de una manera más honesta o por ejemplo si es un chatbot para que tenga en cuenta que está hablando con un humano y que y bueno y demás aspectos que podemos intentar que la lm aprenda entonces en este fase básicamente se construyó un dataset en el cual a nuestro modelo que hemos entrenado con super vice fine tuning básicamente le preguntamos varias veces lo lo mismo no y tenemos varias respuestas y luego tenemos un humano o otra lm diciendo cuál de cuál de las respuestas es mejor para nuestro caso no entonces con esto conseguimos un un dataset de preferencia no en el que básicamente tenemos una respuesta que es la elegida y otra que es la la que se ha rechazado y con esto pues intentamos que la lm aprenda esa intención que nosotros queremos darle y bueno sobre el alineamiento la primera técnica que se popularizó para para alinear la lm con nuestras preferencias fue el uso de de reinformer redding from human feedback no en el cual con los datos de preferencia que hemos creado entrenamos un modelo de un software model no modelo de que nos va a dar una escora o una recompensa para la lm entonces utilizamos la lm para generar una respuesta lo pasamos por el modelo de de recompensa y este modelo de recompensa básicamente lo que hace es darle una galleta a la lm y se ha portado bien o no darle nada o incluso quitarle comida si se ha portado mal por así decirlo y bueno lo único malo de este tipo de entrenamientos que es un poco inestable no y también añadimos entre el super base 21 y la fase de alineamiento como un paso intermedio que requiere entrenar el riguard model que suelen ser pues modelos como roberta pero bueno ya requiere esa ese paso de extra entrenamiento entonces lo que nos dio un poco la vida no a la comunidad o las ales es cuando se publicó direct preferencia optimización que básicamente es un algoritmo que también utilizando los datos de preferencia pero sin la necesidad de entrenar un un riguard model pues básicamente conseguimos lo mismo esto se consigue utilizando el modelo que hemos entrenado la fase 2 como modelo de referencia y lo comparamos con el modelo del cual estamos haciendo feint tuning para comparar las respuestas y mediante una función de pérdida muy chula que podéis leer en el en el paper y que yo no voy a explicar porque me tiraría todo el día y aún así no la haría bien pues se consigue se consigue esta alineamiento y bueno hoy nos vamos sobre todo a centrar en las fases de super base fan tuning y alineamiento creas dos deitas para para estas dos fases porque bueno por desgracia la fase de entrenamiento todavía no es no podemos hacerlo empresas pequeñas o incluso comunidades pequeñas porque bueno requiere requiere muchos recursos que sólo unas pocas empresas de momento tienen vale entonces bueno pues os voy a contar la historia de notas ahora y para empezar a contar la historia de notas pues tengo que empezar a contar la historia de de otra de otra organización bueno como sabréis a finales 2023 mistral bueno finales en 2023 mistral e hay público mistral 7b uv 01 que básicamente es un modelo de 7 billones o 7000 millones de parámetros si hablamos en español en castigano entonces bueno este modelo es fue pre entrenado con con datos de internet como ya he dicho antes y fue publicado y en su momento pues fue el mejor modelo pre entrenado de este tamaño y bueno del pues han nacido una infinidad de modelos uno de los modelos que han nacido fue cefir no cefir 7b que básicamente nació de un experimento de de un equipo de havin face de h4 del cual luiz tostar que que también es también ha estado aquí muchas veces en somos en el ep pues nada lo que ellos querían hacer es básicamente en validar que se podíaentrenar a un modelo con con dpo y para eso para ello preparan este pequeño experimento en el que primero hicieron un super vice 21 de utilizando ultra chat que es un modelo generado sintéticamente utilizando utilizando chat y pt y después hicieron un un alineamiento no utilizando dpo la técnica que mencionado antes y y ultra feedback que es otro data es similar a ultra chat pero en el que tenemos como ya he dicho antes preferencias no en una fila tenemos una una unas escores que nos permiten decir si si una respuesta es mejor que otra y bueno con esto y con dpo pues conseguiron cfir 7b que fue un modelo pues que a finales de 2023 obtuvo muy buenos resultados en los benchmark y bueno nosotros en argila desde vimos todo esto vimos que había una tendencia a crear datos sintéticos utilizando otras lm y decidimos crear distillable que es el el framework que voy a enseñaros un poco más tarde y que tenéis que utilizar en este jacato y bueno empezamos a desarrollar distillable y también queríamos probar otras cosas como si una fase si una segunda fase de dpo sobre cfir 7b beta mejoraría el modelo y bueno lo que nos encontramos o lo que hicimos al final fue esto volvemos a utilizar ultra feedback para utilizando también dpo crear notos 7b uv1 a partir de la versión cfir 7b super base 21 y bueno ahora os estábis preguntando que qué diferencia hay entre notos 7b uv1 y cfir 7b beta porque los dos utilizan ultra feedback para hacer esta fase de alineamiento pues la diferencia es que nosotros cogimos ultra feedback y le pusimos una una tirita porque nos encontramos que tenía algún fallito y como nos dimos cuenta de estos fallitos bueno pues básicamente subimos el data sentí ultra feedback a argila y nos dimos cuenta pues que había algunas puntuaciones para para las respuestas que se habían seleccionado que eran muy altas sin embargo si miramos si mirábamos la la crítica que había hecho la lm que también había sido de esa nota pues no tenía sentido no tenía sentido porque bueno en este caso por ejemplo cuál es un animal libro o bolígrafo bolígrafo es un animal el libro es un animal y bueno insisten que el bolígrafo es un animal claramente está mal está fatal de hecho pero habis aparecía como la respuesta elegida y con muy buena nota con un 10 entonces bueno nos dimos cuenta de que la pipeline que habían generado bueno que habían utilizado el grupo de investigación que creo ultra feedback que fue open bmv pues tenían un bug en el cual repitieron bueno había 2.000 filas afectadas por este bug en el cual básicamente la respuesta elegida era muy mala pero sin embargo se la había puesto una escora una puntuación de 10 entonces bueno utilizando arreglando esto y luego también también nos dimos cuenta de que bueno en ultra feedback por cada fila se y por cada respuesta no se estaba generando una crítica al a la respuesta a la cual se le estaba asignando un escore entonces por ejemplo en el trafico si para una respuesta si para un prom teníamos tres respuestas se estaban haciendo tres ricos a gpt4 con cada respuesta y se le estaba preguntando que se le diera darle una escora esa respuesta y bueno y una y una explicación detrás de esa escora y luego a la vez también se había hecho más o menos el mismo proceso pero si teníamos tres respuestas las tres respuestas fueron enviadas en el mismo en la misma petición a a pn a gpt4 para que más o menos hiciera lo mismo que les diera un escor y una explicación detrás de cada escor y cuál es la diferencia diréis entre entre estas dos maneras de bueno de obtener más o menos el mismo deitas pues que en uno estamos pasando las respuestas todas a la vez entonces esto le permite a la lm también compararlas y y también determinar cuál es mejor que la otra sin embargo en esta de la izquierda como ya se ha comprobado también en en recientes estudios pues las lm entre ricos no son las puntaciones que dan no son consistentes entonces bueno nosotros decidimos crear un data set de ultra feedback utilizando estas este método no estas escores que sehabían generado con una sola petición y bueno lo que conseguimos básicamente replicando la receta que compartieron los chicos de havin face que por cierto muchas gracias porque fue muy bueno ayudado muchísimo y y bueno y también hicieron ver que dp o realmente funcionaba pues básicamente entrenamos notos 7b uv 1 que superó a cfil bueno no supera cfil en en mt benz que es un un benchmark pero sí que conseguí acercarse muchísimo muchísimo sin embargo en alpac a val val consiguió casi un punto más y fue incluso mejor que clau de dos que es un modelo que seguramente sea bastante más grande pero no sabemos porque es privado entonces bueno con esto espero que os haya servido de motivación para para para utilizar herramientas como distilable para generar datos sintéticos y no sólo quedarse ahí sino también subir esos data set que han sido generados sintéticamente a una plataforma como argila y evaluarlos y anotarlos a través también de humanos o expertos para para asegurarse de que el data set creado es es bueno y con el que vamos a entrenar una una lm entonces bueno ahora voy a compartir un pequeño notebook que he creado y os enseñaré un poquito distilable y argila y cómo crear un data set con para para super vais fine tuning y y también y p o vale pues espero que podáis podáis estar viendo mi pantalla creo que sí sino decirme lo que alguien me grite por favor y vale pues nada en este en este notebook lo que vamos a hacer es básicamente cargar un un data set en este caso vamos a cargar el de un data set de bueno un subset de de la wikipedia no de artículos en español y lo que vamos a hacer es generar un un data set para super vais fine tuning y más tarde un data set para para dp o para entrenar una para alinear una lm con dp o entonces bueno básicamente bueno ahora un poquito de código estándar no importamos data set y cargamos el data set del havin face hub en este caso wikipedia le decimos que queremos el subset de español y bueno el data set de la wikipedia es bastante grande entonces le vamos a decir que que no lo cargue que nos lo vaya que nos lo vaya dando poco a poco desde el havin face hub bueno que más unas funciones vamos a crear unas funciones no que permitan filtrar un poquito el data set en este caso no me interesan los artículos que son de desambiobación son estos artículos que bueno pues una palabra puede tener varios significados no varios artículos entonces no queremos esos esos esos artículos los vamos a filtrar si perdona que te interrumpa un poquito puedes aumentar y así lo verán mejor sí perfecto vale pues continuó y bueno luego vamos a filtrar artículos en los artículos no queremos mi artículos muy cortos ni tampoco muy largos y nada y por último se limpiar un poco el texto eliminando estas cosas que suelen estar al final de los artículos de wikipedia como enlaces externos referencias bibliografía que no se interesa mucho y bueno con esta función vamos a ir iterando el data set y trayéndonos filas desde el havin face hub para construir un un pequeño subset no entonces bueno el el data set que generamos básicamente va a tener en cuatro columnas el id del artículo la url y el título y el contenido del artículo vale entonces una vez que tenemos el el data set vamos a vamos a generar un un data set a partir de este cortus en crudo por así decirlo que hemos traído de artículos de wikipedia utilizando una cosilla diferente a la que a la que a lo otro que hemos compartido en el notebook que ya compartimos hace unos días en este caso vamos a utilizar y en estruz 7b que es una lm que fue recientemente publicada por no es research la pasada semana y bueno me ha parecido muy interesante no porque lo que nos permite esta lm es generar pares de instrucción y respuesta pero a partir de de una fuente que nosotros le digamos no entonces esto está muy bien porque hay otras alternativas para generar de estos estas instrucciones como selfie strut pero en ese caso podemos sufrir los efectos algún efecto adverso de las lm como las alucinaciones con con esteenfoque de pasarle un contexto por así decirlo bueno es un contexto podemos evitar más las alucinaciones porque la esta lm para lo que se ha entrenado es para generar una instrucción y una respuesta a partir del contexto y bueno también es muy interesante porque bueno si digamos que yo que sé tu empresa o tú tienes una base de datos bastante grande con datos en español pues también con esta manera utilizando esta lm puedes generar instrucciones y respuestas para luego hacer feint y un de de otra lm que tú puedes utilizar ya y que va a estar entrenada y y alineada para para la tarea que tú quieres desempeñar entonces bueno también me viene al pelo no un poco lo de la de genestru porque genestru ahora mismo no está integrada en distilable pero bueno me viene bien porque así también os puedo explicar un poco los bloques principales de distilable y cómo podemos implementar estos estos bloques para para hacer una cosa un poco más un poco más custom un poco más personalizada entonces bueno distilable básicamente tiene dos componentes principales no que son una lm una clase lm o extracción que básicamente es la que se encarga de nada dado dado un prom pues es la que sabe utilizar la lm ya sea open hay un modelo o pensar como lama o utilizando otros frameworks como vlm o lama cpp bueno pues sabe utilizarlo y dado un prom nos va a dar una respuesta y luego tenemos otro bloque que es la tarea una tarea básicamente define lo que tiene que hacerle el el y cómo cómo hace esto cómo lo consigue pues básicamente haciendo prom bien y en el y la tarea define un un bueno un molde no en el cual dadas unas entradas se construye este prom la tarea lo construye construye el prom se lo pasa a la lm la lm devuelve una salida y esta salida generalmente también va a estar estructurada de cierta manera por la cual la la tarea utilizando técnicas más mondanas o normales como regular expresión expresión es regular eso simplemente pues eso comprobar si si empieza con o cosas así más normales podemos extraer esa información vale pues entonces lo que estáis viendo aquí básicamente es la implementación que he hecho para de una tarea para para que funcione con genestruz en genestruz espera este perdón que le tengo aquí arriba este prom entrada en el cual le pasamos un título como podéis ver campeonato mundial de oracesto sub 22 masculino de 1997 y después le pasamos el contenido del artículo en este caso pues nada habla sobre el campeonato mundial de baloncesto sub 22 masculino del año 97 en el cual fue fue melburn y ganó australia puertorrico por desgracia entonces bueno entonces le daremos esto como como entrada la lm y la lm nos devolverá algo similar a esto que equipo fue campeón mundial de baloncesto sub 22 masculino en 1997 lo que ha hecho la lm aquí es actuar como que ella es el usuario no y lo que ha hecho es generar una instrucción generar una tarea y luego si si vemos a continuación nos ha devuelto también la respuesta es a pared y todo esto lo ha hecho utilizando la información de contexto que nosotros le hemos pasado y bueno en este caso es como muy obvio lo que ha generado porque a lo mejor el artículo tampoco tenía mucha más información pero si el artículo es largo y contiene varios puntos o varios tópicos pues genera cosas más más complejas digamos entonces nada le ha preguntado a general instrucción de que quien ganó y básicamente ha contestado pues que ganó australia y que tuvo lugar en melburna y todas estas cosas que hemos visto antes vale entonces volvemos a la implementación de la tarea perdón una tarea en distilable básicamente tiene que definir cómo generar un prom en este caso básicamente hemos definido este molde no que tiene síntasis de yinya 2 que es un framework para para construir eso templates y nada lo que lo que va a recibir son las columnas que tenemos en nuestro de hitas que hemos creado anteriormente entonces si recordáis teníamos el titulo el contenido y bueno aquí está como opcional los mensajes queveremos más tarde para para que los podemos utilizar cosas importantes una tarea también tiene que definir cuáles son las entradas que necesita el título el contenido de los mensajes y qué es lo que va a generar en este caso va a generar una una conversación que básicamente va a ser una una lista de cadenas de texto en la cual los índices pares serán un mensaje de un usuario los los impares de de un asistente de inteligencia artificial y luego lo último ya es definir una función que recibirá la salida del lm y que será capaz de de eso de procesar esta salida para para obtener en nuestro caso la interacción del usuario o la instrucción que ha dado el usuario que en este caso es mentira porque es el lm en lo que está generando y y la respuesta que ha dado el asistente entonces de esta manera lo que vamos a conseguir es utilizando datos que ya tenemos que sabemos que son verdad o creemos que son verdad vamos a generar instrucciones y y respuestas que luego podemos utilizar para hacer super base 21 de de otra lm vale en este caso en el notebook en el primer notebook que os compartimos si no recuerdo mal se utilizaba los infern en points de having face que también muchas gracias porque para esta jacatón bueno nos han dado el pier de enterprise en la organización de somos en el ep y gracias a ello podemos utilizar otras lm como veremos más tarde más grandes como lama 2 de 70 billones o mixtral no confundir con mixtral y entonces bueno pues muchas gracias también pero en este caso y de manera alternativa pues vamos a utilizar vlm que básicamente es un framework para la inferencia de lm y bueno en inferencia en batch ahora mismo es es la más rápida es el framework más rápido sin sin diferencia al menos por lo que yo he podido probar y bueno lo que vamos a hacer es cargar y en estru en este caso lo he cuantizado no es la versión original esta es una versión cuantizada que he creado yo de ahí utilizando a vdk y esto es porque en los notebook de colap gratis tenemos una t4 y el modelo original no entra no entra una t4 o entra muy justo y en cuenta como se inferenciaba nos va a dar un error entonces con a vdk si que funciona bastante bien el modelo y bueno una t4 da de sobra para hacerlo entonces genial pero bueno si tenéis una gpu más contáis con una gpu más potente con más vram pues os recomiendo que utilicéis directamente el original que es no result y barra en estru 7b vale pues luego como he dicho antes tenemos la task y tenemos la tarea y la vlm entonces creamos una task y básicamente como system prompt que no es un system prompt como tal porque lo estamos colocando aquí entre medias pero es un poco el hack que he hecho para poder implementarlo básicamente le estamos diciendo la siguiente interacción es entre un usuario que solo sabe español tenemos que insistirle un poco en que solo sabe español y que el asistente también es solo sabe español o que va a contestar en español porque si no nos va a generar texto en inglés mistral 7b que es el modelo pre entrenado por el cual se ha hecho y del cual se ha hecho fin tuning para generar y en estru sí que funciona bastante bien en español pero sí que es verdad que en algunos casos bueno como ha dicho maría pues tiene estas respuestas un poco de español muy neutro no y también hay veces pues que no nos hace caso y también nos va nos va a responder en inglés entonces bueno es importante tener una fase de verificación después de generar data set como veremos después y vale ahora vamos a generar a crear la lm en la básicamente tenemos esta clase de vlm en distilable que es un un wrapper un envoltorio de la clase original de de el vlm entonces le pasamos el modelo que hemos cargado la tarea que queremos que realice y también le decimos pues que queremos que que genere 512 nuevos tokens como máximo le ponemos una temperatura así medio medio alta no porque queremos que tenga un poco de variabilidad en las respuestas que genera y luego bueno le pasamos un prompt en facción que estotambién es un poco hack que he tenido que hacer el implementación para que funcione así que nada básicamente la función recibe el prompt y devuelve el prompt es decir no hace nada de expedición vale y luego lo que hacemos es instanciar una pipeline una pipeline que tiene un generador que en este caso es esta lm y en strut con la tarea de y en strut vale y bueno entre medias nada seleccionamos unas cuantas columnas del data set que hemos cargado y nada añadimos una columna de mensajes en este caso con mensajes vacíos y ya veremos después por qué y nada creamos esta función para para arrancar la generación del dataset y generamos el dataset y como podéis ver aquí pues nada distilado el comenzará a a generar datos utilizando la lm y la tarea en batch porque le hemos puesto que lo haga con un batch de tamaño 50 y el data se que hemos creado tiene más o menos 500 filas pues nada en 10 batches lo tiene y esto bueno la verdad es que es bastante rápido creo que hay 10 9 minutos y la verdad que bueno en 9 minutos 500 instrucciones y 500 respuestas está bastante bien vale entonces el dataset que nos devuelve la pipeline de distilable es un dataset del hub por lo que podemos perfectamente subirlo al hub in face hub y nada si lo subís no se diréis como ha dicho María de documentarlo todo y y nada y antes de subirlo también comprobar comprobar lo que sé lo que ha generado la lm y bueno para ello pues lo que podemos utilizar es argila no entonces para subir el dataset que hemos generado vamos a tener que hacer un poquito de post procesamiento en este caso nada vamos a decirle que la columna de conversación que es la que generaba la tarea de y en estru nos la ponga en un formato de lista no en la cual tenemos diccionarios y el diccionario básicamente contiene una clave que es rol que es usuario y o asistente y un mensaje que es el mensaje no vale entonces con esto ya lo que podemos hacer es subirlo a argila vale cómo desplega más argila pues la solución más fácil para desplegar argila es venirse aquí al hub en face hub venir aquí le dais a nuevo espacio y en docker aquí le dais a argila y con esto nada en dos minutillos tenéis un un espacio de hub in face hub con argila desplegado que podéis utilizar continuó vale bueno importamos argila y nos conectamos al espacio que hemos creado y luego bueno hacemos un poquito de esto también básicamente es una función para para formatear los mensajes que nos ha dado la lm como si fuese un chat algo así como lo que tienen en el hub in face chat y hoy y nada creamos un dataset de de argila que básicamente pues va a tener en tres campos de texto el título y el contenido que es lo que hemos la lm ha utilizado como contesta para generar las instrucciones y las respuestas y y bueno la conversación que se ha generado y luego vamos a definir unas unas preguntas para darle una puntuación a la conversación generada y también le vamos a vamos a preguntar al al humano no que si que si la que se ha utilizado la lm ha utilizado la información de contexto para para la conversación generada porque puede ser que no la haya utilizado y en ese caso puede haber cometido errores entonces bueno podemos luego filtrar también estas filas entonces bueno esto es un poco código repetitivo para subir el el dataset de argila y y crearlo y bueno básicamente lo que hacemos es un puesto de argila y si venimos aquí tenemos el el dataset que nos ha generado no tenemos el título el contenido del artículo y tenemos también lo que nos ha generado la lm en este caso bueno la interacción que hice el usuario no se pronunció este nombre así que me vais a ordenar compití la década de 1960 ganó una medalla de bronce la competición individual colina grande que medalla ganó que yo no se pronunció y bueno la lm nos ha contestado pues ganó una medalla de bronce la competición individual de colina grande y como podéis ver pues ha generado un poco de texto en inglés no entonces es por eso que también es muy importante que no confíeis en lo que esciegamente lo que ha generado la lm y que subáis las cosas también argila para para revisarlas manualmente o utilizando otras heurísticas para detectarse y texto en inglés o bueno otras alternativas entonces bueno esto le vamos a poner que una puntuación de está medio bien pero claro luego ha puesto el inglés entonces le vas a poner un casi aprobado o suspensos total la verdad no queramos inglés y bueno sí que parece que ha utilizado la información de contexto no entonces la decimos que sí y nada y enviamos esta información para luego es que alguien la procese y utilizando la etiqueta lo que ha hecho el humano construir un data set una segunda versión del de y ta set ya más como se suele decir en inglés con golden labels es decir con labels que ya son se saben ciertamente pues que está que está bien vale entonces me quedan cinco minutos así que me voy a dar pricita vale como se he dicho antes por ahí en el data set del principio teníamos una columna mensajes no que al principio estaba vacía y porque estaba vacía bueno pues la idea que os doy también para para este hackath es que podéis ejecutar una segunda iteración o incluso una tercera iteración utilizando este modelo para para generar eso conversaciones más largas y también pues entrenar una ila m que sea también mejor en español que sea mejor para para chat no que no sea sólo te dé una instrucción me das una respuesta y a partir de ahí ya todo mal no que sea que tengamos datos con varias e bueno varias interacciones de chat y y poder reentren una lm en español eso que sea mejor para chat entonces bueno lo que hemos hecho aquí un poco más arriba es generar este data set iteración 1 y esto si venimos aquí y hacemos mesa y 0 pues como podemos ver tiene el mensaje del usuario y el mensaje bueno la instrucción del usuario y y la respuesta del asistente entonces lo que vamos a hacer ahora o lo que va a hacer la tarea de genestru task es que va a incluir también esta información entonces lo que va a hacer el lm ya es generar una instrucción o una una instrucción del usuario y una respuesta del usuario pero ya para un segundo turno entonces bueno básicamente volvemos a ejecutar esto que va a hacer lo mismo que arriba y si venimos a la tarea aquí porque también hemos subido a la tenemos una segunda iteración en la que ya tenemos como podéis ver pues es un segundo turno vale entonces pues de esa idea por si la queréis utilizar y compartir el notebook también y bueno muy rápidamente voy a contarla del dp que no me quiero meter en la en la charla de mano vale dp ahora no recordemos que es este de tasset que básicamente tenemos una instrucción preguntamos a una lm varias veces o a distintas lm que nos genera una respuesta y etiquetamos cuál es la mejor y con estas datos de preferencia entrenamos otra lm para que se alinea se alinea eso entonces bueno muy rápidamente vale lo que voy a hacer dime tranqui no pides o sea mejor que lo expliques bien y empezamos unos minutos más tarde el de mano yo creo porque casi todo el mundo que vaya el de mano está aquí ahora o sea que vale vale perfecto entonces o sea no te prisa pero tampoco te saltes cosas importantes no te preocupes vale gracias nada pues lo que vamos a hacer es un primer paso para llamar a la pipeline de distilable es exactamente igual que la de arriba lo que pasa es que esta vez le vamos a decir que genere que para una instrucción genere bueno que para una instrucción que para una fila genere otras tres filas por así decirlo no entonces lo que vamos a conseguir es varias instrucciones y varias varias respuestas y luego lo que vamos a hacer en una segunda fase es crear una tarea de ultra feedback no que es básicamente la la tarea o el template o el prompt template que utilizaron la gente de opn bmb para utilizar chag ppt para para eso para etiquetar dada una una instrucción de entrada y varias respuestas pues lo que la lm va a hacer con esta tarea es decir cuál es la mejor de las tres respuestas para esa instrucción y también nos va adar un una explicación entonces nada vamos a generar las respuestas como hemos hecho arriba para el data set de super by fine tuning y después vamos a hacer un poco de formateo de la salida para que la podamos dar a otra feedback porque requiere las columnas de input y generación en el data set de entrada como podéis ver aquí entonces input por ejemplo a cero esta es una instrucción y luego si me vengo y imprimo en erasión 0 pero en erasión 0 tengo la primera respuesta que se ha dado para esta instrucción si le doy el uno tengo la la segunda que se ha dado y si le pongo el dos pues tengo la tercera respuesta que se ha dado para esta instrucción vale entonces para utilizar model tareas como ultra feedback si que os recomiendo de utilizar modelos que sean más grandes no que tengan un poquito más de de lugar o de o que hayan aprendido más cosas y que puedan hacer esta tarea con más facilidad entonces en este caso sí que decide utilizar los infren en points de haguin facebook y le estoy diciendo que utilice mixtral que es un modelo también de mixtral pero un poquito más potente y grande para hacer este etiquetado con otra feedback y nada eso os recuerdo que tenéis que estar en la organización de somos en el depen haguin facebook para poder utilizar este modelo de manera gratuita y nada si estáis dentro pues veréis este mensaje de usings server les infern en point lo que significa que todo ok vale entonces ejecutamos la pipeline utilizando esta lm como etiquetador y generamos el data set para depio vale en este caso como la tarea está bien integrada en distilable bueno podemos empujar el data set al haguin facebook y también la podemos subir a argila de manera automática y lo bueno de esto es que este método va a generar también metadatos de manera automática y también vectores que podéis utilizar para para hacer búsqueda por similaridad en la interfaz de argila entonces nada volvemos a subir el data set a argila y si volvemos aquí y venimos aquí pues nada tenemos un data set un poco más distinto en el que tenemos un campo que es el input donde está la isla de man on y y tres generaciones y bueno y como podéis ver aquí tenemos unas cuantas preguntas que las podrías haber puesto en español pero claro es que se ha generado automáticamente y y bueno aunque los podemos cambiar podéis venir aquí y en cuestiones ponerle en español no lo voy a hacer ahora que si no no era tiempo pero bueno básicamente mixtral lo que ha hecho es coger la instrucción y las generaciones y les ha puesto un score una puntuación y nosotros utilizando la característica que tiene argila para para añadir sugerencias pues hemos autorrellenado estas preguntas que tenemos aquí a la derecha entonces cuál es la puntuación que se ha dado la generación 1 3 cuál es la que se ha dado a la generación 2 5 y cuál es la que se ha dado la generación 3 4 aún así podemos leerlo y comprobar que esto está bien si vemos que no está mal o que está mal y que eso que la etiqueta normal pues podemos venir aquí y ponerlo en 2 en este caso vamos a dejarle el 5 lo que significa que esta generación 2 sería la respuesta elegida para esta instrucción y luego podemos bien o elegir esta generación 1 o generación 3 como la respuesta rechazada y nada aquí también tenemos cuál es la la explicación del de la puntuación que ha dado la lm entonces bueno podemos pasar y nada ir etiquetando y reisando lo que las bueno el etiquetado automático que ha hecho un mixtral vale entonces luego cosas más interesantes a lo mejor queréis encontrar instrucciones que sean similar a esta pues lo que podéis hacer es clicar aquí en o a las generaciones porque bueno a lo mejor una generación ha sido muy mala y muy característica entonces podemos buscar generaciones similares a eso pero en este caso vamos a buscar filas similares al input entonces distilé y vola automáticamente cuando hemos hecho la lectura gila ha generado también unos vectores para hacer búsqueda por similaridad y ahora pues desde la yuai podemos hacer esto no fine y nosva a encontrar uno que sea similar en este caso pues el modelo que habrá utilizado es en inglés entonces la gente el vector que ha generado no es muy bueno y nos está diciendo que esto es un 85 por ciento similar pero bueno entre comillas y bueno luego que más podemos hacer para filtrar rápidamente o para buscar récords en argila podemos utilizar los filtros y por ejemplo queremos ver las generaciones bueno las instrucciones más largas por venimos aquí le decimos filtrame las que las que tengan entre 389 493 caracteres y ya de esta manera nos las va a filtrar y vamos a poder ver las las instrucciones más largas que más bueno también lo mismo para la longitud de las generaciones y bueno también una vez que hemos etiquetado también podemos ver podemos filtrar por la por la puntuación que hemos dado por ejemplo en este caso no hemos dado ninguno entonces no hay y luego también podemos filtrar por las sugerencias de mixtral por ejemplo podemos decirle pues el escore esto está regular e dame las que tienen nada un escor entre 0 y y 0 69 vale entonces nada aquí más o menos bueno más o menos acabo y nada espero que que os haya sido de ayuda y y por la disfrenal pues nada muchísimos datos en español para entrenar el lm es que nos hacen falta sin totalmente nos hacen falta muchas gracias a abril la verdad súper súper completo el taller también con muchísimas gestiones y tal motivando obviamente con nuestro caso de éxito que fue notus y después el el notebook lo tiene todo el mundo a que después me lo pasa si es igual repó lo comparto en discord lo subo a la página web así cada persona como lo que estáis buscando o sea utilizando como como sitio de referencia para encontrar la información del jacatón lo tendréis ahí no sé si hay alguna pregunta así un poco rapidita y si no igualmente deciros que el equipo de argila bueno como todos los años son súper simpáticos o sea que están en discord y también os podemos o sea les podemos reenviar un par de preguntas si tenéis por ahí vale te voy a hacer una porque lleva ahí mucho rato entonces creo que se lo merece dicen aún modra pre entrenado se le puede agregar nuevo conocimiento que no haya estado en el corpus inicial yo creo que además es bueno es decir un proceso no es vervisático y propósito no sea cual instrucción pues esta es muy buena pregunta y de hecho bueno gente del del barcelona super compitio en center ya ya hicieron esto y sacaron águila 7b que básicamente pues es una continuación del pre entrenamiento de falcon 7 y entonces sí que es algo que no es sencillo de hacer no tiene cierta complejidad y bueno una de las primeras cosas que hay que hacer también no es cambiar el el toquenizador no que es la pieza que dado unos unas palabras no nos las transforma en una en bueno primero nos los nos corta las palabras en trocitos no nos transforma en tokens y esas tokens les asigna un idea y porque es importante primero cambiar el toquenizador para tener uno que sea más especializada de español porque los que están entrenados con datos sobre todo del inglés bueno pues las palabras en español las dividen en en más trocitos no entonces al final es peor entonces bueno lo que hicieron este grupo del bsc es eso cambiar el toquenizador para entrenar uno que fuera con datos primariamente del español y del catalán y continúa el pre entrenamiento de falcon 7 y sí que consiguieron resultados bastante buenas pero repito es un proceso complejo y que también requiere pues tener muchas gps como tienen en el bar de la súper computing si de hecho estaba creando ahí una una colección de modelos que tenemos así pre entrenados y también es de para instrucciones en español que acabo de compartir así que bueno ahí más pero muy bien la respuesta y otra pregunta que vamos a hacer es que es más de argila si es una forma de cambiar la respuesta dentro de la plataforma si yo en este caso no he creado una pregunta de texto pero tú en tu data set puedes crear una pregunta de texto que sea por ejemplo si está malla respuesta que ha dado la lm corrígela y la y la puede lo que puedes hacer es bien copiar la respuesta modificar las partes que que están malos reescribirla completamente que es de hecho lo que estamos haciendo en el en la otra parte de jacatón para para esa para traducir mejor los los datos que hay para para hacer pens marquín del elense al español tal cual lo dejo aquí o sea podéis entrar en hf.co o sea la hainfase vale la organización de somos en el epe y está ahí el espéis y efectivamente es lo que dice gavriel en plan ahí si está mal traducido si nos ha traducido para nada o lo que sea podéis sobre escribir digamos mejorar la la traducción entonces sí que se puede genial pues hasta aquí muchísimas gracias gavriel creo que le ha encantado a todo el mundo se ha quedado todo el mundo hasta el final cosa que siempre es buena señal o sea que muchísimas gracias y ya estará próxima gracias a vosotros a lo mejor
Gabriel @Argilla
Taller: Entrenamiento de LLMs con datos de calidad, Manu Romero @MAISA | #Somos600M
En el mundo continuamos con los talleres de nuestro hackathon, somos 600M. Como sabéis, nuestros objetivos son crear recursos diversos, abiertos y de calidad de procesamiento del lenguaje natural en español. Ya hemos tenido un taller que acaba de terminar. Super interesante con Gabriel de Agila, es ingeniero de Machine Learning allí y nos ha explicado cómo crear data sets de calidad utilizando Agila y Distill Label, que son los herramientas que han desarrollado. Y por el principio nos ha enseñado su caso de uso, el modelo Notus. O sea, su caso de uso, sí, que tuvieron mucho, mucho éxito, caso de éxito, eso, del modelo Notus. Y después nos ha enseñado cómo podemos utilizar estas herramientas para desarrollar nuestros propios data sets y después de utilizarnos para entrenar nuestros LLMS. Ahora vamos a continuar con la importancia de la calidad de los bases de datos con Manu Romero, a quien le doy la bienvenida. Bueno, casi todo el mundo aquí ya le conocerá, ha dado un montón de charlas para somos un LPA y también en todo lo que es el ecosistema de Hi-In Face le conocemos mucho porque ha entrenado un montón de modelos. Creo que ya oficialmente has llegado al 500, Manu. -Más cierto, de seguro más cierto. -Incredible. Entonces, bueno, obviamente es una persona muy indicada para enseñarnos cómo hacer, bueno, entrenar estos modelos y también a la que yo creo que vamos a hacerle caso, sí, todavía nos ha quedado claro que necesitamos data sets de calidad para entrenar nuestros modelos. Entonces, bueno, bienvenido, Manu. Muchísimas gracias por preparar este taller y comparto tu collab y todo tuyo. Para la gente que no estáis viendo en directo, podéis preguntar las preguntas en el chat y yo al final del taller se las voy leyendo a Manu. Vale. Adelante, todo tuyo. -Vale, pues, bueno, no sé si veis bien el cola o quieres que haga un poquito de zoom. -Igual, un poquito más. -Sí, así, una cosa así. -Un poquito más. -Venga. -Ay, yo creo, para que vean bien el código y tal. -Vale, si no me interrumpen, María, y vamos, voy haciendo zoom. Vale, bueno, pues, cuando hablaba con María un poco de algo muy importante, ¿no? Que está tomando mucha relevancia en el mundo del NLLP o en concreto en el mundo de los LLMs, pues consideramos que ya tocaba un poco crear igual un ejemplo en tu N de principio a fin de cómo la calidad de los datos sobre la cual entramos en nuestro modelo, ya sea fine tuning o incluso pretraining, pues afecta en la calidad también del modelo resultante. Al final, ¿no? Hay una ley, ¿no? En programación se dice mucho de "Gerbichin, Gerbichout", ¿no? Que es como si insertamos basura o obtenemos basura y los LLMs no son la excepción, ¿no? Todo es creo que como modelos como, por ejemplo, FI2 de Niklosov, que tú el mundo lo conocerás o stable LLM, la versión 2 también, que son modelos más pequeños, pero que consiguen un rendimiento bastante importante gracias a entrenar en datos sintéticos de alta calidad, especialmente el libro de texto, ¿no? Es una como algo muy natural, ¿no? De cómo nos enseñan nosotros, ¿no? Nos enseñamos cuando íbamos a la escuela, al colegio o al instituto, ¿no? Basado en el libro de texto, pues generando esos libros, porque lamentablemente no hay mucho digitalizado de ese estilo y menos en español, digamos, que se consigue, ¿no? Datos de calidad que como resultado dan modelos que luego rinden muy bien en los Benzbar y no es que lo diga yo, sino que ahí están modelos como FI2, de los billones de parámetros, que se acerca a algún modelo de 7 billones, ¿no? Mucho más grande. Pues, bueno, vamos a ver un poco eso, ¿no? Es ejemplo de Entwenn, en el que veremos también cómo hacerle el FI2 y no al modelo, ¿no? Si alguien quiere reproducir el experimento entero. Y, bueno, como dice María, yo creo que conocerme, me conocéis todo ya, pero, bueno, un poco acerca de mí. Ahora estoy trabajando de CSO en Maesha, que es como se han renombrado la antigua Kiribren. Y, bueno, colaboró bastante con Javi and Faiths. Hoy,como ha dicho María, pues, de las personas que más modelos se ha aportado al Javno, algunos de ellos con muchísimas descarga al me, 20 millones de descarga, el bajador de Javi and Faiths, también, participé en el proyecto de BigSci and the Big Code, que era como una especie de intento de hacer un GPT3 abierto a todo el mundo y un co-pilot, ¿no? Para código también abierto. Y, bueno, antes de esto, estaba en narrativa, también como ingeniero de NLP, con María, cofundé, somos NLP, y mi formación es Computer Science, hago ingeniería informática y hasta que me metí hace, pues, no sé, ya cinco o seis años, ¿no? En esto de la día, en concreto, de los modelos de lenguaje, pues, ha hecho bastante bacan. Y, bueno, pasemos, no directamente, a ver un poco los beneficios, ¿no? de entrenar, porque aunque lo que vamos a ver es un ejemplo de fine-tuning realmente en el pre-training también, en la fase, estátos fases, ¿no? Que tienen los modelos de lenguaje, pre-training y post-training, pues, tienen la de pre-training, también es muy importante, igual de importante o más, que tengamos esos datos de calidad, ¿no? Que ese corpus sea de calidad. Entonces, ¿qué beneficios tiene de eso? Pues, tiene beneficios como es alignment, ¿no? O alineación y adquisición de conocimiento, ya que estos datos de alta calidad, pues aseguran que el modelo aprende información precisa, de ahí que se utilicen muchos libros de texto, últimamente, comportamiento apropiado, ¿no? Qué es crucial para que el modelo, pues, pues se alinea al final con objetivos humanos y adquiera conocimiento durante ese pre-training. Con ello también conseguimos que tenga un mayor rendimiento y capacidad de generalización, ¿no? Entrenas con datos de mala o baja calidad, puede afectar muy negativamente al rendimiento de esto. Mientras con datos de alta calidad, pues, ayudan, por ejemplo, a reducir seco y mejoran la capacidad de fiabilidad y capacidad de generalización que tiene el modelo, que acerna en lo que importa, ¿no? ¿Cómo devuelve generalizando ese modelo? ¿Respondiendo o enfrentando ese escenario que no ha visto, ¿no?, en su dato de entrenamiento? El modelo de lenguaje y, en general, todos los modelos de día se entrenan con ese propósito, ¿no? Con que rindan bien en casos que no han visto durante el entrenamiento, porque en casos que han visto durante el entrenamiento, ya suponemos que rindan bien. Y si le preguntamos por las mismas cosas que ha visto, seguramente se la sepa, pero de memoria, ¿no? Tenéis en cuenta que estamos hablando de modelos de billones de parámetros, con lo cual, a la vez, es probable que memoricen cierto contenido. Es bueno también que tengamos datos de calidad de cada la eficiencia y escalabilidad, ¿no? La calidad de los datos afecta significativamente a la eficiencia del proceso de entrenamiento. Datos de alta calidad permiten una escalabilidad más eficiente de los parámetros del modelo y pueden conducir un modelo más eficiente también en términos de cómputo. Esto quiere decir que si tengo muchos datos, pero muy noisy, o contienen información que no aporta mucho valor o información que realmente no le hace al modelo aprender nada nuevo, pues seguramente el data es muy grande, llevará más tiempo que el entrenamiento, que el modelo vea todo ese texto de manera completa, pero al final no tiene por qué tener ese modelo que obtengamos, mayor rendimiento que un modelo que ha visto menos tokens o que el data se den más pequeño, es un data set más condensado en datos que realmente aportan información, como son, me repito una vez más, no, los libros de texto. También un córpulte de calidad va en pro de la diversidad de los datos y experiencia en el dominio, ¿no? Un conjunto de datos diversos y de alta calidad, pues, permitan los LNN a los LNM, perdón, adquirir un amplio rango de conocimiento y demostrar fuertes habilidades de generalización en varios dominios, ¿no? Los conjuntos de datos especializados, pues, tambiénpueden proporcionar los LNN habilidades específicas para resolver problemas. Luego, desde el punto de vista del preprocesamiento y gestión de datos, pues, la gestión efectiva de datos, no incluyendo estrategias de procesamiento como la de duplicación, filtrados de calidad, filtrados por toxicidad, pues, al final, acaba siendo esencial para construir datas adecuadas, ¿no? Y este proceso, especialmente el preprocesing que le llamamos, influye especialmente en la capacidad del modelo para aprender de manera más eficiente y desempeñar nuevas tareas. Luego, futuras direcciones y desafíos, en este área de crear data set de calidad, pues, hay un enfoque creciente, como he comentado, en mejores conjuntos de datos para el pre-training, en lugar de entrenar con todos los datos disponibles. El equilibrio entre la calidad y la cantidad de los datos sigue siendo un área de investigación activa a día de hoy. Los datos de alta calidad, pues, pueden permitir entrenar modelos más pequeños que desempeñan de manera comparable a modelos grandes, como estamos comentando, el caso de FII, de Stable LM2, de Stability. Pero esto también implica que existen esos riesgos como sobreajuste, ¿no? Al final, que overfitting, que se conoce el término, como que aprendan de memoria. Y los sensibles que puedan ser al pronto. Bueno, visto un poco esto de la que sería, por así decirlo, como la teoría. En esa fase de pre-training, sin ir mucho más lejos, el viernes pasado, creo, que aparecía el paper de Yi. Yi es una familia de LLMS de 6 y 34 billones de parámetros entrenado en un corpus paralelo de inglés y chino. Y bueno, es uno de los modelos que rinde estado del arte, ¿no? Entonces, salió ese paper y creo que analizar un poco por encima qué han hecho ellos para adquirir ese data set de calidad, pues, viene muy bien con respecto a lo que queremos ver, ¿no? De la importancia de la calidad de los datos. Y es que si nos fijamos en el paper, luego pasa el Colab, ¿no? Para que podáis analizar el pipeline este que habéis aquí de filtro de datos, ¿no? Pero la visión general un poco que tenían es que, pues, el objetivo era crear datos de entrenamiento blingues, como decía, inglés y chino, de alta calidad, ¿no? A partir de la web, ¿no? Que es de donde se parte la mayoría de las veces. Esto implica, pues, usar herramientas específicas para identificar idiomas y limpiar esos datos, ¿no? Que nos van a venir de la web donde nos podemos encontrar datos en todo tipo de idiomas. Y, pues, a la hora de limpiar datos, pues, podemos encontrar desde algo que aporta muy poco valor o ninguno, pues, hasta como decía, ¿no? Pues, blog posts o algún tipo de publicación que sí que es informativa, que da mucho detalle, ¿no? Y que puede hacer que el modelo, pues, aprenda mejor. Y algunos pasos que se ven en el diagrama de limpieza, pues, son filtros jurísticos, ¿no? ¿Cómo se eliminan textos de mala calidad? Pues, por ejemplo, URL, ¿no? Que sean consideradas, pues, que apunten, ¿no? A sitios que ya sabemos que, pues, como algún foro, ¿no? Donde, por ejemplo, pues, haya como un, se utiliza un lenguaje tóxico o sepamos que el propósito de ese foro no es aportar nada de concimiento o un dominio y texto sin sentido, también, eliminarlo. Luego también se filtra por longitud del documento inadecuada, documento muy largo, documento demasiado corto, documentos que contengan símbolos especiales, ¿no? Caracteres que, bueno, pues, que el modelo no entienda o que directamente también tengan líneas que no están finalizadas, contenido repetitivo también se filtra, ¿no? Para que el modelo no memorice. Un paso muy importante, ¿no? Eliminar de toda esa información que hayamos recabado de la web, la información personal, como correo electrónico, números de teléfono, nombre de personas, registros médicos, etcétera. Luego hay otro tipo de filtros, ¿no? Como pueden ser filtros aprendidos que usan métodos avanzados para tratar contenido complicado, ¿no? Especialmente estos lo usan para chino, pues, que se basa en descartar documentos queson demasiado confuso de baja calidad y eliminar documentos que son incoherentes o tienen contenido peligroso. Y luego hay filtros basados en agrupaciones. Agrupaciones, aquí quiere decir en este caso, clúster, ¿no? Que agrupar esos documentos, ¿no? Sobre los que se quiere realizar el pretraign en clúster para evaluar y mejorar la calidad de manera más efectiva. Y por último, de duplicar, ¿no? De duplicar se ha demostrado que tiene unos efectos muy positivos en la calidad del modelo final que obtenemos. Vale, pues el resultado que consiguen en Gino haciendo este, por supuesto, este tipo de filtrado, más todo el training, ¿no? Pues producen un conjunto de datos al final de 3,1 billones de palabras. En realidad son tokens de alta calidad en inglés y chino. Este conjunto de datos es más limpio y verso en comparación que otro. Y como hablábamos, ¿no? En parte debido a, pues, esos métodos efectivos del impiesto y filtrado. Con lo cual recalco, ¿no? Esa preprocesing es crítico, porque, bueno, ya sabemos que si tenemos muchas GPUs y el arquitectura transformer, pues, obviamente, van saliendo algunas modificaciones especial, sobre todo en el tema de embeddings, ¿no? ¿De qué tipo de embeddings se utilizan para trabajar con contextos más largos o variaciones en el mecanismo de atención para que también permita o trabajar con contextos más largos o que no sea tan costoso en términos de complejidad espacio temporal? Pero al final, eso varía muy poco y lo que se está demostrando que importa mucho y de ahí el sentido también de este jacazón es tener datos de calidad. Y, bueno, como muestra un botón, por así decirlo, y este modelo, ¿no? El que estábamos hablando, que han hecho este preprocesado tan exquisito, pues, aquí tenemos subversiones en los benchmarks de 6 y 34 billones, que vemos que, bueno, en su tamaño, pues, rivaliza con modelos, pues, con otros modelos OpenSoul como Llamados, NoFalcon, etcétera. Aquí tenemos el benchmark como el MMLU, BitspanHard, etcétera. Y luego en otros, como matemáticas y código, digamos que teniendo en cuenta la limitación de esos billones de parámetros, pues, es un modelo que está estado del arte con otros modelos, con otros grandes que, seguro que no suenan a todos como son Mistral, Llamados, no, etcétera. Entonces, vale. Aquí os dejo el paper para que os lo leáis, si queréis. Yo os lo recomiendo mucho, porque ya os digo que modelos de estado del arte, pues, digamos que desvelan bastantes ingredientes que son importantes a la hora de realizar ese pre-training y a la hora de generar datos de calidad. Entonces, lo que vamos a ver ahora es cómo hacer fine tuning, digamos que esto ya pertenece a la parte del post-training, de cuando ya hemos pre-entrenado y ahora queremos ajustar el modelo, como sabéis, para resolver un problema concreto, pues, como en esa parte, efectivamente, también la calidad de los datos importa. Entonces, para este ejemplo, lo que he creado son dos data sets, son data sets de traducciones de inglés a español, con lo cual haríamos fine tuning. Vamos a hacer fine tuning a un modelo para que nos sirva como traductor. Y he creado, como os decía, dos data sets. Uno con traducciones de alta calidad para las cuales he usado GPT4 y otro de traducciones de mala calidad entre comillas. Para ese data set, también he usado GPT4, pero especificando en el PROM que era un traductor de baja calidad y que con lo cual podía cometer algún tipo de error. Entonces, bueno, aquí como veis, cargamos-- Esto es una muestra de los dos data sets de training, el data set con la traducción de calidad y el data set con las traducciones de mala calidad. Aquí vemos que en esta muestra tenemos 20 ejemplos de cada. Las pasamos a pandas. Es muy fácil, como veis, convertir un data set de Javier Feis a pandas para que podamos hacer el display. Y aquí si nos fijamos en las traducciones, el data set que voy a utilizar para entrenar de calidad, pues bueno, podemos echar un vistazo. Pero vemos queestán bastante bien. No hay ningún tipo de error gramatical, ni ninguna traducción literal, etcétera. No sé si María os ha compartido el cola, si no lo voy a compartir yo, pero podéis verlo. Luego, con el data set de mala calidad, de traducción de mala calidad, pues ya podemos ver que hay cosas no o hay algunas traducciones que no son del todo correctas. Por ejemplo, esta, dónde puedo aparcar, where can I park, de donde puedo estacionar. Me gustaría la número 16. Me gustaría alquilar un coche. Me gustaría rentar un carro. Vemos que es como un poco literal. Aquí tenemos también, por ejemplo, cómo puedo cancelar mi reserva. Necesito y la traducción sería necesito cancelar mi reservación, no? No cual tampoco es muy exacto. Y otro tipo de errores que podemos aquí, como veis ésta, me gustaría crear una reserva para la cena para dos personas y quiero hacer una reserva de cena para dos. Ésta estaría bien, sinceramente. Pero hay otras, como decía, que contienen algún error que es probable, que en errores de menos, que en errores, perdón, que con modelos de traducción de menos calidad, pues sea comunes, ¿no? Se puedan cometer. Entonces, una vez que tenemos esos dos data sets que, como digo, los arepúblicos, por si alguien quiere reproducir el ejemplo en tuen, pues tendríamos que hacerle fine tuning. Entonces, yo lo que he hecho para hacer fine tuning, bueno, aquí tenemos que estas traducciones reflejan errores comunes, ¿no? Como traducciones literales, que lo que habíamos dicho, terminó lo que era incorrecta y errores gramaticales típicos de traducción de baja calidad. Una vez tenemos esos dos data sets que he creado de mil ejemplos cada uno, pues lo siguiente sería hacer fine tuning a dos modelos. Uno, en el data set de traducción de calidad, yo tengo en el data set de traducciones que no tienen esa calidad. Entonces, en este caso, aprovechando también que han salido hace 15 días, pues he utilizado los modelos GEMMA de Google, en concreto los de 2 billones de parámetros, para que cualquiera pueda reproducir el experimento en un colap gratuito. Y le he posh hecho fine tuning. Y lo siguiente, ¿no? Es un poco que os quiero enseñar, es cómo le hacemos ese fine tuning, que aunque lo he contado como dice María muchas veces, pues estoy buscándolo. Aunque lo he contado muchas veces, pues bueno, no está demasiado. Vale, yo creo que está aquí. Si no se ve, María me lo dice. Vale. Creo que se ve bastante bien, ¿no? Y bueno, en este caso, he aprovechado un colap que ya tenía, ¿vale? En el que para ilustrar el proceso de fine tuning, porque es exactamente igual donde le hacíamos fine tuning a GEMMA 2 billones, pero en el data set Open Hermes, usando Polora, que ahora comentaremos. Open Hermes es efectivamente un data set de instrucciones, contiene un millón de instrucciones de alta calidad. Ahora mismo el data set en el Hub está en inglés. A ver si en este Hub, a Zom, nos sincronizamos y colaboramos y creamos algo así en español. Pero es el data set de instrucciones sintéticas de mayor calidad que hay en el Hub de Javi Pace. Y de hecho, muchos de los modelos que están en estado del arte o que opcionen mejor puntuación en la leaderboard de modelos y demás Benchmark, pues son resultados de hacerle fine tuning en este data set que vamos a ver ahora. Entonces, lo típico de siempre, he instalado la versión de Torch que veis aquí, la 211, por temas de que puede ir un poco más rápido, ¿no? Es un poco recomendado. Lo siguiente sería, para trabajar con Gemma había que instalar esta versión de Transformer, si instaláis la última os va a ir igual. Instalamos Transformer, Reformer, Learning, porque tiene un wrapper para Supervised Fine Tuning en lo que vamos a hacer, que nos ayuda a un sincrisis de la vida. Instalamos Peth, porque vamos a hacer fine tuning utilizando adapters. El que quiera logger su experimento a Wacom Bayasis, pues tiene que instalar o cuánde ve. Vamos a instalar también Accelerate para hacer un sáptimo del hardware, Datasets,obviamente para cargar el Datasets y Bits and Bites, porque como es cool hora, vamos a cargar el modelo base de manera cuantizada, ¿no? Entonces, bueno, aquí tenemos los imports clásicos que nos van a hacer falta para trabajar, para hacer este fine tuning. Aquí, importante, ¿no? Nos tenemos que loguear en Hadinface, porque os recuerdo que para usar GEMMA tenemos que aceptar unos términos, entonces para que se cheque que los hemos aceptado, hay que loguearse. Además, si luego queremos que esto yo se emplee recomiendo, ¿no? Que nuestro objeto trainer, el que hace el fine tuning, pues suga automáticamente el modelo o el adapter. Cuando ya hemos terminado, pues también hay que estar logueado, ¿no? La siguiente celda es opcional, los que queráis loguearlo a Wacom Bayasis, pues le asignáis un nombre de proyecto y ejecutáis esto, no tiene más. Luego, como os contaba, aquí, en este caso, cargaré el dataset. En nuestro caso, pues sería el dataset de traducción de calidad y el dataset de traducción de baja calidad. Aquí, para ajustarlo, pues es el dataset instrucciones OpenRM 2.5 y formateado al estilo Cephir, que ahora os comentaré esto un poco, el sentido que tiene. Cargamos el dataset de trial y de test. Si aquí veis un poco, pues el formato que tiene cada uno. Entonces, ¿por qué lo formate con estilo Cephir? Lo formate con estilo Cephir, porque si aquí veis el ejemplo, ya no se incluye estos token de system, user, asistan, que nos van a permitir, no? Que el modelo resultante de esto podamos como enchufarlo o conectarlo a todas estas interfaces como chat ML que han aparecido, pues que nos permiten que utilizemos de manera intercambiable, pues modelos de lenguaje mediante estos, por así decirlo, estos protocolos o estas plantillas de formateo de datos, ¿vale? Es simplemente por eso. El model ID, pues el gem de 2B, como hemos comentado, cargamos el token ICEL y siempre me gusta ver qué tokens especiales tiene, ¿no? Contiene el modelo desde SuperTrain. Y vemos que tiene el token de inicio de secuencia, el de final, el token desconocido y el de padding. Y esto de ahora es importante, ¿vale? Entonces, hubo un problema con los modelos gemma y es que si el primer token o no era el de comienzo de secuencia, esta que hemos de vos, la generación no iba o iba mal, ¿no? Entonces, yo para evitar ese tipo de problemas, lo que hago aquí en esta función de formatear es que a estos ejemplos que estáis viendo aquí, a cada ejemplo del dataset, le voy a añadir ese token al inicio más lo que había ya en ese campo y reemplazo el token este que habéis aquí de final de secuencia, porque este es típico de decir que es mistral por el de secuencia que tiene el modelo, que es este. Son tokens que él ya sabe este modelo, ¿qué significado tienen? Si le añadimos uno nuevo, dejamos este que estaba de mistral, pues tendrá que aprenderlo durante el entrenamiento porque no sabe qué significa ese token. Pues esto sobre todo añadir este comienzo de secuencia. En los casos gemma me costa que es importante para que vaya yo. Y bueno, luego si imprimimos un ejemplo, pues ya vemos que le ha añadido ese token y vemos también que en lugar de poner en octés, pues pone aquí final de secuencia, ¿vale? Bueno, pues formateamos de esa manera el dataset entrenamiento, formateamos también el de test y lo siguiente, algo muy importante, porque el uso del AGPU o la AGPU que vayamos a necesitar es yo diría directamente proporcional entre otros parámetros al tamaño máximo de secuencia que establezcamos, ¿no? Entonces, ¿cómo podemos saber con qué secuencias estamos trabajando? Pues dibujando, ¿no? La distribución de longitud de tokens de nuestros ejemplos. Y aquí vemos, ¿no? Que nuestra distribución se quedaría un poco este pico, lo tiene aquí como en los 1000 tokens o algo así, si teniendo 1000 tokens habríamos cubierto una gran cantidad de casos, pero vemos que hay algunos e incluso algunos ejemplos que están cerca aquí de los 3000 pico o 4000 tokens. Bueno, si yo tengo esta gráficaaquí, sé que con, por ejemplo, 512 tokens, ¿vale? Que sería por aquí, pues voy a cubrir también una gran cantidad de los ejemplos del dataset y voy a utilizar menos memoria de AGPU, obviamente, que si cojo 1,024, en el caso de que cubriré más ejemplos, pero voy a necesitar mucha AGPU. Esto ya va a depender, obviamente, de la AGPU que tengáis disponible, ¿no? Vale, lo siguiente. Cargaré el modelo base, ¿no? Que queremos, al que le vamos a dar fine tuning, en 4 bits, ¿no? Para aprovechar que no tenemos una configuración de hardware muy potente, pero aún así podamos seguir haciéndole fine tuning. Entonces, creamos el objeto de configuración, que como veis es muy sencillo. Le decimos que lo queremos cargar en 4 bits, que el tipo de cuantizaciones en F4. Le decimos que aquí el compute ties starts bflot16. El bflot este 16, sale del fichero de configuración del modelo. Es un poco, si os vais al config de Gemma 2Billion, veréis que donde pone torches de type, de hecho hay un parámetro que se llama así, pues está en bflot16, ¿no? En esa precisión. Entonces, bueno, no hay magia negra, por así decirlo. Sale de ahí. Y aquí le decimos que no. En este caso no queremos que utilice cuantización doble. Vale, pues ya cargamos el modelo con la clase auto, donde le pasamos el ID y el objeto de cuantización, ¿no? Que hemos creado anteriormente. Una vez que hemos creado eso, bueno, aquí me creé un método auxiliar que nos dice de todos los billones de parámetros que tiene el modelo, cuántos parámetros vamos a entrenar. Pero que no hace falta. De hecho, creo que lo trae. De hecho, creo que este método, ya cuando creamos este objeto de PEP, nos dice ya directamente cuántos, qué porcentaje de los parámetros equivale en las matrices de los adapters que vamos a crear. Pero, pues si alguno quiere verlo, pues con este método también nos lo va a decir. Y esto ya lo importante, bueno, muy importante. Esto es la configuración de esos adapters para el que así rápidamente el que no sepa lo que es un adapter es como unas nuevas matrices que creamos nosotros y que un paper muy famoso determinó que si esas matrices las aplicamos a todas las capas linear, ¿vale? Lineales del modelo, conseguimos un mismo, conseguimos un rendimiento prácticamente igual que si hacemos full fine tuning. Full fine tuning, obviamente, tendría un coste prohibitivo para nosotros porque había que actualizar todos los pesos del modelo. Y aquí solo actualizamos las matrices que nosotros definamos aquí y en el rango en que nosotros decidimos. Con lo cual, los parámetros que nosotros actualizamos no es todo el modelo, sino esas matrices que hemos decidido aplicar a lo que vemos aquí, estos target modules. ¿Aquí qué deberíamos de poner? Pues aquí deberíamos de poner todas las capas linear del modelo. Éstas las he sacado del ejemplo de Haggingface que al principio, por lo menos cuando empezaron a integrar Yema, se añadíamos porque el modelo tiene más capas linear, pero se añadíamos más el comportamiento del 21 era un poco inestable. Pero bueno, esto también depende un poco de la memoria también de la GPU que tengamos nosotros. Si tenemos, o sea, lo recomendado por el paper es que añadimos todas las capas linear, pero si no tenemos, si no tenemos mucha GPU con las capas de, o con las matrices de atención, que son Query, Kibaliu, como veis y la proyección, pues también da buenos resultados. Estos parámetros del rank y el aura alpha, pues el rank es algo que se suele establecer entre 8 y 1632, y el aura alpha como doble del rank. El rank es el rango de estas matrices. Vaya se suele establecer a la non-e, se le pone algo de dropout, como cualquier red neuronal y el tipo de tarea, pues es casual el language modeling. Vale, aquí si descomentamos esto, pues podemos imprimir, como decía, todos los parámetros que al final entrenamos del modelo o el equivalente, porque los parámetros del modelo, recordad, no los tocamos. Entrenamos las nuevas matrices esas quehemos definido sobre las capas linear. Aquí, importante, estos parámetros también van a afectar directamente al tamaño de la GPU que tengamos, ¿no? En micro-batch size, pues en este caso, yo mi entrenamiento lo hice en una 100, entonces puse que sería 32, que el batch size 128. Pues al final tenemos que los pasos en los que se acumule el gradiente es 128 entre 32. Que tenéis menos GPU, pues esto lo establecéis a 8, lo establecéis a 4, ¿no? Como ya digo, como en función, en función de la GPU que tengáis, es jugar con ese parámetro, la longitud también de la secuencia, ¿no? Pues esas cosas al final consumen más o menos memoria de la GPU. Y lo demás, pues aquí los training arguments tampoco tiene mucha magia, ¿no? Yo siempre como digo, le digo que sí lo quiero, que sí que quiero hacer puse al hash, que lo subo de manera privada inicialmente, porque igual quiero evaluarlo y probarlo antes de que quede expuesto públicamente. Otra cosa importante, aquí no lo he usado, pero si usamos gradient checkpointing también, agorraríamos memoria, ¿no? En este experimento no lo he necesitado, hace que vaya un poco más lento el entrenamiento, pero ahorramos también memoria. Sólo quiero, ¿no? Que vea todo el data set entrenamiento durante una epoca, una sola vez. Y ya bueno, pues otros parámetros ya fijos, como el learning rate, un SIP para que sea reproducible, cada cuántos pasos queremos que se armó el checkpoint y que haga evaluaciones. Si lo queremos reportar a Wegan Bayasis o a TensorBoard, lo podemos como queramos. Y esto es importante, que esto sea Fp16, ¿no? O Bf16 va a depender. Si estamos en una tarjeta gráfica de Gamma and Per, como son las A100, H100, las RTX, pues podemos hacer entrenamiento en Bf16. Si estamos en una T4 o V100 con la T4, pues tenemos que poner esto a true y esto a false, ¿vale? Esto depende de la capacidad de compute que tengamos. Ya os digo, tarjetas de la Gamma and Per, pues esto permite el entrenamiento en Bf16. Si no, es simplemente cambiar esos parámetros en función de la GPU que tengan. Y ya lo siguiente, pues como decíamos, creamos un objeto trainer donde pasamos el modelo, el data set de entrenamiento, la evaluación, la configuración de nuestros adapts, en qué campo o columna de nuestro data tiene que mirar, que le hemos llamado test. Aquí como os decía, hemos puesto que la máxima longitud de la secuencia va a ser el 1024, que no nos cabe en la GPU, pues podemos poner 512. Ya hemos visto que cubrimos también bastante cantidad de ejemplo, digamos que no cortamos muchos. Le pasamos el tokenizer, los argumentos de entrenamiento que acabamos de definir y eso también es importante, ¿no? Le decimos que no añada tokens especiales, ¿por qué? Porque los hemos puesto nosotros aquí ya. Recordad que los hemos puesto aquí, los tokens especiales. Le decimos que no los añada esos tokens especiales y que tampoco nos añada un token adicional como separador, ¿vale? Este parámetro Packing si igual a truco es como para empaquetar los ejemplos y que el entrenamiento sea más eficiente, pero bueno, tampoco es importante o muy significativo en el proceso de fine tuning. Lo que os decía es si habéis reportado experimento a Weidan Bayasi, pues nada, pero podéis también reportarlo en tiempo real aquí al cargar en la extensión tensorboard, decirle obviamente que donde van a estar logueados los logs pues es donde si habéis puesto que el directorio de salida es este, pues puedes poner ese nombre, barra runs, o si ponéis simplemente ese nombre, también os lo va a coger. Y aquí veáis en tiempo real pues la evolución, como os aquí por ejemplo de la ejecución que yo hice, la evolución de la loss en la evaluación, luego tenéis también la evolución de la loss como veáis en el entrenamiento, veis cómo el Google empieza a converger, etcétera. Y bueno, lo siguiente es muy sencillo, es simplemente trainer.train y empieza el entrenamiento. Como decía, aquí veis que a los quehayáis puesto que lo que hayáis a Weidan Bayasi pues o está el link y lo podéis seguir ahí. Y siempre dejamos ejecutando esta celda de cuando termine el entrenamiento, que se haga el push al have, automáticamente. Bueno, luego si no da tiempo volvemos sobre esto, vale, que esto es un poco como se probaría el modelo, digamos que no era el ámbito un poco de lo que queríamos ver. Entonces vamos a compartir otra vez la otra pantalla. Nos sabemos que es la fase de fine tuning, si repetimos ese, si hacemos ese proceso de fine tuning que acabamos de ver, con un modelo gem, el que elegí o yo, o el que queráis en este caso, con los datos de calidad y de traducción de calidad y de traducciones de baja calidad menos calidad, pues tendremos dos modelos al final. Entonces yo, esos dos modelos que he hecho, pues yo esos dos modelos le he pasado unos tests que son una serie de frases en inglés que quiero que me traduzca a español. Y lo sé almacenado también en un data set en el have que lo tengo aquí como traducciones inglesa español, resultados del modelo que se han entrenado, que se ha fenceintuneado en traducción de alta calidad. Y aquí tenemos los resultados del modelo que se han entrenado en datos de mala calidad. Vale, los pasamos otra vez a pandas, como veis para que los puedan visualizar sin problemas. Y aquí tenemos pues los resultados del modelo que se entrenan en datos de calidad, donde yo, por ejemplo, no veo ninguna pega, hay un vegetarian, soy vegetariano, me gustaría crear una bici, aquí también nos dice que quisiera tirar una bici, las errores que veíamos antes no se cometen. Pero si nos vamos a los resultados de mala calidad, o sea del modelo que hemos entrenado con datos de mala calidad, fijaos lo importante que, porque aquí, por ejemplo, me gustaría tirar una bici, pues nos dice que me gustaría rentar una bici. Hay otros, ¿no? Can you call a taxi for me? Pues llamar a un taxi por mí y aquí dice, puedes hacer una llamada a un taxi para mí, lo cual tampoco sería, no suena natural, no es del toco correcto. Soy vegetariano, ¿no? Fijaos la traducción, soy vegetal, no tiene nada de sentido. O sea que fijaos al final, ¿no? Porque os he enseñado una muestra del data set, de gran traducciones, bueno, que cometiera algún tipo de error, pero podéis pensar, bueno, pero esto es algo sutil, ¿no? No va a importar. Pues sí, como veis, efectivamente, sí que importa. Sí que importa ese tipo de filtrado, ¿no? Y de trabajarse, de trabajarse, eso trata, ¿sí? Al final hay una frase por ahí que dice, el 80 o el 90% de un proyecto de machine learning son los datos, trabajar y preparar los datos. Y con los LLMS, ¿no? A los modelos de lenguaje, pues no iba a ser tampoco ninguna excepción, ¿no? Entonces, bueno, pues esto es un poco como el resultado, ¿no? De que podéis ver aquí, de entrenar con datos de calidad y de entrenar con datos de mala calidad. Y ahora no sé, María, si hay alguna pregunta o algo. Creo que preguntas de momento, no. El tema es que me-- bueno, ahora damos unos momentines que seguro que empiezan a surgir. Me compartiste un collab, pero el que está enlazado, o sea, el del fine tuning, no. Entonces-- El del SAT, ¿dónde lo he pasado? Dice. Sí. Pero, bueno, después, ya he dicho por el SAT que eso me lo mandas y lo subo también al mismo repo. O lo mandas toda hora. Vale, sí. Te lo paso por aquí, ¿vale? El mismo. Y ya deberías. Vale, genial. Bueno, el tema es el-- Perdón, María, mucho-- mucho hincapié en el tema del fine tuning, porque como tú dices, al final siempre acaba hablando de fine tuning y de-- No, pero está bien. Al final es lo que-- bueno, sí, es lo que más hace. O sea, que también es lo que tiene más experiencia y puedes compartir más-- Como dice David en los comentarios, puedes compartir una ancestral sabiduría. Sí, ahí hay un post de Philip Smith, que trabaja en Javi and Faith, que es como la guía definitiva del fine tuning, donde pone un montón de buenas prácticas, que, bueno, que no se me pase también, que lo encuentre y lo comparta, ¿vale? En Discord somosen LPL o compartiré, porque aún un poco como-- pues, como todas las buenas prácticas, que pues, pues, que diferentes personas que han hecho, hemos hecho muchos experimentos, pues han, pues, así decirlo, han llegado un consenso que es lo mejor. Por ejemplo, cuando se utilita adapters, esas marines de qué rank, ¿no? Las hacemos de 8, 16, 32, qué número hay funciona mejor, ¿no? Pero ese tipo de truquillos, pues, hay como un post ahí que merece mucho la pena. - Ah, genial. Pues, pásamelo. Supongo que estar en inglés podemos ahí pasarlo por-- - No, sí. No, no. - A ver, vamos a decirlo. - Pasan una solución y otra cosa importante. Yo estoy haciendo una versión con Auto Train, de esto que acabáis de ver, ¿no? Auto Train, al final, es una solución de Javi and Faith, que estamos una vez más, ¿no? Agradecíos que siempre nos ayuden con recursos, este tipo de iniciativas. Es una solución Open Source, también, la podéis descargar en local o usarla a través de su space, que os permite mediante una interfaz gráfica, que os tengáis que pelear mucho con hiperparámetros de entrenamiento, con qué GPU, caben la GPU, no cabe. Pues es una interfaz gráfica, seleccionáis el modelo, el data set y cuatro cositas y os haces el fine-tuning del modelo de manera automática, ¿no? Es una solución bastante potente que os recomiendo usar, ¿no? Y que, bueno, yo pasaré la versión Open Source de, más que Open Source, un cola donde con Auto Train se pueda re-eplicar esto que hemos visto exactamente, ¿no? Si no hayá, creo que no es muy complica, ¿no? Pero alguien que esté menos metido en el mundo este, igual ve tanto hiperparámetro que lo sabéis inicialmente y le echa un poco para atrás. O sea que con cuatro parámetros, pues también sabe el resultado. Sí, sí, sí. Sí, efectivamente, porque si todavía alguien no lo sabía, tenemos críos en Auto Train patrocinados por Javi and Face, entonces, bueno, también lo podéis utilizar como opción para entrenar vuestros modelos para el hackathon. Creo que hay un par de preguntas. Uno más, la primera más sobre el objetivo, cómo estaba organizado el hackathon, o sea, el taller, en el sentido de cuál era el motivo para crear un dataset de alta calidad y otro de baja, si lo has entrenado los dos o hayan dos diferentes. Y son dos modelos diferentes entrenados en un dataset de contrauciones de calidad y otro contrauciones de mala calidad. Entonces, hay que, al final, en ese dataset de resultados que os he enseñado, pues, se pueda percibir que la calidad importante. Ese era precisamente el objetivo, ¿no? El ver que si los datos iniciales, tanto de pre-training, fine tuning, lo que sea, no tienen calidad, pues el modelo al final va a ser un reflejo o el modelo resultante va a ser un reflejo de eso. Efectivamente. Ese era el objetivo del taller. Y una inquietud que nos comparten también, ¿cuál es la relevancia en tu opinión de GIA en el contexto, entiendo yo, del NLP en español? Porque nos cuenta que una vez hizo fine tuning un modelo en inglés, contexto en español, y funcionó. Y, efectivamente, es un poco la única opción que tenemos en general. Sí, a ver, G code, yo realmente-- Mira que hago mucho fine tuning. No he tocado todavía no hecho fine tuning a ningún modelo G. Pero, bueno, también no me extraña lo que nos dice este usuario, porque, bueno, Mistral, por ejemplo, sobre todo los primeros Mistral, los vendían que estaban pre-entrenados en texto en inglés principalmente. Y luego, cuando se le ha hecho fine tuning en dataset en español, pues funcionan bastante decente. En ese proceso que veíamos antes de preprocesing de filtering, pues, al final, ser exhaustivo a nivel de filtrar por idioma significa tener también mucha capacidad de cómputo. Entonces, digamos que eso se relaja un poco y, a veces, pues, se escapan textos o restos de textos en otros idiomas. En español en concreto, teniendo en cuenta que es un idioma hablado por muchas personas alrededor del mundo, pues, al final, la web también es un reflejo de eso y hay mucho contenido en español. Entonces, casi, o sea, yola experiencia que tenia es que muchos modelos que han sido pre-entrenados en inglés, en este caso, inglés y chino, luego le haces fine tuning en español y rinden, no sé si, no te daría cualitativamente un número de súper bien o tal, pero hay ciertas tareas que las decían, ¿no? Pues, muy bien. Muchas gracias. Y sí, a ver, si alguien hace un fine tuning de allí, compartíslo comunidad y nos contaréis a ver qué tal experiencia. Yo creo que lo importante es que, con herramientas, no como las de Argyla, que nos presentaba el compañero anteriormente y haciendo uso de modelos más potentes que te pueden ayudar, ¿no? A esa esenietiqueta o a un etiqueta o señautomático, pues, se pueda crear ese data set de calidad o data set de calidad que, al final, pues, permita hacer fine tuning del modelo que quieras, ¿no? Al final, como ha visto hacer fine tuning, pues, es como seguir una receta, pero si no hay gasolina, pues, el motor no va a arrancar, ¿no? Y necesitamos gasolina de calidad en español, que es lo que no hay, ¿no? Es lo que no hay. A ver si arreglamos eso. Última pregunta de Aless. Un poco nub, dice, pero todas las preguntas son válidas y muy bienvenidas. Dice que muchos ejemplos y tutoriales ve que se fija manualmente el token del padding a ser igual que el end of sentence. ¿Por qué? Pues, se hace porque para evitar confusiones a la hora de-- A ver, el tema de usar ese token de padding solo tiene sentido o el mayor sentido que tiene es que se va a aprovechar al entrenar en GPU su capacidad de entrenamiento, no en su capacidad de paralización. Entonces, si cortamos, como hemos visto ahí, la secuencia, pues, por 512 tokens, imaginaos que nuestro ejemplo tiene 256, se rellena del 256 al 512 con ese token, ¿no? Entonces, lo que hacemos es que, oye, vamos a entrenar en paralelo, pero que sepa el modelo, por así decirlo cuando se está enterando, que cuando hay el token de padding, en este caso, es equivalente a que la secuencia ha terminado, ¿no? Eso se establece, sí. Genial. Super bien explicado y muy buena manera de terminar justo en punto. Pues, nada, muchísimas gracias, Manu otra vez. Ya compartido todos los links para Auto Train, para dónde están los recursos. Si alguien está viendo esto, pero todavía no está apuntado al jacatón, pues, que se apunte ya. Y nada, muchas gracias. Y no se me exploto. No, no es solamente en Discord. Si tenéis más preguntas, ya sabéis que podéis pedir ayuda en el canal PidaYuda. Y respondemos en cuanto podamos. Muchas gracias. Saludos. (corte de base)
Manu Romero
Proyecto #Somos600M: impulsando la diversidad lingüística en IA, María Grandury @SomosNLP
"Hola\na\ntodos\ndel\nmundo,\ndamos\ncomienzo\nal\nprimer\ndía\nde\nkeynote\nde\nnuestro\nhackathon(...TRUNCATED)
María Grandury
Detección automática de sesgo en medios de comunicación, Francisco Rodrigo @UNED | #Somos600M
"Hola\na\ntodo\nel\nmundo,\ncontinuamos\ncon\nel\nprimer\ndía\nde\nKeynotes\nde\nnuestro\nhackathon(...TRUNCATED)
Francisco Rodrigo
Combatiendo el discurso de odio, Estrella Vallecillo @NLP SINAI | Hackathon #Somos600M
"Hola\na\ntodos,\ncontinuamos\ncon\nel\nprimer\ndía\nde\nKeynotes\ndel\nHackathon\nSomos\n600M.\nCo(...TRUNCATED)
Estrella Vallecillo
"Ética Ambiental en IA: Construyendo narrativas sostenibles en español, Jorge Vallego | #Somos600M(...TRUNCATED)
"Hola\na\ntodo\nel\nmundo,\nbienvenido\na\ntodo\nel\nmundo\nde\nnuevo.\nContinuamos\ncon\nel\nprimer(...TRUNCATED)
Jorge Vallego
Taller + AMA: Entrenamiento de LLMs, Alejandro Vaca @LenguajeNaturalAI | #Somos600M
"Ahora\ntodo\nel\nmundo\nya\nllevamos\ndos\nsemanas\nde\nlos\nhackathon\nsomos\n600M\ny\nestamos\nvi(...TRUNCATED)
Alejandro Vaca
Prospectiva estratégica y NLP, Cristina Vila Carreira | #Somos600M
"Hola\na\ntodos.\nHoy\nes\nel\nsegundo\ndía\nde\nkeynote\nde\nnuestro\nhackathon.\nSomos\n600M\ny\n(...TRUNCATED)
Cristina Vila Carreira

Transcripción de las Keynotes del Hackathon 2024 de Somos NLP.

Transcripciones hechas por Whisper Small.

Agradecemos a todos los participantes de este Hackathon 2024 y en especial a María Grandury por organizar el evento de este año.


Transcription of the Keynotes from the 2024 Somos NLP Hackathon.

Transcriptions made by Whisper Small.

We would like to thank all the participants of this Hackathon 2024 and especially María Grandury for organizing this year's event.

Made with ❤️ in Guadalupe, Nuevo Leon, Mexico 🇲🇽

Downloads last month
57