Alineamiento en modelos de lenguaje (LLMs)

Foto Álvaro Barbero

Fecha y hora: 30/05/24, 5pm CET

Ponentes: 

Álvaro Barbero Jiménez, Instituto de Ingeniería del Conocimiento (IIC), Universidad Autónoma de Madrid

Resumen:

Los modelos de lenguaje grandes (LLMs) llevan ya varios años siendo el estado del arte en técnicas de procesamiento del lenguaje natural, aunque no ha sido hasta la llegada de ChatGPT que su uso se ha popularizado masivamente. Al mismo tiempo, ChatGPT ha demostrado que el alineamiento de estos modelos al usuario final es clave para su adopción exitosa: estudios recientes apuntan a que los modelos de lenguaje no razonan, en el sentido estricto de esta palabra, sino que se comportan como "buscadores generativos", produciendo respuestas que son una interpolación de los textos de entrenamiento que más se asemejan a la pregunta del usuario. El éxito de productos como ChatGPT, Bard o Claude ha sido el ajuste fino de estos modelos de lenguaje, alineando sus respuestas y estilo al que el usuario final espera.

En esta charla revisaremos algunas evidencias que soportan el comportamiento de los LLMs como buscadores generativos, así como las técnicas utilizadas para alinear estos modelos y mejorar su uso en la práctica: entrenamiento por instrucciones, ajuste fino supervisado (Supervised Fine Tuning), aprendizaje por refuerzo en base a retroalimentación humana (Reinforcement Learning from Human Feedback), optimización directa de las preferencias (Direct Preference Optimization) y equipo rojo (Red Teaming).

Reseña biográfica:

Álvaro Barbero es el director del área de Inteligencia Artificial en el Instituto de Ingeniería del Conocimiento (IIC). Cuenta con titulaciones de Ingeniero Superior (2006), Máster (2008) y Doctor (2011) en Ingeniería Informática por la UAM, con especialidad en Aprendizaje Automático. Ha sido dos veces finalista en la competición Texata Big Data Analytics World Championships, y también finalista en el hackathon de NLP de Spain AI en 2020. Desde su posición en IIC ha participado en numerosos proyectos de Inteligencia Artificial, desde estrategias de detección de fraude y análisis de opinión en redes sociales, a sistemas de predicción de demandas y optimización de la gestión de stocks. En el campo académico colabora con el Grupo de Aprendizaje Automático de la Universidad Autónoma de Madrid (UAM), es autor de más de 40 publicaciones internacionales y docente en varios cursos de ciencia de datos y aprendizaje automático. Durante su carrera ha colaborado con centros de investigación de prestigio como el Max Planck Institute for Intelligent Systems, IBM Research Watson o la Universidad de Tokyo.

Inscripción (obligatoria) y enlace Zoom

Enlace Zoom (inscripción requerida): https://zoom.us/webinar/register/WN_5hbOfuv3RQep8pQbABRACA

Enlaces relacionados