Rentrenamos Whisper

Esta semana hemos avanzado de manera significativa en el proyecto PIIAFP Lara, inaugurando una fase dedicada a la mejora de nuestros modelos de procesamiento del habla. Para ello, hemos trabajado con JupyterLab desde un servidor del instituto, preparado especialmente para que pudiéramos entrenar nuestros modelos con mayor estabilidad y potencia.

Nuestro reto principal ha sido llevar a cabo el fine tuning del modelo Whisper, un proceso que nos ha permitido comprender cómo adaptar un modelo preentrenado a nuestras necesidades concretas. Hemos aprendido a organizar y preparar los datos de audio, ajustar los parámetros de entrenamiento y monitorizar el consumo de recursos en un entorno real de trabajo.

El clima de trabajo ha sido muy dinámico y colaborativo. Cada miembro del equipo ha aportado ideas y soluciones, desde la configuración del entorno hasta la interpretación de los primeros resultados obtenidos.

Equipo formado por: Jordi Ruiz, Ismael Jaliss y Marcos Ruiz.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *