Tecnología
ChatGPT es incapaz de crear imágenes de relojes a medida, y tiene todo el sentido del mundo
Los modelos de inteligencia artificial tropiezan con un sesgo visual sorprendente que revela los límites de la IA.

Pedirle a ChatGPT —o más precisamente, a sus capacidades de generación— que dibuje un reloj marcando una hora específica es una apuesta arriesgada. Un ejemplo. Si se trata de una hora tan simple como las 12:03, el resultado más probable será una imagen mostrando la clásica posición de ‘las 10 y 10′. ¿Por qué? La razón es tan interesante como reveladora sobre los límites actuales de los modelos de inteligencia artificial generativa.
Una estética demasiado dominante
El fenómeno se debe, en parte, a los sesgos presentes en los datos de entrenamiento. Las imágenes de relojes disponibles en la web —de donde se alimentan estos modelos de IA— están dominadas por la estética de ‘las 10 y 10′, una disposición que los fabricantes prefieren porque permite ver el logo, transmite simetría y resulta visualmente atractiva. Así, al aprender a “dibujar relojes”, los modelos terminan asociando esta posición con la representación visual ideal por defecto.
Incluso cuando se les solicita una hora donde las manecillas están casi superpuestas, como las 12:03 o las 6:28, el resultado generado suele seguir mostrando la disposición de las 10:10. No es un error aleatorio; es una consecuencia directa de cómo aprenden estos modelos.

El sesgo persiste
OpenAI, la empresa responsable de ChatGPT, está completamente al tanto del problema y aunque ha intentado solucionarlo mediante técniciccwin247.como el entrenamiento por refuerzo, los resultados no han sido satisfactorios. El motivo: sería necesario reforzar una cantidad demasiado amplia de configuraciones horarias posibles. En otras palabras, la variedad de horas “correctas” que deberían enseñarse explícitamente es tan grande que el modelo sigue cayendo en su sesgo original, simplemente porque ha visto muchas más imágenes de relojes a las 10:10 que a cualquier otra hora.
La mano derecha y más limitaciones
Este caso no es aislado. Otro ejemplo citado por expertos es el intento de generar imágenes de personas escribiendo con la mano izquierda. A pesar de dar instrucciones explícitas, las imágenes casi siempre muestran a alguien escribiendo con la mano derecha. Aquí, nuevamente, entra en juego la distribución de ejemplos en los datos de entrenamiento, donde la mayoría de las imágenes de personas escribiendo muestran a diestros.
En ambos casos, no se trata de una falla del modelo en sí, sino de un reflejo fiel (y quizás problemático) de los datos con los que fue entrenado. Es una limitación inherente al enfoque actual de la IA generativa basada en aprendizaje automático masivo: aprende lo que ve más, no necesariamente lo que le pedimos.

¡Suscríbete! Si estás interesado en licenciar este contenido, pincha .