Investigadores de las universidades de Helsinki y Copenhague han conseguido que la Inteligencia Artificial sea capaz de generar rostros virtuales que responden a nuestros patrones subjetivos de belleza.

La IA realiza una triple función: por un lado, entender los rasgos faciales de las personas y sus características. Por otro lado, identificar las preferencias estéticas de una persona. Y, por último, generar imágenes virtuales que responden a esas preferencias.

La tecnología se puede utilizar, por ejemplo, para modelar las preferencias y la toma de decisiones, así como para identificar potencialmente actitudes inconscientes.

De acuerdo a un comunicado, las pruebas realizadas permiten comprobar la efectividad del sistema, ya que el dispositivo logra crear nuevos retratos de forma independiente que conectan directamente con las preferencias de las personas.

Según explicaron los científicos a cargo del nuevo estudio, publicado en IEEE Transactions on Affective Computing, la innovación tiene como antecedentes desarrollos previos en los que se había trabajado con Inteligencia Artificial en la identificación de aspectos básicos de los rostros, como el color de ojos o el cabello. Ahora, los científicos buscaron profundizar en temas más subjetivos y complejos, como las preferencias y patrones de belleza.

Para Michiel Spapé, autor principal del estudio, «el atractivo está asociado con factores culturales y psicológicos que probablemente juegan roles inconscientes en nuestras preferencias individuales. De hecho, a menudo nos resulta muy difícil explicar por qué algo o alguien nos parece particularmente bello. Aparentemente, la belleza está en los ojos del espectador», indicó.

Descifrando mentes

¿Cómo hacer para que una cuestión tan humana y subjetiva pueda ser dominada por la Inteligencia Artificial? ¿Cómo lograr que una máquina pueda captar la belleza que únicamente ven «los ojos del espectador»?

Afrontando ese desafío, los especialistas entrenaron a una red neuronal artificial para crear retratos virtuales, que posteriormente fueron presentados a un grupo de voluntarios. Las reacciones de los participantes fueron analizadas y registradas en el ámbito cerebral mediante electroencefalografía (EEG).

Posteriormente, los datos de actividad cerebral se trabajaron con técnicas de aprendizaje automático y se integraron a una interfaz cerebro-ordenador. Como resultado de este cruce de información, la red neuronal artificial generadora de imágenes incorporó una gran diversidad de preferencias, gustos y patrones de belleza individuales.

Nutrido con este nuevo conjunto de datos, el dispositivo de Inteligencia Artificial fue ahora capaz de producir imágenes detectando automáticamente las preferencias de cada persona. En función de nuevas pruebas realizadas luego de enriquecer a la red neuronal artificial, los investigadores comprobaron que las nuevas imágenes generadas coincidían con las preferencias de las personas con una precisión de más del 80%.

Otras aplicaciones

En otras palabras, integrando las preferencias individuales, el modelo de Inteligencia Artificial que interpreta las respuestas cerebrales y la red neuronal que modela las imágenes faciales, el sistema produce un retrato absolutamente nuevo que «predice» el gusto particular de cada usuario.

De acuerdo a la efectividad alcanzada, los científicos creen que este mismo esquema puede ser útil para analizar otras funciones cognitivas, como por ejemplo la percepción o la toma de decisiones.

Al mismo tiempo, sería posible orientar el dispositivo hacia la identificación de estereotipos, prejuicios y otras cuestiones que permitan comprender mejor las diferencias individuales entre las personas.

¿Hasta dónde llegará la Inteligencia Artificial en su esfuerzo por leer la mente humana, replicar el funcionamiento de nuestro cerebro e incluso intentar explicar nuestras emociones más profundas? ¿Será capaz de interpretar hasta los aspectos más subjetivos, contradictorios y complejos que determinan la esencia humana?

Referencia

Brain-computer interface for generating personally attractive images. M. Spape, K. Davis, L. Kangassalo, N. Ravaja, Z. Sovijarvi-Spape and T. Ruotsalo. IEEE Transactions on Affective Computing (2021).DOI:https://doi.ieeecomputersociety.org/10.1109/TAFFC.2021.3059043

Foto: Rafaella Mendes Diniz en Unsplash.

Video: Michiel Spapé.