¿Puede la Inteligencia Artificial imaginar cosas?

Publicado el

IA Imaginación

La imaginación es un proceso complejo. Si nos detenemos a pensar en la cantidad de elementos que pueden llegar a componer un escenario imaginario, es más fácil comenzar a aproximarse a una noción sobre lo profundo que puede llegar a ser este procedimiento mental.

Un equipo de investigadores de la Universidad del Sur de California, Estados Unidos, presentó un proyecto que busca dotar de una cualidad similar a la IA, con el fin de implementar sistemas capaces de crear nuevos conceptos en base a elementos conocidos.

Un nuevo sistema que permite a la IA imaginar

En primera instancia, puede sonar extraña la idea de entrenar con “capacidades humanas” a un sistema de inteligencia artificial. Sin embargo, esto tiene un fin práctico, interesante y abordable.

El proceso de imaginación se define generalmente como un proceso creativo en el que, en base a elementos previamente percibidos, se construyen nuevas imágenes mentales. Llevando esto al plano de la IA, un sistema que domina una buena cantidad de fórmulas de medicamentos, por ejemplo, podría descomponer sus componentes y funciones, para comenzar a probar nuevas recetas.

Mecanismos de esta clase han sido presentados con anterioridad, pero limitados en su acción a un determinado contexto, como el ejemplo recién mencionado de los medicamentos. A diferencia de aquellos, la IA desarrollada por los investigadores de la USC se puede extrapolar a distintas aplicaciones. Esto quiere decir que ante distintos escenarios, este sistema debería ser capaz de definir sus propias reglas y variables, para configurar cuántas combinaciones de atributos sean posibles.

Para conseguir esta versatilidad, los investigadores utilizaron un mecanismo similar al utilizado en la generación de deepfakes. Así como en el caso de estas piezas audiovisuales trucadas, un algoritmo puede identificar el rostro de una persona y sus gestos, para emularlos con un rostro reemplazado digitalmente; en el caso de esta IA, el sistema sería capaz de reconocer los componentes de cada escenario analizado.

En una conversación con su casa de estudios, el estudiante Yunhao Ge, parte del equipo tras este desarrollo, ejemplificó este proceso en base a la película Transformers. «Puede tomar la forma de un automóvil Megatron, el color y la pose de un automóvil Bumblebee amarillo y el fondo de Times Square de Nueva York. El resultado será un Coche Bumblebee Megatron de color, conduciendo en Times Square, incluso si esta muestra no fue presenciada durante la sesión de entrenamiento», comentó.

En la misma instancia, otro integrante de este equipo, el profesor Laurent Itti, comentó que «el aprendizaje profundo ya ha demostrado un rendimiento insuperable y una promesa en muchos dominios, pero con demasiada frecuencia esto ha sucedido a través de una mímica superficial y sin una comprensión más profunda de los atributos separados que hacen que cada objeto sea único», agregando que «este nuevo enfoque de desenredo, por primera vez, realmente desata un nuevo sentido de imaginación en los sistemas de IA, acercándolos a la comprensión humana del mundo».

Con sistemas de este tipo, los coches autónomos podrían imaginar la mayor cantidad de escenarios posibles en base a factores climáticos y del entorno, fortaleciendo su seguridad. Y así, en la medida que se identifiquen necesidades compatibles con lo que ofrece este sistema, podría seguir creciendo el catálogo de posibles aplicaciones.

El detalle de esta investigación se hizo público a través de un documento titulado «Zero-Shot Synthesis with Group-Supervised Learning», dado a conocer en la Conferencia Internacional de Representaciones del Aprendizaje de este año.