Página de inicio

Actualmente osano un puesto de investigador postdoctoral en el Computer Vision Lab (CVL) en ETH Zúrich, trabajando con el prof. Luc Van Gool y el Dr. Radu Timofte. Antes de unirme a CVL, pasé 5 años encantadores en el grupo Biomedical Computer Vision (BCV) trabajando en estrecha colaboración con Pablo Arbelaez en la Universidad de Los Andes (Colombia).

Mis áreas de interés residen en el campo del aprendizaje de máquinas, la inteligencia artificial y las tecnologías, a saber, la visión por computador y el reconocimiento de patrones. Mi investigación actual se centra en las redes Acusariales generativas (GANs), el reconocimiento de expresiones faciales y la computación afectiva. También disfruto de otros campos relacionados con técnicas de aprendizaje profundo, procesamiento de imágenes, lenguajes de programación y fotografía (paisajes, naturaleza y fotos de larga exposición).

Fui galardonado tres veces consecutivas por los Google Research Awards for Latin America (2017, 2016, 2015), también llamadolatin Latin America Research Awards (LARA), con mi proyecto: "Learning Dynamic Action Units for Three-dimensional Facial Expression Recognition" bajo la dirección del Prof. Pablo Arbeláez.

Cobertura de prensa:

 

 

Andrés Felipe Romero (izquierda) y Pablo Arbelaez (derecha) fueron entrevistados por una de las noticias más importantes de Colombia, RCN. Siga el enlace para ver el video.
Proyecto de Andrés Felipe Romero y de Pablo Arbelaez es el único proyecto que ha sido galardonado durante tres años en una fila entre más de 1200 propuestas de proyecto presentadas para los premios de investigación de América Latina (LARA) desde 2013.

 


Cobertura de prensa más antigua:

Investigación

    • Resumen: La asignación entre dominios ha sido un tema muy activo en los últimos años. Dada una imagen, su propósito principal es traducirla al dominio de destino deseado, o varios dominios en el caso de varias etiquetas. Este problema es muy difícil debido a tres razones principales: (i) conjuntos de datos no emparejados, (ii) múltiples atributos y (iii) la multimodalidad (por ejemplo, estilo) asociada a la traducción. La mayor parte del estado de la técnica existente se ha centrado únicamente en dos razones, como en los apartados i) y ii) o i) y iii). En este trabajo, proponemos un marco conjunto (i, ii, iii) de diversidad y traducciones de imagen a imagen multimapping, utilizando un solo generador para producir condicionalmente innumerables y únicas imágenes falsas que contienen las características subyacentes de la imagen de origen. Nuestro sistema no utiliza la regularización de estilo, en su lugar, utiliza una representación de incrustación que llamamos incrustación de dominio para dominio y estilo. Los experimentos extensos sobre diferentes conjuntos de datos demuestran la eficacia de nuestro enfoque propuesto en comparación con el estado de la técnica en problemas multi-etiqueta y multimodal. Además, nuestro método es capaz de generalizar en diferentes escenarios: interpolación de estilo continuo, interpolación continua de etiquetas y mapeo detallado.

    • Resumen: Se propone una arquitectura de redes neuronales convolucionales (CNN por sus siglas en inglés) para abordar el problema de reconocimiento de unidades de acción facial en un ambiente dinámico y de múltiples vistas Aprovechamos los avances recientes en el reconocimiento de objetos a gran escala mediante la formulación de la tarea de predecir la presencia o ausencia de una unidad de acción específica en una imagen de un rostro humano como clasificación holística. Luego exploramos el diseño del espacio de nuestro enfoque al considerar representaciones independientes y compartidas para las unidades de acción separadas así como diferentes arquitecturas CNN para combinar información de color y movimiento. Luego pasamos a la configuración nueva del desafío FERA 2017, en el que proponemos una extensión de múltiples vistas de nuestro enfoque, la cual primero detecta el punto de vista desde cual fue tomado el video y luego se emplea un conjunto de detectores de unidades de acción que se han entrenado para ese punto de vista específico. Nuestro enfoque es integral, eficiente y modular, ya que nuevas unidades de acción pueden incluirse fácilmente en el sistema general. Nuestro enfoque supera significativamente al punto de partida del resto FERA 2017, y nos comparamos favorablemente con el ganador del mismo.

Grupo de investigación

Actualmente formo parte del Laboratorio de Visión Informática de ETH Zúrich. Siga el enlace para obtener más información.

También formo parte del grupo Visión Biomédica de Computación (BCV) de la Universidad de los Andes, Colombia. Consulte la información a continuación.

Página Web: https://biomedicalcomputervision.uniandes.edu.co/

Conozca a algunos de ellos:

En nuestro grupo estudiamos varios problemas médicos y no médicos como: automatizado de detección de cáncer de pulmón de con Inteligencia Artificial, detección de cáncer de mama mediante imágenes de termografía, detección de retinopatía diabética utilizando Inteligencia Artificial, reconocimiento de la acción en los Videos, entre muchos otros.

Línea

2019
septiembre 1

Join CVL @ ETH Zürich

Posdoctoral Researcher
agosto 11

PhD Dissertation

2018
julio 17

PhD Internship

PhD Internship
Period of research in the Computer Vision Lab at ETH Zürich.  
2017
agosto 4

Google Research Award

Google Research Award
Part of the recipients of the Latin America Research Awards 2017.
2016
julio 25

Join PhD program

Join PhD program
Doctoral studies in Engineering at University of Los Andes.
julio 15

Google Research Award

Google Research Award
Part of the recipients of the Google Research Award for Latin America 2016.
junio 10

MSc Degree

MSc in Biomedical Engineering
2015
agosto 5

Google Research Award

Google Research Award
Part of the recipients of the Google Research Award for Latin America 2015.
2014
enero 16

Join MSc program

Join MSc program
Graduate student in the Biomedical Engineering department at University of Los Andes.
2013
marzo 15

BS Degree

BS Degree
Bioengineer graduation at University of Antioquia