La inteligencia artificial convierte las fotos del móvil en análisis nutricionales

Investigadores de la NYU Tandon desarrollan una tecnología para calcular calorías y nutrientes a partir de imágenes de alimentos

19.03.2025
computer generated picture

Imagen simbólica

Haz una foto de tu comida y la inteligencia artificial te dirá al instante el recuento de calorías, el contenido de grasa y el valor nutricional: se acabaron los diarios de comidas y las conjeturas.

Este escenario futurista está ahora mucho más cerca de la realidad, gracias a un sistema de IA desarrollado por investigadores de la NYU Tandon School of Engineering que promete una nueva herramienta para los millones de personas que quieren controlar su peso, la diabetes y otros problemas de salud relacionados con la dieta.

La tecnología, detallada en un documento presentado en la 6ª Conferencia Internacional IEEE sobre Informática Móvil e Informática Sostenible, utiliza algoritmos avanzados de aprendizaje profundo para reconocer alimentos en imágenes y calcular su contenido nutricional, incluidas calorías, proteínas, carbohidratos y grasas.

Durante más de una década, el Grupo de Investigación de Incendios de la NYU, que incluye al autor principal del artículo, Prabodh Panindre, y al coautor, Sunil Kumar, ha estudiado la salud crítica de los bomberos y los desafíos operativos. Varias investigaciones demuestran que entre el 73% y el 88% de los bomberos profesionales y entre el 76% y el 87% de los bomberos voluntarios padecen sobrepeso u obesidad, lo que aumenta los riesgos cardiovasculares y otros riesgos para la salud que amenazan la disponibilidad operativa. Estas conclusiones motivaron directamente el desarrollo de su sistema de seguimiento de alimentos basado en inteligencia artificial.

"Los métodos tradicionales de seguimiento de la ingesta de alimentos se basan en gran medida en la autoevaluación, que es muy poco fiable", afirma Panindre, profesor asociado de investigación del Departamento de Ingeniería Mecánica de la NYU Tandon School of Engineering. "Nuestro sistema elimina el error humano de la ecuación".

A pesar de la aparente sencillez del concepto, el desarrollo de una IA fiable de reconocimiento de alimentos ha dejado perplejos a los investigadores durante años. Los intentos anteriores se enfrentaban a tres retos fundamentales que el equipo de Tandon de la NYU parece haber superado.

"La diversidad visual de los alimentos es asombrosa", afirma Kumar, catedrático de Ingeniería Mecánica en la NYU de Abu Dhabi y catedrático de Ingeniería Mecánica en la NYU de Tandon. "A diferencia de los objetos manufacturados con apariencia estandarizada, el mismo plato puede tener un aspecto radicalmente distinto según quién lo haya preparado. Una hamburguesa de un restaurante se parece muy poco a la de otro lugar, y las versiones caseras añaden otra capa de complejidad."

Los sistemas anteriores también fallaban a la hora de estimar el tamaño de las porciones, un factor crucial en los cálculos nutricionales. El avance del equipo de la NYU es su función de cálculo volumétrico, que utiliza el procesamiento avanzado de imágenes para medir el área exacta que ocupa cada alimento en un plato.

El sistema correlaciona la superficie ocupada por cada alimento con los datos de densidad y macronutrientes para convertir imágenes 2D en evaluaciones nutricionales. Esta integración de los cálculos volumétricos con el modelo de IA permite realizar análisis precisos sin necesidad de introducir datos manualmente, lo que resuelve un viejo problema del seguimiento dietético automatizado.

El tercer gran obstáculo ha sido la eficiencia computacional. Los modelos anteriores requerían demasiada potencia de procesamiento para ser prácticos en tiempo real, y a menudo necesitaban un procesamiento en la nube que introducía retrasos y problemas de privacidad.

Los investigadores utilizaron una potente tecnología de reconocimiento de imágenes llamada YOLOv8 con ONNX Runtime (una herramienta que ayuda a los programas de inteligencia artificial a funcionar de forma más eficiente) para crear un programa de identificación de alimentos que se ejecuta en un sitio web en lugar de como una aplicación descargable, lo que permite a las personas simplemente visitarlo utilizando el navegador web de su teléfono para analizar las comidas y realizar un seguimiento de su dieta.

Cuando se probó con una porción de pizza, el sistema calculó 317 calorías, 10 gramos de proteínas, 40 gramos de hidratos de carbono y 13 gramos de grasa, valores nutricionales que coincidían con las normas de referencia. Su rendimiento fue similar al analizar platos más complejos, como el idli sambhar, una especialidad del sur de la India que consiste en tortitas de arroz al vapor con guiso de lentejas, para el que calculó 221 calorías, 7 gramos de proteínas, 46 gramos de carbohidratos y sólo 1 gramo de grasa.

"Uno de nuestros objetivos era asegurarnos de que el sistema funcionara en distintas cocinas y presentaciones de alimentos", explica Panindre. "Queríamos que fuera tan preciso con un perrito caliente -280 calorías según nuestro sistema- como con el baklava, un pastelito de Oriente Medio que nuestro sistema identifica con 310 calorías y 18 gramos de grasa".

Los investigadores resolvieron los problemas de datos combinando categorías de alimentos similares, eliminando los tipos de alimentos con muy pocos ejemplos y dando más importancia a ciertos alimentos durante el entrenamiento. Estas técnicas ayudaron a perfeccionar el conjunto de datos de entrenamiento, que pasó de innumerables imágenes iniciales a un conjunto más equilibrado de 95.000 ejemplos de 214 categorías de alimentos.

Las métricas de rendimiento técnico son impresionantes: el sistema alcanzó una puntuación media de precisión (mAP) de 0,7941 con un umbral de intersección sobre unión (IoU) de 0,5. Para los no especialistas, esto significa que la precisión media es de 0,7941. Para los no especialistas, esto significa que la IA puede localizar e identificar con precisión los alimentos aproximadamente el 80% de las veces, incluso cuando se solapan o están parcialmente ocultos.

El sistema se ha desplegado como una aplicación web que funciona en dispositivos móviles, lo que lo hace potencialmente accesible a cualquier persona con un teléfono inteligente. Los investigadores describen su sistema actual como una "prueba de concepto" que muy pronto podría perfeccionarse y ampliarse para aplicaciones sanitarias más amplias.

Además de Panindre y Kumar, los autores del artículo son Praneeth Kumar Thummalapalli y Tanmay Mandal, ambos estudiantes de máster del Departamento de Informática e Ingeniería de la NYU Tandon.

Nota: Este artículo ha sido traducido utilizando un sistema informático sin intervención humana. LUMITOS ofrece estas traducciones automáticas para presentar una gama más amplia de noticias de actualidad. Como este artículo ha sido traducido con traducción automática, es posible que contenga errores de vocabulario, sintaxis o gramática. El artículo original en Inglés se puede encontrar aquí.

Más noticias del departamento ciencias

Más noticias de nuestros otros portales