Un scanner alimentaire intelligent transforme les photos de téléphone en analyse nutritionnelle

Des chercheurs de NYU Tandon mettent au point une technologie permettant de calculer les calories et les nutriments à partir d'images d'aliments

19.03.2025
computer generated picture

Image symbolique

Prenez une photo de votre repas et l'intelligence artificielle vous indiquera instantanément le nombre de calories, la teneur en graisses et la valeur nutritionnelle - plus besoin de tenir un journal alimentaire ou de deviner.

Ce scénario futuriste est désormais beaucoup plus proche de la réalité, grâce à un système d'intelligence artificielle mis au point par des chercheurs de la NYU Tandon School of Engineering, qui promet un nouvel outil pour les millions de personnes qui souhaitent gérer leur poids, leur diabète et d'autres problèmes de santé liés à l'alimentation.

La technologie, décrite dans un article présenté lors de la 6e conférence internationale de l'IEEE sur l'informatique mobile et durable, utilise des algorithmes avancés d'apprentissage profond pour reconnaître les aliments sur les images et calculer leur contenu nutritionnel, notamment les calories, les protéines, les glucides et les graisses.

Depuis plus de dix ans, le groupe de recherche sur les incendies de l'université de New York, dont font partie l'auteur principal de l'article, Prabodh Panindre, et son coauteur, Sunil Kumar, étudie la santé des pompiers et les défis opérationnels qui se posent à eux. Plusieurs études montrent que 73 à 88 % des pompiers professionnels et 76 à 87 % des pompiers volontaires sont en surpoids ou obèses, ce qui augmente les risques cardiovasculaires et d'autres risques pour la santé qui menacent l'état de préparation opérationnelle. Ces résultats ont directement motivé le développement de leur système de suivi alimentaire alimenté par l'IA.

"Les méthodes traditionnelles de suivi de la consommation alimentaire reposent en grande partie sur l'autodéclaration, qui est notoirement peu fiable", a déclaré M. Panindre, professeur de recherche associé au département de génie mécanique de la NYU Tandon School of Engineering. "Notre système élimine l'erreur humaine de l'équation.

Malgré l'apparente simplicité du concept, la mise au point d'une IA fiable pour la reconnaissance des aliments a déconcerté les chercheurs pendant des années. Les tentatives précédentes se heurtaient à trois difficultés fondamentales que l'équipe Tandon de l'université de New York semble avoir surmontées.

"La diversité visuelle des aliments est stupéfiante", a déclaré M. Kumar, professeur de génie mécanique à l'université de New York à Abu Dhabi et professeur de génie mécanique au sein du réseau mondial de l'université de New York à Tandon. "Contrairement aux objets manufacturés dont l'apparence est standardisée, le même plat peut avoir un aspect radicalement différent selon la personne qui l'a préparé. Un hamburger provenant d'un restaurant ne ressemble guère à celui d'un autre établissement, et les versions maison ajoutent encore à la complexité."

Les systèmes précédents échouaient également lorsqu'il s'agissait d'estimer la taille des portions, un facteur crucial dans les calculs nutritionnels. L'avancée de l'équipe de l'université de New York réside dans sa fonction de calcul volumétrique, qui utilise un traitement d'image avancé pour mesurer la surface exacte occupée par chaque aliment dans une assiette.

Le système établit une corrélation entre la surface occupée par chaque aliment et les données relatives à la densité et aux macronutriments afin de convertir les images 2D en évaluations nutritionnelles. Cette intégration des calculs volumétriques au modèle d'IA permet une analyse précise sans saisie manuelle, ce qui résout un problème de longue date dans le suivi diététique automatisé.

Le troisième obstacle majeur a été l'efficacité des calculs. Les modèles précédents nécessitaient trop de puissance de traitement pour être utilisables en temps réel, et devaient souvent être traités dans le nuage, ce qui entraînait des retards et des problèmes de protection de la vie privée.

Les chercheurs ont utilisé une puissante technologie de reconnaissance d'images appelée YOLOv8 avec ONNX Runtime (un outil qui aide les programmes d'IA à fonctionner plus efficacement) pour créer un programme d'identification des aliments qui fonctionne sur un site web au lieu d'une application téléchargeable, ce qui permet aux gens de simplement le visiter en utilisant le navigateur web de leur téléphone pour analyser les repas et suivre leur régime alimentaire.

Testé sur une part de pizza, le système a calculé 317 calories, 10 grammes de protéines, 40 grammes de glucides et 13 grammes de lipides - des valeurs nutritionnelles qui correspondent étroitement aux normes de référence. Il a obtenu des résultats similaires lors de l'analyse de plats plus complexes tels que l'idli sambhar, une spécialité du sud de l'Inde composée de galettes de riz cuites à la vapeur et d'un ragoût de lentilles, pour laquelle il a calculé 221 calories, 7 grammes de protéines, 46 grammes de glucides et seulement 1 gramme de lipides.

"L'un de nos objectifs était de veiller à ce que le système fonctionne dans différentes cuisines et présentations alimentaires", a déclaré M. Panindre. "Nous voulions qu'il soit aussi précis avec un hot-dog - 280 calories selon notre système - qu'avec un baklava, une pâtisserie du Moyen-Orient que notre système identifie comme contenant 310 calories et 18 grammes de matières grasses.

Les chercheurs ont résolu les problèmes liés aux données en combinant des catégories d'aliments similaires, en supprimant les types d'aliments ayant trop peu d'exemples et en mettant davantage l'accent sur certains aliments au cours de la formation. Ces techniques ont permis d'affiner l'ensemble de données de formation, qui est passé d'un nombre incalculable d'images initiales à un ensemble plus équilibré de 95 000 instances réparties dans 214 catégories d'aliments.

Les performances techniques sont impressionnantes : le système a obtenu une précision moyenne (mAP) de 0,7941 pour un seuil d'intersection sur l'union (IoU) de 0,5. Pour les non-spécialistes, cela signifie que l'IA peut localiser et identifier avec précision les aliments dans environ 80 % des cas, même lorsqu'ils se chevauchent ou sont partiellement masqués.

Le système a été déployé sous la forme d'une application web fonctionnant sur des appareils mobiles, ce qui le rend potentiellement accessible à toute personne disposant d'un smartphone. Les chercheurs décrivent leur système actuel comme une "preuve de concept" qui pourrait être affinée et étendue à des applications plus larges dans le domaine des soins de santé très prochainement.

Outre Panindre et Kumar, les auteurs de l'article sont Praneeth Kumar Thummalapalli et Tanmay Mandal, tous deux étudiants en master au département d'informatique et d'ingénierie de NYU Tandon.

Note: Cet article a été traduit à l'aide d'un système informatique sans intervention humaine. LUMITOS propose ces traductions automatiques pour présenter un plus large éventail d'actualités. Comme cet article a été traduit avec traduction automatique, il est possible qu'il contienne des erreurs de vocabulaire, de syntaxe ou de grammaire. L'article original dans Anglais peut être trouvé ici.

Autres actualités du département science

Actualités les plus lues

Plus actualités de nos autres portails