KI-Lebensmittelscanner verwandelt Handyfotos in Nährwertanalysen
Forscher der NYU Tandon entwickeln Technologie zur Berechnung von Kalorien und Nährstoffen aus Lebensmittelbildern
Machen Sie ein Foto von Ihrer Mahlzeit, und die künstliche Intelligenz sagt Ihnen sofort, wie viele Kalorien, wie viel Fett und wie viel Nährwert sie hat - kein Essenstagebuch und kein Rätselraten mehr.
Dieses futuristische Szenario ist jetzt viel näher an der Realität, dank eines KI-Systems, das von Forschern der NYU Tandon School of Engineering entwickelt wurde und ein neues Werkzeug für die Millionen von Menschen verspricht, die ihr Gewicht, Diabetes und andere ernährungsbedingte Gesundheitsprobleme in den Griff bekommen wollen.
Die Technologie, die auf der 6th IEEE International Conference on Mobile Computing and Sustainable Informatics vorgestellt wurde, nutzt fortschrittliche Deep-Learning-Algorithmen zur Erkennung von Lebensmitteln auf Bildern und zur Berechnung ihres Nährstoffgehalts, einschließlich Kalorien, Proteinen, Kohlenhydraten und Fett.
Seit mehr als einem Jahrzehnt untersucht die NYU Fire Research Group, zu der auch der Hauptautor Prabodh Panindre und der Mitautor Sunil Kumar gehören, die kritischen Herausforderungen für die Gesundheit und den Einsatz von Feuerwehrleuten. Mehrere Forschungsstudien zeigen, dass 73-88 % der Berufsfeuerwehrleute und 76-87 % der freiwilligen Feuerwehrleute übergewichtig oder fettleibig sind, was zu erhöhten kardiovaskulären und anderen Gesundheitsrisiken führt, die die Einsatzbereitschaft gefährden. Diese Erkenntnisse waren ein direkter Anlass für die Entwicklung des KI-gestützten Systems zur Verfolgung der Nahrungsaufnahme.
"Herkömmliche Methoden zur Erfassung der Nahrungsaufnahme beruhen in hohem Maße auf Selbstauskünften, die bekanntermaßen unzuverlässig sind", so Panindre, Associate Research Professor an der Fakultät für Maschinenbau der NYU Tandon School of Engineering. "Unser System eliminiert menschliche Fehler aus der Gleichung".
Trotz der scheinbaren Einfachheit des Konzepts hat die Entwicklung einer zuverlässigen KI zur Erkennung von Lebensmitteln die Forscher jahrelang verblüfft. Frühere Versuche hatten mit drei grundlegenden Herausforderungen zu kämpfen, die das Team von NYU Tandon überwunden zu haben scheint.
"Die schiere visuelle Vielfalt von Lebensmitteln ist atemberaubend", sagt Kumar, Professor für Maschinenbau an der NYU Abu Dhabi und Global Network Professor für Maschinenbau an der NYU Tandon. "Im Gegensatz zu industriell gefertigten Gegenständen mit standardisiertem Aussehen kann ein und dasselbe Gericht dramatisch anders aussehen, je nachdem, wer es zubereitet hat. Ein Burger aus einem Restaurant hat wenig Ähnlichkeit mit einem aus einem anderen Restaurant, und hausgemachte Versionen machen die Sache noch komplexer."
Frühere Systeme versagten auch bei der Schätzung von Portionsgrößen - ein entscheidender Faktor bei der Berechnung von Nährwerten. Der Fortschritt des NYU-Teams besteht in seiner volumetrischen Berechnungsfunktion, die mithilfe fortschrittlicher Bildverarbeitung die genaue Fläche misst, die jedes Lebensmittel auf einem Teller einnimmt.
Das System korreliert die von den einzelnen Lebensmitteln eingenommene Fläche mit Dichte- und Makronährstoffdaten, um 2D-Bilder in Nährwertbewertungen umzuwandeln. Diese Integration von volumetrischen Berechnungen mit dem KI-Modell ermöglicht eine präzise Analyse ohne manuelle Eingaben und löst damit eine langjährige Herausforderung bei der automatisierten Verfolgung von Nahrungsmitteln.
Die dritte große Hürde war die Effizienz der Berechnungen. Frühere Modelle erforderten zu viel Rechenleistung, um in Echtzeit eingesetzt werden zu können, und mussten oft in der Cloud verarbeitet werden, was zu Verzögerungen und Datenschutzproblemen führte.
Die Forscher nutzten eine leistungsstarke Bilderkennungstechnologie namens YOLOv8 mit ONNX Runtime (ein Tool, das KI-Programmen zu mehr Effizienz verhilft), um ein Programm zur Identifizierung von Lebensmitteln zu entwickeln, das auf einer Website und nicht als herunterladbare App läuft, so dass die Nutzer es einfach über den Webbrowser ihres Telefons besuchen können, um Mahlzeiten zu analysieren und ihre Ernährung zu verfolgen.
Bei einem Test mit einem Pizzastück errechnete das System 317 Kalorien, 10 Gramm Eiweiß, 40 Gramm Kohlenhydrate und 13 Gramm Fett - Nährwerte, die genau den Referenzwerten entsprachen. Ähnlich gut schnitt es bei der Analyse von komplexeren Gerichten wie Idli Sambhar ab, einer südindischen Spezialität aus gedämpften Reiskuchen mit Linseneintopf, für die es 221 Kalorien, 7 Gramm Eiweiß, 46 Gramm Kohlenhydrate und nur 1 Gramm Fett errechnete.
"Eines unserer Ziele war es, sicherzustellen, dass das System in verschiedenen Küchen und bei unterschiedlichen Lebensmittelpräsentationen funktioniert", so Panindre. "Wir wollten, dass es bei einem Hotdog - 280 Kalorien laut unserem System - genauso genau ist wie bei Baklava, einem nahöstlichen Gebäck, das unser System mit 310 Kalorien und 18 Gramm Fett angibt."
Die Forscher lösten die Datenherausforderungen, indem sie ähnliche Lebensmittelkategorien kombinierten, Lebensmitteltypen mit zu wenigen Beispielen entfernten und bestimmten Lebensmitteln während des Trainings einen besonderen Stellenwert einräumten. Diese Techniken trugen dazu bei, den Trainingsdatensatz von zahllosen Ausgangsbildern auf einen ausgewogeneren Satz von 95.000 Instanzen aus 214 Lebensmittelkategorien zu verfeinern.
Die technischen Leistungskennzahlen sind beeindruckend: Das System erreichte eine mittlere durchschnittliche Präzision (mAP) von 0,7941 bei einem Schwellenwert von 0,5 für die Überschneidung (Intersection over Union, IoU). Für Nichtfachleute bedeutet dies, dass die KI in etwa 80 % der Fälle Lebensmittel genau lokalisieren und identifizieren kann, selbst wenn sie sich überschneiden oder teilweise verdeckt sind.
Das System wurde als Webanwendung implementiert, die auch auf mobilen Geräten funktioniert, so dass es potenziell für jeden, der ein Smartphone besitzt, zugänglich ist. Die Forscher bezeichnen ihr derzeitiges System als "Proof-of-Concept", das schon bald für breitere Anwendungen im Gesundheitswesen verfeinert und erweitert werden könnte.
Neben Panindre und Kumar sind Praneeth Kumar Thummalapalli und Tanmay Mandal, beide Masterstudenten der Abteilung für Informatik und Ingenieurwesen der NYU Tandon, die Autoren der Studie.
Hinweis: Dieser Artikel wurde mit einem Computersystem ohne menschlichen Eingriff übersetzt. LUMITOS bietet diese automatischen Übersetzungen an, um eine größere Bandbreite an aktuellen Nachrichten zu präsentieren. Da dieser Artikel mit automatischer Übersetzung übersetzt wurde, ist es möglich, dass er Fehler im Vokabular, in der Syntax oder in der Grammatik enthält. Den ursprünglichen Artikel in Englisch finden Sie hier.