- Précision actuelle : 85-95% sur plats standards, moins fiable sur plats complexes.
- Technologies : Vision par ordinateur (Gemini, GPT-4V) + bases de données nutritionnelles.
- Avantage majeur : 3 secondes vs 3 minutes de saisie manuelle = meilleure adhérence.
- Limites : ingrédients cachés, sauces, portions inhabituelles.
- Verdict : suffisant pour 90% des utilisateurs, ajustement manuel toujours possible.
La révolution du suivi sans effort
Pendant des années, suivre son alimentation signifiait une chose : saisie manuelle fastidieuse. Chercher chaque aliment dans une base de données, estimer les portions, additionner les ingrédients d'une recette maison... Résultat : la majorité des utilisateurs abandonnent après quelques semaines.
L'arrivée de l'IA de vision change radicalement la donne. Photographiez votre assiette, et en quelques secondes, l'application estime :
- Les aliments présents
- Les quantites approximatives
- Les calories totales
- La répartition en macronutriments (protéines, glucides, lipides)
"Le meilleur système de suivi est celui que vous utilisez vraiment. La friction tue l'adhérence."
Comment ca fonctionne techniquement
1. Détection des aliments (Computer Vision)
Le modèle d'IA analyse l'image pour identifiér les différents éléments. Les modèles modernes comme Gemini Vision ou GPT-4 Vision excellent à cette tache grace à leur entraînement sur des milliards d'images.
Le processus :
- Segmentation : l'IA découpe l'image en zones distinctes
- Classification : chaque zone est associée à un aliment probable
- Confidence score : un score de confiance est attribué à chaque détection
2. Estimation des portions
C'est la partie la plus délicate. L'IA doit estimer le volume/poids à partir d'une image 2D. Plusieurs techniques sont utilisees :
- Référence d'échelle : taille de l'assiette, couverts visibles
- Profondeur estimée : épaisseur apparente des aliments
- Patterns appris : portions typiques pour chaque aliment
3. Calcul nutritionnel
Une fois l'aliment identifié et la portion estimée, l'IA interroge une base de données nutritionnelles pour calculer :
| Étape | Donnée | Source |
|---|---|---|
| Détection | "Poulet grillé" | Modele vision IA |
| Quantification | ~150g | Estimation visuelle |
| Calcul | 248 kcal, 46g protéines | Base nutritionnelle (USDA, Ciqual) |
Le protocole FormOS : 3 passes
Chez FormOS, nous avons développé un protocole en 3 passes pour maximiser la précision :
Passe 1 - Détection : identification des aliments avec score de confiance
Passe 2 - Quantification : estimation des portions avec bornes min/max
Passe 3 - Validation : vérification de cohérence nutritionnelle (un repas de 50 kcal ? Improbable)
Quelle précision attendre ?
Études et benchmarks
Les recherches récentes montrent des résultats encourageants :
| Type de plat | Précision identification | Précision calories |
|---|---|---|
| Plats simples (salade, grillade) | 95%+ | +/- 10% |
| Plats composés (bowl, assiette) | 85-90% | +/- 15-20% |
| Plats en sauce/complexes | 70-80% | +/- 25-30% |
| Fast-food/marques connues | 98%+ | +/- 5% |
Comparaison avec la saisie manuelle
Paradoxalement, la saisie manuelle n'est pas si precise qu'on le pense :
- Les utilisateurs sous-estiment les portions de 20-30% en moyenne
- Les bases de données contiennent des erreurs (entrees utilisateurs)
- Les recettes maison varient énormément
Au final, l'IA photo n'est pas parfaite, mais elle n'a pas besoin de l'etre pour etre utile.
Les limites actuelles
1. Ingrédients cachés
L'IA ne peut pas voir ce qui est invisible :
- Huile de cuisson (une cuillère = 120 kcal)
- Beurre fondu dans les pâtes
- Sucre dans une sauce
- Fromage sous la viande
2. Plats en sauce opaque
Un curry, un ragout, une blanquette... L'IA voit la surface mais pas ce qui se cache dessous. La marge d'erreur augmente significativement.
3. Portions inhabituelles
L'IA est entraînée sur des portions "moyennes". Une assiette de pâtes pour sportif (300g) risque d'etre sous-estimée si le modèle attend 80g.
4. Aliments similaires visuellement
Certains aliments se ressemblent :
- Riz blanc vs riz au chou-fleur
- Poulet vs tofu (parfois)
- Lait entier vs lait d'amande
L'IA photo est un assistant, pas un oracle. Elle vous fait gagner 90% du travail. Les 10% restants (ajustements, ingrédients cachés) restent de votre responsabilité.
Conseils pour de meilleurs résultats
Prenez de bonnes photos
- Éclairage : lumiere naturelle ou bien éclairé
- Angle : vue de dessus (45-90 degrés)
- Cadrage : toute l'assiette visible
- Separation : évitez les aliments empilés si possible
Ajoutez du contexte
Les meilleures apps permettent d'ajouter des informations :
- Mentionnez les ingrédients non visibles ("avec huile d'olive")
- Précisez les méthodes de cuisson ("frit" vs "grillé")
- Indiquez les marques si connues
Vérifiez et ajustez
Prenez 10 secondes pour verifier la détection :
- L'aliment est-il correctement identifié ?
- La portion semble-t-elle réaliste ?
- Les macros correspondent-ils à votre connaissance du plat ?
Apprenez de vos plats récurrents
Les apps intelligentes apprennent de vos corrections. Apres quelques ajustements sur votre petit-dejeuner habituel, l'estimation s'affine.
L'avenir de la reconnaissance alimentaire
Tendances émergentes
- Multi-angle : video 360 pour estimation 3D precise
- Integration restaurant : scan du menu pour données exactes
- Capteurs embarqués : balance dans l'assiette connectee
- IA personnalisée : modèles adaptés à vos habitudes
Le vrai game-changer
Ce n'est pas la précision à la calorie pres qui compte. C'est la reduction de friction qui transforme un comportement ponctuel en habitude durable.
3 secondes pour tracker vs 3 minutes = 60x plus rapide. Sur un an, c'est la différence entre abandonner au bout de 2 semaines et tenir 365 jours.
Essayez le suivi par photo
FormOS utilise Gemini Vision avec un protocole 3 passes pour une précision maximale.
Rejoindre la Beta