Utilisation des Analytiques en Vidéo

Publié le 25 Oct 2024

On en parle beaucoup. désormais. L’ IA (Intelligence Artificielle) ou le Deep Learning ( Apprentissage en profondeur) ou réalités augmentées sont présents partout, à la télé, dans les articles, sur Linkedin.

Mais en pratique que peut on faire réellement en terme de performances ? Acheter la bonne caméra ou le bon logiciel suffit -il ?

Toute utilisation d’analytiques doit répondre à une stratégie et des objectifs précis, sous peine de sombrer rapidement. Il faut également « mouiller la chemise » coté exploitant, et coté performances techniques car sans cela le projet sera difficile à porter à un haut degré d’efficacité et à conserver au travers de la maintenance.

  • Définition d’un correspondant de l’exploitant chargé du suivi de l’efficacité du projet et de son amélioration, et qui fera l’interface avec les prestataires et fournisseurs de solutions,
  • Définition d’objectifs limités et facilement mesurables statistiquement,
  • Mise en place de protocoles de test périodiques avec suivi des faux positifs et stress test sur les possibles faux négatifs notamment en conditions climatiques dégradées (brouillard, neige, orage, canicule..ou mélange de tout cela )
  • Suivi rigoureux des DOE et des réglages et sauvegardes afin de pouvoir reproduire ou améliorer des réglages, des asservissements, notamment lors des maintenances préventives ou curatives.

Actuellement la grande majorité des licences d’analyse en sureté se concentrent depuis des années sur la détection d’intrusion en périphérie de site avec des caméras thermiques. Plus efficaces en terme de faux positifs que les barrières infra rouge, les caméras thermiques couplées à des logiciels embarqués dans les caméras (edge analytique) ou dans des serveurs dédiés atteignent des taux de détection corrects pour peu qu’on tiennent compte des aléas de réchauffement pouvant atténuer les contrastes de températures.

Le détections « optiques » sont plus complexes car selon les éditeurs d’algorithmes, les résultats dépendront:

  • de la luminosité (souvent la couleur permet plus de chose que le noir et blanc avec Infra rouge)
  • du nombre de pixels sur la cible et du niveau de détails (ppm Largeur x Hauteur)
  • de la netteté ( l’autofocus n’est pas forcement mon ami dans ce cas)
  • de la qualité du flux analysé quand l’analyse est faite par un serveur ( Résolution, Ips, parfois le GOP, la compression …)

Ajoutons que les toiles d’araignées, les branches, les reflets et les ombres ne facilitent pas non plus la tâche des moteurs d’analyse. D’où l’idée de définir des zones « maitrisées » en luminosité, distance et ppm et bien maintenue avec des matériels qui ne génèreront pas trop d’intempestifs.

IA ou DeepLearning ?

Publié le 18 Sep 2021

Just Do IP teste actuellement plusieurs solutions basées sur l’IA ou le Deep Learning soit avec des algorithmes embarqués dans des caméras, soit sous forme de serveurs dédiés.

Vous avez ci dessous les principales problématiques résumées. Parmi les principales: peut on détecter automatiquement des personnes ou véhicules immobiles, et peut on détecter quand on a qu’une fraction masquée de la cible ?

D’autres critères comme la facilité de mise en œuvre et d’auto calibration, l’ergonomie de l’interface utilisateur, son intégration avec les VMS et Hyperviseurs du marché, la résistance / résilience à la saleté, aux insectes et aux végétaux et enfin la facilité de maintenance logicielle du système, car il faut pouvoir évoluer aisément.

Ci dessous test en live avec double détection en mouvement. Sans mouvement ou sur une vue partielle l’algorithme dans la version testée ne détectait pas.

Les véhicules à gauche et devant en partiel ne sont pas détectés. Une main, un avant bras ou une tête seule non plus.

Au stade actuel, aucun éditeur ou constructeur ne se risque à déclarer un 95% ou, à fortiori un 100%.

Peu de sociétés ont le temps et l’argent de tester en conditions de « stress test » les équipements, c’est à dire en faible luminosité ou en noir et blanc avec infra rouge, sous la pluie, et avec une toile d’araignée sur l’objectif.

Néanmoins, je constate que les faux positifs basiques sur végétaux en mouvement (branches, feuillus) ont tendance à disparaitre sur les derniers modèles d’analytiques.

Certaines caméras récentes équipées de Led blanches éclairent la scène dès que la luminosité baisse afin d’appliquer de la reconnaissance humaine ou véhicule et avec de très bons résultats. Elles peuvent émettre des messages pré enregistrés (« Périmètre privé veuillez quitter les lieux.. » ) , des lumières stroboscopiques ou clignotantes… Rester en couleur permet généralement de meilleurs résultats.

Un point important est qu’il est impossible de connaitre généralement la qualité d’apprentissage du « Deep learning » qui a été effectuée part l’éditeur ou le constructeur : a t on alimenté l’algorithme avec d’innombrables situations de l’objet et beaucoup de variations de luminosités pour décrire un véhicule ou un visage ou une arme , ou bien a t on entré des images de type « catalogues » , belles et hyper reconnaissables mais éloignées de la réalité ?

VMD, VCA, Machine Learning, Deep Learning et IA sont abordés et illustrés par des exemples dans nos formations avec leurs forces et leurs limites