3. La vision (⅓ )
★ L’espace qui nous entoure a une structure tri-dimensionnelle (3D)
★ L'être humain sait parfaitement décrire et interpréter ce monde.
★ Il ne trouve aucune difficulté de nommer les objets et leurs état
★ Pourtant, l'information disponible sur la rétine de ses yeux n'est
qu'un ensemble de points (environ un million de picture elements
ou pixels).
★ Chaque pixel contient des informations sur la lumière reçue en ce
point de la rétine
4. La vision (⅔ )
★ Guide à la fois par l'information codée dans l'image ou la rétine
et par ses propres connaissances le processus visuel construit
des percepts.
★ Les objets et leurs état sont le résultat final d’un processus
d’interprétation qui intègre le système de vision.
★ Le système de vision doit fournir les connaissances nécessaires an
de permettre une interprétation non ambiguë.
5. La vision (3)
Image (ensemble de pixels)
System de vision
Interprétation
Description de la scène (objets, position, mouvement)
Connaissances a priori
(forme, couleur,
comportement physique)
7. La vision par ordinateur
★ La vision humaine est extrêmement complexe (neurosciences)
★ La vision par ordinateur ne cherche pas à comprendre ou à reproduire la
vision humaine
★ Il cherche à construire un modèle algorithmique qui, vu de l'extérieur,
possède des propriétés semblables.
★ La vision par ordinateur (aussi appelée vision artificielle ou vision
numérique) est une branche de l'intelligence artificielle dont le principal
but est de permettre à une machine d'analyser, traiter et comprendre une
ou plusieurs images prises par un système d'acquisition (par exemple :
caméras, etc.)
8. La vision par ordinateur: quelques applications
★ Traditionnellement, le flux vidéo était traité par un opérateur humain,
remplacé progressivement par un traitement automatique sur les
données enregistrées contenant des événements anormaux.
Actuellement, l'objectif est de détecter ces événements en temps réel et
de façon automatique.
★ Navigation: ex. dans un véhicule autonome ou un robot mobile
★ Détection d’événements:ex. pour la surveillance ou le comptage
automatique de personnes.
★ Reconnaissance d'écriture (OCR)
9. Une théorie de la vision
Les algorithmes de vision sont des expressions des stratégies mises
en œuvre :
➢Extraction de primitives à partir des images
➢Représentation des connaissances
➢Mise en correspondance images/connaissances : reconnaissance
10. Une théorie de la vision : Connaissances à priori
Physiques (optique, forces/interactions)
Géométriques (forme des objets, formation de l'image)
Sémantiques (fonction des objets, comportement)
Exemple : Exemple : que sait-on de mesurable sur une voiture qui permette
de l'identifier dans une image ?
11. Le paradigme de David Marr
Vers la n des années 70 David Marr a proposé un modèle calculatoire pour le
traitement et la représentation de l'information visuelle :
1. a partir d'une ou de plusieurs images un processus d'extraction de
caractéristiques produit un description en termes d'attributs en 2D.Ce
niveau de représentation est appelé première ébauche (primal sketch).
2. la première ébauche constitue l'entrée d'un certain nombre de
processus: il s'agit de processus d'inférence qui utilisent des
connaissances géométriques (analyse des contours) géométriques et
statistiques (analyse des textures), photométriques (analyse des ombrages)
ou colorimétriques (analyse des reflets).ébauche 2.5D
12. Le paradigme de David Marr
3 . l'ébauche 2.5D est mise en correspondance avec des connaissances 3D afin
de construire une description de la scène en termes d'objets et de relations
entre les objets il s'agit maintenant d'une représentation centrée sur la scène.
❖Il s'agit maintenant d'une représentation centrée sur la scène ( la
description ne dépend plus de la position de l'observateur (le cas de 2éme
étape))
13. Segmentation, reconstruction, reconnaissance
En pratique le paradigme de David Marr se traduit par trois étapes de
traitement segmentation reconstruction et reconnaissance :
On peut appliquer ces 3 étape sur différents types des image :
● optiques (2D) : photo, satellite, document
● médicales (Rayons X, IRM, 2D/3D…)
● images fixes ou séquences temporelles
● autres (radar, laser, sonar…)
15. Segmentation
La pierre de base de tout système de vision
Le but de toute méthode de segmentation est l'extraction d'attributs
caractérisant ces entités.
Détection de contours: la recherche des discontinuités locales de la
fonction des niveaux de gris de l'image.
La segmentation des contours :consiste a approximer les contours par
des représentations analytiques exemple droite ou polygone..
L'extraction de régions (zones homogènes)
Frontières de régions ⇔ contours
17. Reconstruction
On commence par le calibrage de le détecteur : avoir une idée globale sur la
scène en se basant sur un ensemble de caractéristique tel que l’intensité des
images
Il ya plusieur approche pour reconstruire la scène pour l’adapter au capteur
selon ses capacités :
exemple : Stéréoscopie
19. Reconnaissance
Comparer des indices visuels bi ou tridimensionnels avec les indices des
objets à reconnaître
Les méthodes de reconnaissance sont souvent couplées avec des méthodes
de localisation
On se basant sur un base de connaissance , on obtient donc une description
d’objet et les relations entre eux (mouvement..)
21. Conclusion
La vision par ordinateur est un processus de traitement de l’information
Elle utilise des stratégies bien définies an d’atteindre ses buts
L’entrée d’un système de vision est constituée par une séquence d’images
Le système lui-même apporte un certain nombre de connaissances qui
interviennent à tous les niveaux
La sortie est une description de l’entrée en termes d’objets et de relations
entre ces objets
22. Albert Einstein
Les machines un jour pourront résoudre tous les problèmes,
mais jamais aucune d'entre elles ne pourra en poser un