Introduction au codage des images en sous-bandes
Il a été démontré qu'il n'est pas possible d'obtenir des taux de compression intéressants à partir du contenu de l'image (travail dans l'espace pixel) en raison de la faible corrélation spatiale des points.
Il faut transformer ce contenu soit pour éliminer la corrélation spatiale (cas de la DCT) soit pour l'augmenter par séparation en plusieurs espaces (cas des ondelettes).
Quelquesoit la transformation adoptée, le traitement est réciproque, c'est à dire que l'on peut revenir à l'espace d'origine (image de départ) sans altération (du moins en thérorie); le seul but de la transformation est de fournir des informations "facilement" comprimables : on peut suivant les cas effectuer une quantification scalaire ou vectorielle puis un codage entropique.
La présentation des ondelettes qui est faite ici ne concerne que la transformation, pour la phase de quantification, il n'y a pas de consensus qui se dégage, il semble toutefois que la quantification vectorielle donne des résultats prometteurs.
Pour finir avec ce préambule, il faut savoir que des études sont menées sur l'application 2D+t d'ondelettes sur des séquences d'images; si les résultats théoriques semblent encourageants, la mise en oeuvre de tels algorithmes reste encore très lourde à l'heure actuelle.
Ainsi l'espace de sortie (réunion des 4 sous-espaces) est le même que l'espace d'origine mais l'organisation des données est différente :
Cela correspond à une première couche d'ondelettes. La deuxième couche consiste à prendre l'espace V1 pour obtenir les espaces S2, SD2, DS2 et D2, et ainsi de suite. à chaque couche, on va d'une image fine vers des images à des échelles de plus en plus grossières : V2, V3, ..., Vn ; le résultat du traitement est une image de même dimension que celle d'origine mais seule exploite toute la dynamique du signal d'entrée (codage sur B bits), les autres signaux de différence, sont centrés sur l'origine et le volume d'information propre est beaucoup plus faible (on pourra alors exploiter un codage entropique, par exemple).
La reconstruction consiste en une opération symétrique à celle de la transformation (figure 4); s'il n'y a pas eu de compression, il ne doit pas y avoir, au sens du traitement du signal, de perte d'information dans l'image ; dans la pratique, il apparaît des problèmes au niveau des frontières de l'image liés à la largeur des fenêtres de filtrage (symétriques), la visibilité de ce défaut se fait sous forme de vignettage (perte de luminosité et de contraste) sur les bords de l'image (figure 5) ; il n'existe pas de méthode miracle pour éliminer ce phénomène, la meilleure approche, semble-t'il consiste à effectuer un miroir aux frontières de l'image, de telle sorte que le filtrage soit correct.
Fig. 5 : Effet de vignettage sur les bords de l'image (5 couches d'ondelettes)
Les ondelettes donnent de bons résultats en compression d'image, semble-t'il meilleurs qu'avec la DCT, mais leurs développements théoriques et pratiques ne sont pas assez avancés (ou trop récents) pour qu'elles soient intégrées dans des normes de compression pour les images informatiques ou télévisuelles.
Les ondelettes excellent dans la compression d'images présentant des contours marqués mais elles donnent des résultats mitigés pour le traitement de textures ; à titre d'exemple, les ondelettes sont très performantes dans la compression d'images de type Bandes Dessinées.
Les ondelettes excellent dans la compression d'images présentant des contours marqués mais elles donnent des résultats mitigés pour le traitement de textures ; à titre d'exemple, les ondelettes sont très performantes dans la compression d'images de type Bandes Dessinées.
Un exemple d'utilisation des ondelettes pour la compression d'images est donné par la figure 4.22, il s'agit de l'archivage d'empreintes digitales par le FBI ; le système (WSQ : Wavelets, scalar quantization) exploite la quantification scalaire des espaces de différence ; le taux de compression exploité est de 15:1.