le pré-traitement numérique des images couleuriut-gmp.univ-lille1.fr/fichiers/lpvi/couleur.pdf ·...
TRANSCRIPT
Le prétraitement numérique des images couleur
Licence Pro VI
Licence professionnelle Gestion de l’industrie
& Vision industrielle – utilisation de capteurs
optiques, traitement d’image, qualité &
automatismes dans la production industrielle
EZZAAF Amine &
HAZEBROUCQ Thibaut
Cette synthèse a pour but de présenter les étapes de
corrections nécessaires à la formation d’une image
colorée la plus proche possible de l’originale
Traitement des images couleurs
EZZAAF Amine
HAZEBROUCQ Thibaut
2
Sommaire :
Introduction........................................................................................................P3
I. Image RAW & CFA……………………………………………………...P4
1) Les Capteurs : CCD et CMOS ………………………………………..P4
2) Principe de fonctionnement d’un capteur CCD ……………………..P5
3) Principe de fonctionnement d’un capteur CMOS …………………..P6
4) TriCCD …………………………………………………………….....P7
II. Filtre de Bayer ……………………………………………………………P8
III. Les traitements pré-dématricage …………………………………………P9
1) Corrections des erreurs dues à l’objectif ................................................P10
1.1) Vignettage ....................................................................................P10
1.2) Dark Correction ou correction du noir .........................................P10
1.3) Correction des défauts isolés (Defect Concealment)……………P10
2) Réduction du bruit statique …………………………………………....P11
3) Balance des blancs ..............................................................................P13
4) Correction de l’exposition .................................................................P13.14
IV. Dématricage ………………………………………………………P15.16.17
V. Les traitements post-dématricage ………………………………………P18
1) Réduction du bruit colorimétrique……………..……………………...P18
2) Correction des couleurs……………………………………………….P19
3) Correction de l’échelle de tons et gamma……………………………P20
4) Détection des contours et amélioration du contraste…………………P21
Conclusion…………………………………………………………………….P22
Remerciements……………………………………………………………….P23
Bibliographie…………………………………………………………….P24-25
Traitement des images couleurs
EZZAAF Amine
HAZEBROUCQ Thibaut
3
Introduction
De nos jours la Vision industrielle se définit comme un outil
d’amélioration continue et de contrôle de qualité dans une chaine de
production à l’aide de traitement des images.
Le but de ce projet est d’expliquer les différentes étapes de
traitements d’image lors d’une capture numérique, de l’acquisition
(données brutes) au stockage mémoriel (données finales). Le
traitement d’images est de plus en plus utilisé comme base de la vision
industrielle : en modifiant les algorithmes de traitement d’un capteur
optique (plutôt qu’en changeant ce capteur), cela permet de connaitre
la qualité des produits et leur conformité aux différentes normes, et
ainsi d’augmenter la productivité et la flexibilité des ateliers de
production, ou parfois de résoudre des problèmes sur des chaines de
productions.
Ces traitements peuvent avoir lieu dans une caméra ou bien sur
un ordinateur dans le but d’avoir une image bien clair.
Dans un premier temps nous étudierons brièvement les différents
types d’acquisition d’image (2 types de capteurs utilisés
principalement), ainsi que les opérations de traitements de cette image
par des algorithmes, afin d’avoir l’image désignée.
Traitement des images couleurs
EZZAAF Amine
HAZEBROUCQ Thibaut
4
I. Image RAW & CFA :
L’image brute donnée par le capteur est nommé image RAW (« brute /non-modifiée» en an-
glais), c’est celle que l’on reçoit lors de la première acquisition de l’image par une caméra,
qui contient à la conversion des rayons lumineux réfléchis d’une scène en un signal électrique
via un capteur. C’est une image formée de valeurs, dans le bleu, le rouge et le vert, et ces valeurs
sont classées, rangées par colonnes et lignes comme dans un tableau pour représenter l’image. On
désigne par image CFA (Color-Filtre-Array) une image qui dispose encore de 3 composantes dif-
férentes (le bleu, rouge et vert) tandis qu’après fusion des couleurs (dématricage, étudié après) il
n’en reste plus qu’une « couche » ou table de couleurs dites « naturelles » (visibles en fait, car il
existe scientifiquement comme couleurs que celles que l’œil humain perçoit.)
1) Les Capteurs :
Les capteurs sont des composants de la chaîne d’acquisition, ils permettent de
transformer les photons en signal électrique.
Dans le domaine de la photographie numérique, il existe aujourd’hui deux grandes tendances
technologiques : CCD (Charge Coupled Devices) et CMOS (Complementary Metal Oxide
Semiconductor).
Ce sont deux approches régulièrement mises en concurrence directe. Les deux technologies
consistent en une multitude de cellules photosensibles capables de transformer la lumière en
un courant d’intensité variable, la différence réside dans la façon, pour chaque cellule, de
transférer ses informations au processeur de l’appareil : tandis que CMOS identifie la valeur
de chaque cellule séparément, CCD travaille sur l’intensité d’une ligne/colonne de cellules
directement. Dans les deux cas, les charges sont des électrons crées par effet photoélectrique
qui sont stockés dans un puits potentiel créé par une électrode, et le nombre d'électrons collec-
tés est proportionnel à la quantité de lumière reçue.
Traitement des images couleurs
EZZAAF Amine
HAZEBROUCQ Thibaut
5
2) Principe de fonctionnement d’un capteur CCD :
Le capteur CCD est divisé en deux parties, l’une réceptionne les photons en provenance de la
cible, l’autre n’étant active que pendant la phase de lecture de ces informations. La lecture
s’effectue ligne par ligne et pendant ce temps (quelques secondes) la partie acquisition
continue de recevoir de la lumière. la valeur de chaque ligne ou colonne a été codée par une
horloge (externe au site photosensible, pour retrouver la valeur de chaque cellule)
Avantage :
Qualité d’images élevée :
Selon le CCD employé, le facteur de remplissage peut être proche de 1, cela permet une qualité
d'image élevée,
Bruit très faible :
Le bruit est faible avec un capteur CCD puisqu'il y a moins d'électronique composant le capteur,
Haute sensibilité
Cela permet l'emploi de ces capteurs où il y a peu de lumière.
Inconvénient :
Saturation du capteur aux fortes luminosités :
Cela peut créer des taches circulaires blanches, appelées blooming, qui peuvent être compensées par
un logiciel de retouche d'image ou bien réduire au minimum le temps de pose.
Nécessité d'horloges multiples pour piloter les transferts de charges.
Figure 1 : Schéma fonctionnel du capteur CCD
Traitement des images couleurs
EZZAAF Amine
HAZEBROUCQ Thibaut
6
3) Principe de fonctionnement d’un capteur CMOS :
Chaque cellule envoie une valeur déjà numérique au registre de sortie. Nécessite des cellules
plus complexes que CCD pour traiter numériquement l’information.
Avantage :
Fenêtrage
C'est la possibilité d’adresser individuellement les pixels et de ne lire que certaines zones de
la matrice,
Compacité
L'électronique et le capteur sont présents sur le même composant
Faible consommation
Intéressant pour l'acquisition d'images à grandes vitesses (l’appareil risque moins de
surchauffer)
Inconvénient :
Le bruit
Facteur de remplissage modéré
Cela est compensé par l'emploi de lentilles placées au-dessus du photosite. Cela permet de
diriger l'ensemble des photons incidents sur la partie sensible du photosite.
Figure 2 : Schéma fonctionnel du capteur CMOS
Traitement des images couleurs
EZZAAF Amine
HAZEBROUCQ Thibaut
7
4) TriCCD :
Le capteur TriCCD est un système composé trois prismes munis de filtres colorés
(dichroïques) et 3 capteurs CCD Chaque capteur est utilisé pour l’acquisition d’une
composante couleur.
Beaucoup plus cher à construire et plus lourd, le système triCCD est réservé aux caméscopes
professionnels ou haut de gamme pour amateurs.
Les rayons pénétrant dans les prismes séparateurs traversent le premier prisme et sont filtrés à
sa sortie par un miroir dichroïque bleu. Celui-ci va réfléchir seulement les rayons bleus et
laisser passer les autres. Les rayons bleus vont alors être réfléchis par un miroir semi-
transparent vers le capteur bleu. Il en va de même dans le deuxième prisme pour les rayons
rouges. Ne restent plus que les rayons verts qui traversent les trois prismes sans être déviés
Figure 3 : Exemples de prise de vue, CCD (gauche) et CMOS (droite)
Figure 4 : Schéma capteur TriCCD
Traitement des images couleurs
EZZAAF Amine
HAZEBROUCQ Thibaut
8
II. Filtre de Bayer :
Les deux types de capteur principalement utilisés dans la photographie numérique
actuellement sont les capteurs CCD et CMOS, jusqu'ici l’information perçue par le capteur est décrite
comme une valeur de niveau de gris, si cette valeur est grande cela signifie que l’image est lumineuse
et si cette valeur est petite cela signifie que l’image est sombre , on obtient qu’une image en nuances
de gris avec ces valeurs .Le problème qui se pose est : « comment obtenir une image couleur ? »
Pour obtenir cette image, On place devant le capteur un filtre coloré qui s’appelle filtre de
bayer ou Filtre CFA (Color filtre Array), ce filtre contient deux fois plus de composantes vertes que
rouges ou bleus, car le système de vision humain est plus sensible aux longueurs d’ondes proches
du vert.
Ainsi, sur une zone de 4 cellules (2*2), 2 cellules perçoivent l’information sur la couleur verte, 1 sur le
bleu, et 1 pour le rouge.
On peut, par recomposition, obtenir les couleurs approximatives réelles, Cependant une partie de
l’information est perdue (les composantes bleu et rouge sur un capteur derrière un filtre vert, par
exemple, ou sur un capteur : les photons qui n’arrivent pas sur la partie photosensible ne sont pas pris
en compte) et une partie peut être déformée. C’est pourquoi, sur cette image brute, directement issue
du capteur, plusieurs traitements sont nécessaires. Certains peuvent être faits avant de fusionner les
couches de couleurs différentes (pré-dématricage) tandis qu’une autre nécessite les couleurs finales
(post-dématricage).
Figure 5: Filtre CFA
Matrice de bayer
Traitement des images couleurs
EZZAAF Amine
HAZEBROUCQ Thibaut
9
III. Les traitements pré-dématricage :
On part donc avec une image constituée de millions de pixels de 3 couleurs différentes : du vert, du
bleu ou du rouge avec pour chaque point son intensité lumineuse .D’ici à ce qu’on ait des couleurs
« réelles » (autre que vert/rouge/bleu) il faudra passer par le dématricage (comparable, de façon
simple, à une addition des composantes présentes pour chaque point).
D’ici là, plusieurs opérations de corrections peuvent déjà être mis en place :
Données brutes R/V/B
Image brute/RAW
Réduction bruit statique
Balance des blancs
Corrections des erreurs dues à
l’objectif
Image CFA corrigée
Correction de l’exposition
Prétraitement d’image numérique (partie I)
Source : Doc par Mr Macaire « Digital Camera Image Formation Processing and Storage »
Traitement des images couleurs
EZZAAF Amine
HAZEBROUCQ Thibaut
10
1) Corrections des erreurs dues à l’objectif :
L’objectif (lentille) de la caméra peut induire des défauts :
1.1) Vignettage :
Le vignettage est aussi due à la lentille de l’objectif : les zones centrales de l’image recoivent plus de
lumière que les zones aux bords. Ce défaut de contraste est fixe pour un objectif, et est donc lui aussi
corrigé par le soft intégré à la lentille (il s’agit d’une re-valorisation de chaque point selon son
emplacement, en éclaircissant les points exterieurs ou en assombrissant les points interieurs)
1.2) Dark Correction ou correction du noir :
Dans le noir complet, tout les capteurs ne donnent pas forcément 0 comme valeur, et ils ne donnent
pas non plus la même valeur. Pour corriger cela, un niveau de noir est calculé par l’ordinateur (valeur
sous laquelle la luminosité est considérée nulle) et selon les différentes valeurs pour un même noir, il
calcule l’incertitude relative globale de l’ensemble du capteur, et donc la précision relative de chaque
mesure. Correction, encore une fois, intégrée au software de la lentille.
1.3) Correction des défauts isolés (Defect Concealment)
Sur une matrice de millions de capteurs, la probabilité qu’au moins une cellule ne fonctionne pas est
grande, pour retrouver la valeur qu’aurait du indiquer cette cellule defectueuse isolée, on interpole : à
partir des valeurs de la même composante autour, on en déduit la valeur (approximative) de la cellule
défaillante.
Figure 6: image avec un défaut de vignettage
Traitement des images couleurs
EZZAAF Amine
HAZEBROUCQ Thibaut
11
2) Réduction du bruit statique :
Le capteur étant fait d’électronique, un courant résiduel peut subsister dans ses composants, ou ils
peuvent, par exemple, réagir à la chaleur en émettant des électrons qui viennent fausser l’information.
Le bruit a 3 principales sources :
a) bruit thermique :
La chaleur peut faire arracher des électrons au capteur comme le ferait la lumière (pas de la
même manière, la réaction physique est différente, mais le résultat est le même : l’obtention
d’un courant électrique, non désiré dans le cas du bruit thermique).
b) bruit électromagnétique :
Le reste des composants électroniques peuvent, par effet électromagnétique, arracher des
charges aux atomes du capteur, et générer un bruit non désiré. Cela peut aussi être généré par
tout appareil émettant un rayonnement électromagnétique (télévision, radio, wifi).
c) bruit mécanique :
Provient d’effet mécanique (peu présents dans l’appareil photo, il faudrait qu’un choc
vienne modifier la structure du capteur) ou d’incapacité à calculer le nombre de pho-
tons lorsque la lumière suit un comportement non-corpusculaire.
Les traitements ne peuvent réellement éliminer le bruit, mais des algorithmes permettent de
« lisser » l’image et de réduire le bruit. De façon simplifiée, les algorithmes utilisés prennent
des échantillons de l’image pour uniformiser chaque zone, lissé ou « smooth » l’image.
Figure 7 : signal sans bruit (a), et signal avec bruit (b)
Traitement des images couleurs
EZZAAF Amine
HAZEBROUCQ Thibaut
12
Exemple concret (image en valeurs de gris) :
Ici on suppose une image bruité par le bruit dit « poivre et sel », un bruit additif qui applique
une valeur maximale ou minimale sur des points isolés de l’image. Pour enlever ces défauts,
on applique un masque de convolution de rayon 1 (matrice 3x3) qui vérifie que la valeur d’un
pixel (au centre du masque) n’est pas supérieure ou inférieure à l’ensemble des valeurs qui
l’entourent. Ici, on obtient un dé-bruitage qui n’est pas parfait, cependant il enlève la majeure
partie des défauts : les points blancs ou noirs disparaissent majoritairement.
Figure 8 : image bruité (sel & poivre) à gauche, filtré en min-max de radius 1 à droite
Traitement des images couleurs
EZZAAF Amine
HAZEBROUCQ Thibaut
13
3) Balance des blancs :
En partant des informations de couleurs, le dématricage pourrait donner plusieurs
images finales :
Pour obtenir la bonne image (ici on considèrera celle de droite), il faut calibrer les couleurs :
Il fait une moyenne des couleurs de l’image pour trouver le type d’éclairage (lumière
naturelle ou artificielle : néon, lampe rouge …)
une fois cela trouvé, il cherche une zone claire/blanche selon le type d’éclairage, et
applique dans cette zone (voir sur ce pixel) Rouge = Vert = Bleu : si les valeurs cor-
respondent déjà (1=2=3), aucune modification, mais dans la plupart des cas il cherche
le coefficient à appliquer pour obtenir l’égalité. En modifiant les valeurs, il obtient les
valeurs finales de Rouge/Vert/Bleu ou Red/Green/Blue qui seront utilisées pour le
dématricage (ici, l’image d’origine a des teintes plutôt bleus, alors qu’après balance
des blancs elle parait naturelle).
Pour résumer, la balance des blancs consiste à uniformiser l’image en fonction 1 : de sa
gamme de couleurs, et 2 : d’une zone supposée blanche qui sert à équilibrer les valeurs en
rouge, vert et bleu.
Figure 9 : balance des blancs
Traitement des images couleurs
EZZAAF Amine
HAZEBROUCQ Thibaut
14
4) Correction de l’exposition :
L'exposition permet d'équilibrer une image pour qu'elle ne soit ni trop claire, ni trop sombre.
La plupart des caméras numériques font une exposition automatique : elles adaptent toutes
seules .les réglages pour obtenir cet équilibre. Les automatismes n'étant pas parfaits, vous
avez généralement une correction d'exposition permettant de lui dire «plus clair» ou «plus
sombre». La correction d'exposition n'est pas un réglage d'usage très courant, les compacts actuels
disposent d'automatismes plutôt fiables. Néanmoins, ce réglage simple à mettre en œuvre est à
connaître. Il peut notamment permettre d'éviter que l’arrière-plan de l’image (par exemple le
ciel) devienne entièrement blanc en extérieur ou, au contraire de révéler des détails cachés
dans les ombres.
En outre, jouer sur l'exposition peut également être un choix artistique : une surexposition
peut participer à une ambiance rêveuse, une sous-exposition renforcer la dureté d'une image.
De manière générale, la notion d'exposition est assez centrale en photographie ; on y revient
régulièrement, les trois réglages permettant de la modifier influant chacun sur d'autres
paramètres.
Ces défauts sont peu corrigibles après capture (la modification de l’image entraine une perte
d’informations considérables, le résultat étant d’une qualité bien inférieure à l’objectif), les
techniques les plus récentes consistent à doter l’objectif d’un capteur de mouvement ou d’un
gyroscope qui détecte les mouvements de l’appareil, combinés à une lentille ou un capteur
(via des électroaimants par exemple) qui permettent de corriger le mouvement de l’utilisateur
durant les quelques ms de capture.
Figure 10 : exposition d’une image, à gauche l’image est sous-exposition, au centre
exposition correcte, à droite l’image est surexposition
Traitement des images couleurs
EZZAAF Amine
HAZEBROUCQ Thibaut
15
IV. Le Dématricage (ou démoisaïcage)
Après les corrections effectuées, on obtient une image dite CFA, Il faut maintenant
reconstruire les informations manquantes. En effet, chaque pixel ne contient qu'une seule
information de couleur, et il faut trouver le meilleur algorithme permettant de retrouver
l'information manquante sur les deux autres couleurs. C'est le but du dématricage ou
démoisaïcage. Le nombre d’algorithmes est très important, dans notre cas nous n’étudierons
que quelques-uns.
Avant dématricage
Image située à gauche utilisée pour la simulation(a), au milieu Image CFA(b), les pixels dans
les plans RGB de l'image originale sont supprimés pour simuler un échantillonnage par une
matrice de Bayer. L'image apparaît verdâtre parce qu'il y a deux fois plus de pixels verts que
de rouges et de bleus dans la matrice de Bayer. Image à droite Numérotation de la matrice de
Bayer.
Figure 11 : image CFA avant le dématricage
Traitement des images couleurs
EZZAAF Amine
HAZEBROUCQ Thibaut
16
Une image vaut mieux que de longues explications, on veut passer de l’image de gauche à
l’image de droite …
… et faire correspondre, là où il n’y avait qu’une case bleu rouge ou verte, une case de
couleur issue des composantes fusionnées. Rien de plus simple : on fait, pour chaque case, la
moyenne des composantes environnantes, On obtient ainsi une image formée, en tout point,
des 3 composantes (image de gauche)
Figure 12 : dématricage
Traitement des images couleurs
EZZAAF Amine
HAZEBROUCQ Thibaut
17
Cette technique est dite de dématricage par « bi-linéarisation », elle est efficace est plutôt
simple à mettre en œuvre. Plus simple serait la technique de copie de pixel : on copie la valeur
d’un pixel dans la case adjacente, mais elle apporte des défauts de couleurs. Une méthode plus
lourde est l’interpolation des teintes : elle fait la moyenne des 3 composantes en un point
(plutôt que le moyenne d’une seule teinte par bi-linéarisation) afin d’assurer des teintes
constantes : en prenant la couche verte comme référence (puisque plus d’informations), les
valeurs de bleus et de rouge sont calculées en prenant pour référence la valeur de vert pour
qu’il n’y a pas de changement de teinte.
Traitement des images couleurs
EZZAAF Amine
HAZEBROUCQ Thibaut
18
V. Les traitements post-dématricage
1) Réduction du bruit colorimétrique :
Une fois l’image dématricée, on obtient 3 couches colorimétriques pleines qui forment une image en
couleur. La correction du bruit abordée en I-2) décrit l’élimination de perturbations sur une couche de
valeur unique (d’une seule couleur/échelle de gris). Ici on cherche à éliminer les bruits de couleurs,
des bruits qui aurait, par exemple, affecté une zone de pixels (verts, rouge et bleus) et qui ne serait pas
disparu via la 1ère
correction par couche. Pour ce faire, on convertit l’espace colorimétrique de l’image
de RGB vers un espace où sont retenus comme information la luminance (Y), et 2 canaux de
chrominance (Cr et Ci) qui permettent de retrouver l’image d’origine post-traitement.
Pendant que l’image est en YCrCi,
1- On limite les valeurs de chaque couleur aux sensibilités de l’œil humain (en saturant les
valeurs hors-visible)
2- on applique un masque de convolution, comme pour la détection de bruit en I-2) qui permet
de détecter des défauts de changement de la luminosité (Y) ou de la chrominance (Cr Ci). Pour le
luminance, le coefficient de traitement/modification est plus faible que pour les deux chrominances :
l’œil humain détecte bien les changements de luminosité, tandis qu’il approxime les changements de
teinte. On doit donc garder la luminance relativement intacte (pour garder les différences originales)
tandis que le coefficient appliqués aux couches de chrominances, plus élevé, réduira les erreurs de
couleurs, les mauvais dégradés / contrastes qui peuvent provenir du dématricage.
Figure 13 : zoom sur un ciel de coucher de soleil (gauche), et recherche de défauts (à droite)
Traitement des images couleurs
EZZAAF Amine
HAZEBROUCQ Thibaut
19
2) Correction des couleurs :
La correction des couleurs s’effectue via un coefficient matriciel 3x3 prédéterminé
selon la caméra et la situation de luminosité.
Ce coefficient dépend de la sensibilité initiale de la caméra rapport à son white balance (si la caméra
donne des valeurs identiques en Rouge/Vert et Bleu pour un noir/blanc identique, et si la sensibilité est
identique dans chaque composante) et de la situation de prise de vue : si la luminosité est importante
ou très faible, le coefficient matriciel sera adapté pour éviter des différences de coloration d’une zone à
une autre de l’image.
Figure 14 : coefficient matriciel appliqué pour la « Color correction »
Figure 15 : image modifié selon plusieurs coefficients matriciels.
Traitement des images couleurs
EZZAAF Amine
HAZEBROUCQ Thibaut
20
3) Correction échelle de tons & Gamma :
La technique la plus simple de réglage de l’échelle de tons ne prend pas en compte le type de scène,
mais applique simplement un filtrage/modification des valeurs en fonction des valeurs présentes dans
l’image, afin d’obtenir un contraste de couleurs élevé, sans saturation néanmoins. Cela donne plus de
détails visibles.
Parfois l’échelle de tons peut-être souhaitée avec moins de contraste, lorsqu’on ne représente qu’un
objet de couleur globalement uniforme (portrait de visage, par exemple).
Figure 16 : Plusieurs corrections de tons. De gauche à droite : image originale,
image ajustée automatiquement pour préserver les valeurs sans saturation,
image ajustée automatiquement pour garder des teintes correctes, image
ajustée manuellement.
Figure 17 (2 images) : Le gamma correction correspond à l’augmentation/diminution de la luminosité en
fonction de la luminosité initiale : elle permet d’éclaircir les zones éloignés (correction gamma<1), ou au
contraire, de faire ressortir les détails d’un objet proche (correction gamma>1)
Traitement des images couleurs
EZZAAF Amine
HAZEBROUCQ Thibaut
21
4) Détection des contours & amélioration du contraste :
Le filtrage de détection des contours utilise un masque de convolution (ici de radius 2 en distance
Manhattan) pour détecter les zones de changements, et ainsi les contours. Une fois le masque
appliquée, on obtient l’image de droite, qui délimite les contours de l’image. Comme pour la
correction de l’échelle de tons, on re-pondère ensuite les valeurs pour obtenir un contraste plus élevé
entre chaque zone (les traits apparaitront plus noirs dans le résultat final, résultat non présenté)
Figure 18 : image de Lena originale (gauche) et résultat du filtre de détection des contours
Traitement des images couleurs
EZZAAF Amine
HAZEBROUCQ Thibaut
22
Conclusion
Les traitements applicables aux photographies numériques
sont nombreux, voir infinis puisqu’ils visent à obtenir une image
proche de la réalité : la réalité de l’œil humain fait que chaque
personne perçoit les couleurs différemment. Cependant, pour une
utilisation/diffusion globale d’images numériques, les
traitements mis en œuvre actuellement garantissent une image
très proche du résultat visuel humain. Les traitements
supplémentaires pourront donner une meilleure qualité, mais
selon nous les améliorations seront moindres quant au travail
déjà effectué.
Traitement des images couleurs
EZZAAF Amine
HAZEBROUCQ Thibaut
23
Remerciements
Concernant ce projet, nous tenons à exprimer notre profonde
gratitude et nos sincères remerciements à Mr Macaire, et à Mr
Cabestaing pour leur disponibilité, ainsi qu’aux autres professeurs qui
se sont toujours montrés à l'écoute tout au long de la réalisation de ce
projet bibliographique.
Nos remerciements vont enfin à toute personne qui a contribué de près
ou de loin à l’élaboration de ce projet, notamment les sources internet,
cités après.
Merci de nous avoir lu.
Traitement des images couleurs
EZZAAF Amine
HAZEBROUCQ Thibaut
24
SOURCES
Figure 1 : http://www-iut.univ-lille1.fr/LP_VI/cours-en-ligne/ue6-vision
industrielle/Industrial%20Machine%20Vision%20course%20.pdf
Figure 2 : http://www-iut.univ-lille1.fr/LP_VI/cours-en-ligne/ue6-vision-
industrielle/Industrial%20Machine%20Vision%20course%20.pdf
Figure 3 : http://www.optique-ingenieur.org/fr/cours/OPI_fr_M05_C06/co/Contenu_18.html
Figure 4 : Thèse du Docteur Harold Phelippeau (doc fourni par Mr Macaire)
Figure 6 :http://fr.wikipedia.org/wiki/Fichier:Holga_sample.jpg
Figure 7 : http://cnx.org/content/m13859/latest/
Figure 8: cf TP Mr Losson
Figure 9: http://www.chefnini.com/la-photographie-culinaire/
Figure 10 : http://www.cambridgeincolour.com/tutorials/white-balance.htm
Figure 11 : Thèse du Docteur Harold Phelippeau (doc fourni par Mr Macaire)Page43
Figure 12 : http://www.lesnumeriques.com/appareil-photo-numerique/photo-capture-couleurs-
dematricage-a1051.html
Figure 13 : http://sagelighteditor.wordpress.com/2010/03/26/noise-reduction-color-noise-and-the-ximagic-
plug-in/
Figure 14 : Thèse rédigée par Aaron Deever, Mrityunjay Kumar and Bruce Pillman (doc fourni par Mr
Macaire)Page43
Figure 15 : http://www.ipol.im/pub/art/2011/llmps-scb/
Figure 16 :http://www.cs.ubc.ca/~heidrich/Papers/EG.09_1.pdf
Figure 17 :
http://www.olympusmicro.com/primer/java/digitalimaging/processing/gamma/index.html
Figure 18 : http://xphilipp.developpez.com/articles/filtres/?page=page_10
Traitement des images couleurs
EZZAAF Amine
HAZEBROUCQ Thibaut
25
Autres sources :
Rapport sur le dématricage d’images couleurs (par QUEBAUD Jérémy & MAHDJOUB-
ARAIBI Samy) : http://www-iut.univ-lille1.fr/LP_VI/projets/2011_dematricage.pdf$
Cours de l’IUT LILLE 1 sur les transformations locales : http://www-iut.univ-
lille1.fr/LP_VI/cours-en-ligne/ue3-analyse-des-images/cours/seance-7-transformations-
locales.pdf
Techniques de débruitage (par Humbert Florent, plus poussées, utilisation d’intégrales) :
http://humbert-florent.ftp-developpez.com/algorithmique/traitement/debruitage.pdf
Techniques de réduction du bruit colorimétrique :
http://sagelighteditor.wordpress.com/2010/03/26/noise-reduction-color-noise-and-the-ximagic-
plug-in/
Explication du miroir dichroïque utilisé dans les capteurs triCCD :
http://www.3lcd.com/fr/explore/dichroic_mirror.aspx?bot=true&ct=634902763640238881&strt=t&
gd=eba2aeb3-b159-4637-bd54-ee59f760813c
Explications générales sur la colorimétrie : http://www.colorimetrie.be/
Explications sur le tonne scale (échelle de tons de l’image)
http://www.handprint.com/HP/WCL/chevreul.html
Gamma correction : http://www.nies.ch/doc/monitor.en.php