La déf de Wikipédia dit ce qu’est une couleur primaire, maintenant (et je l’ai bien va avec mon outil de conversion des couleurs) on peut utiliser bien d’autres systèmes que RGB et CYM(K).
Le HSL et ses copains (HBW, HSV, HSI…) est un exemple, mais le plus beau techniquement, je trouve que ce sont ceux basés sur le Y'UV, et utilisés pour les donnés télévisuelles.
Ça a été créé quand il a fallu passer des TV en niveaux de gris (« noir et blanc ») et la télé couleur. Il fallait un signal hertzien qui soit interprétable par toutes les télé, donc en transportant l’information en gris ET en couleur, sur l’infrastructure existante et avec un minimum de modifications
Les télé noir et blanc avaient un seul canal : celui de la luma (le niveau de gris, ou l’intensité du faisceau d’électron qui venait illuminer chaque pixel à l’écran). Ça suffisait pour afficher chaque pixel avec le niveau approprié de gris.
Maintenant arrive la couleur.
Le canal de la luma reste là, mais comment obtenir les couleurs R, G, B utilisées avec les chromophores ? Facile : avec des maths !
On a la luma (Y) et on ajoute donc deux autres canaux (U et V), de telle sorte que le R, G et B peuvent être reconstitués à partir Y, U, V.
On a bien trois équations à trois inconnues :
R ≃ Y + V
G ≃ (–Y – U – V)
B ≃ Y + U
(de la même façon que le RGB et CYM sont interchangeables : C = B+G ; G = (RGB−R), etc.)
Voir là : https://fr.wikipedia.org/wiki/YUV
La télé couleur fait tout ce calcul, et les télé noirs et blanc ne comprennent de toute façon que le Y, ignorant le U et V. Un seul signal compatible avec toutes les télés.
Et comme la page Wiki le montre, les canaux U et V sont grosso-modo des axes du ~vert-jaunâtre au violet et du vert au ~rose.
Il y a plein de systèmes qui utilisent des variantes de tout ça, notamment le JPEG ou MPEG, les câbles « component », etc.
Une intéressante, je trouve, est le YIQ (utilisé par les normes NTSC, au contraire de PAL, SÉCAM… ces sigles écrits sur les vieilles télé pré-TNT vous disent quelque chose ?), qui utilise une palette légèrement tournée, avec les axes qui vont du bleu à l’orange (Q) et du vert au rose-violet (I).
L’intérêt du YIQ est que l’œil est plus sensible sur l’axe bleu-orange (I) que sur l’axe vert-violet (Q), et on peut donc détériorer l’axe Q au profit du I, donnant soit une meilleure qualité d’image avec les mêmes débits, soit un meilleur débit avec une qualité équivalente.
Évidemment, tout ça est reconverti en RGB par l’appareil qui gère l’affichage à la fin : écran, projecteur… ou en CMY(K) pour les imprimantes, éventuellement en corrigeant les intensités liés aux rendements des photophores dans les écrans (correction gamma).
— (
permalink)