La 4K est une définition d’image dont la taille minimale est théoriquement de 4 096 pixels. Par abus de langage, on qualifie désormais les écrans proposant une définition minimale de 3 840 x 2 160 pixels de téléviseurs 4K.

Qu’est-ce que la définition 4K ?

Pour afficher les images que vous souhaitez regarder, un écran affiche des pixels, en nombre plus ou moins élevé. La définition se définit par le nombre de points affichés en horizontale et en verticale par l’écran.

C’est un peu différent de la résolution d’écran qui, elle, prend aussi en compte la taille de l’écran — plus celui-ci sera petit, plus la résolution sera contrainte, et inversement. La résolution est notée en pixels par pouce, pixels per inch ou points par pouce (PPP, ppp, DPI ou dpi). On la confond souvent avec la définition en français, car la traduction de définition en anglais est resolution.

Quelle différence entre la 4K et le Full HD ?

Si l’on part de cette question de définition, depuis les premiers écrans plats, on a utilisé des téléviseurs HD (1 366 x 720 pixels) puis Full HD, à la définition de 1 920 x 1 080 pixels. Sur les téléviseurs ultra haute définition (UHD) 4K, la définition atteint les 3 840 x 2 160 pixels.

Pourquoi pas une définition de 4 096 pixels (la taille minimale de la 4K en théorie) ? En 2012, la Consumer Electronics Association a rendu l’expression « Ultra High Definition » (UHD) officielle pour les téléviseurs offrant une définition minimale de 3 840 x 2 160 pixels. Depuis, le terme 4K est utilisé pour qualifier les écrans qui proposent une définition peu ou prou quatre fois supérieure à celle du Full HD.

Expliqué autrement, cela signifie que, pour une image de la même dimension qu’en Full HD, un téléviseur UHD 4K affichera quatre fois plus de pixels, donc il présentera une image bien plus précise. Quant aux UHD 8K qui arrivent sur le marché, ils proposent une définition quatre fois plus importante qu’en 4K.

« 4K » sert à qualifier les écrans qui proposent une définition à peu près 4 fois supérieure à celle du Full HD // Source : Canva
« 4K » sert à qualifier les écrans qui proposent une définition à peu près 4 fois supérieure à celle du Full HD. // Source : Canva

Comment en est-on arrivé à la 4K ?

L’évolution des définitions d’image a été impulsée par l’industrie cinématographique. Le Digital Cinema Initiatives (DCI) est un groupe d’experts de l’industrie américaine qui fixe les spécifications de l’architecture du cinéma numérique. Après le DCI 2K, qui fixait la définition des images à 2 048 x 1 080, il a consacré le DCI 4K, un format correspondant à cette fameuse définition de 4 096 x 2 160 pixels. Cela signifie que les images tournées et diffusées sont dessinées par plus de 8 millions de pixels.

Quel est l’intérêt de la 4K ?

Quel intérêt ? Pour le consommateur, une meilleure définition promet une image plus précise, mieux détaillée. Pour les fabricants d’appareils domestiques, chaque niveau de définition est un argument pour vendre un nouveau produit. Mais, dans les faits, si des téléviseurs 8K sont disponibles depuis déjà quelques années, la moindre disponibilité de contenus rend leur intérêt assez faible comparé à celui d’un appareil 4K – qui permet déjà, lui, de visionner des vidéos YouTube, Facebook, de la plupart des services de SVOD, ou encore de la Nasa en excellente qualité.


Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !