Codage - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Introduction

Wiktprintable without text.svg

Voir « codage » sur le Wiktionnaire.

De façon générale un codage permet de passer d'une représentation des données vers une autre.

Parmi les différents codages utilisés, on trouve :

  • Le codage de source, qui permet de faire de la compression de données.
  • le codage canal, qui permet une représentation des données de façon à être résistant aux erreurs de transmission.
  • Le codage de caractères pour représenter informatiquement l'ensemble des caractères, comme par exemple le code ASCII.
  • La transformation d'une source vidéo ou sonore en un format informatique déterminé. Coder en MP3, en AVI, etc. Dans ce cas, il ne s'agit en fait pas d'un codage, car il ne s'agit plus d'une opération mathématique bijective (réversible) ; malgré cela, l'expression encodage numérique est utilisée. Le passage d'un format audio ou vidéo à un autre peut aussi s'appeler transcodage.
  • Il faut remarquer que dans un ordinateur, au niveau matériel, tout est codé en binaire (c’est-à-dire à partir de 1 et de 0).

Il existe une méthode qui permet de passer d'un codage en base 10 en remarquant par exemple que 9 = 1 \times 2^3 + 0 \times 2^2 + 0 \times 2^1 + 1 \times 2^0 ; ainsi le codage binaire de 9 est 1001. Les langages de programmation comme le C, le Basic ou le Fortran sont asses proche du language courant pour être lisibles; ils sont compilés et stockés sous forme binaire pour pour pouvoir être exécutés par les ordinateurs.

En binaire, on utilise 8 bits pour former un octet. L'organisation des octets, pour représenter des nombres plus grands que 255, peux se faire en little endian ou big endian.

Bien qu'il sagisse d'un codage, on utilisera le terme chiffrement (ou "cryptage") quand le codage utilisé cherche à masquer l'information contenue.

Principaux types de codages informatiques

Pour représenter de nombres, des caratères ou des instructions pour les microprocesseurs, on utilise principalement les types suivants de codage.

Représentations des nombres
Nom Base Utilise les caractères Exemple
Binaire 2 0 1 10011010
Décimale 10 0 1 2 3 4 5 6 7 8 9 154
Hexadécimale 16 0 1 2 3 4 5 6 7 8 9 A B C D E F 9A

Pour le nommage des nombres binaires plus grand que l'octet, bien que le type d'architecture utilisé puisse faire varier les appélations, on utilisera de préférence les noms suivants :

2 octets = un mot.

4 octets = un long mot.

8 octets = un double long mot

Un Octet, un mot, et se dérivés, peuvent, entre autres, représenter :

  1. Des entiers non signés.
  2. Des entiers signés (un des bit sert à definir le signe).
  3. Des nombres flottans (avec une virgule).
  4. Un caractère ou une chaine de caratères.
  5. Une instruction du microprocesseur.
Page générée en 0.102 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales | Partenaire: HD-Numérique
Version anglaise | Version allemande | Version espagnole | Version portugaise