Qualité de service - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Introduction

La qualité de service (QdS) ou Quality of service (QoS) est la capacité à véhiculer dans de bonnes conditions un type de trafic donné, en termes de disponibilité, débit, délais de transmission, gigue, taux de perte de paquets…

La qualité de service est un concept de gestion qui a pour but d’optimiser les ressources d'un réseau (en management du système d'information) ou d'un processus (en logistique) et de garantir de bonnes performances aux applications critiques pour l'organisation. La qualité de service permet d’offrir aux utilisateurs des débits et des temps de réponse différenciés par applications (ou activités) suivant les protocoles mis en œuvre au niveau de la structure.

Elle permet ainsi aux fournisseurs de services (départements réseaux des entreprises, opérateurs…) de s’engager formellement auprès de leurs clients sur les caractéristiques de transport des données applicatives sur leurs infrastructures IP.

Enjeux

La qualité d'un service est une notion subjective. Selon le type d'un service envisagé, la qualité pourra résider dans le débit (téléchargement ou diffusion vidéo), le délai (pour les applications interactives ou la téléphonie), la disponibilité (accès à un service partagé) ou encore le taux de pertes de paquets (pertes sans influence pour de la voix ou de la vidéo, mais critiques pour le téléchargement). La qualité de service propre au domaine de la gestion de la qualité est un concept utile en urbanisation du système d'information gérant les flux immatériels et à la logistique qui gère les flux matériels. L'objet est de créer les synergies (ou flexibilités) nécessaires à l'organisation. Ceci passe par une amélioration de la standardisation des formats, et la mutualisation et ré-utilisation des ressources dans le cadre de l'intégration des flux.

Outils

Plusieurs outils existent sur le marché pour surveiller la qualité de service en ligne de certaines applications.

Caractéristiques

Dans un réseau, les informations sont transmises sous la forme de paquets, petits éléments de transmission transmis de routeur en routeur jusqu'à la destination. Tous les traitements vont donc s'opérer sur ces paquets.

La mise en place de la qualité de service nécessite en premier lieu la reconnaissance des différents services. Celle-ci peut-se faire sur la base de nombreux critères :

  • La source et la destination du paquet.
  • Le protocole utilisé (UDP/TCP/ICMP/etc.).
  • Les ports source et de destination dans le cas des protocoles TCP et UDP.
  • La date et l'heure.
  • La congestion des réseaux.
  • La validité du routage (gestion des pannes dans un routage en cas de routes multiples par exemple).
  • La bande passante consommée.
  • Les temps de latence.

En fonction de ces critères, différentes stratégies peuvent ensuite être appliquées pour assurer une bonne qualité de service.

Choix des routes

Lorsque plusieurs routes vers une destination sont disponibles, le choix d'une des routes peut se faire pour garantir la qualité de services. Par exemple, une route proposant un délai faible sur un débit faible sera utilisée pour les applications interactives, tandis qu'une route acceptant un meilleur débit au prix d'un délai plus long sera préférée pour les applications moins sensibles au délai (Streaming, téléchargement, etc.).

Mise en forme du trafic

Mettre en forme un trafic (Trafic shaping en anglais) signifie prendre des dispositions pour s'assurer que le trafic ne dépasse jamais certaines valeurs prédéterminées. Pratiquement, cette contrainte s'applique en délayant certains paquets pour forcer un certain trafic, selon divers algorithmes.

Le contrôle du trafic peut-être utile pour limiter l'engorgement et assurer une latence correcte. Par ailleurs, des limitations de débits séparément aux trafics permettent en contrepartie de leur assurer en permanence un débit minimum, ce qui peut être particulièrement intéressant pour un fournisseur d'accès par exemple, souhaitant garantir une certaine valeur du débit à ses clients.

Les deux algorithmes les plus utilisés sont :

  • Le seau percé ((en)Leaky bucket)
  • Le seau à jetons ((en)Token bucket)

Ordonnancement

L'ordonnancement désigne l'ensemble des méthodes visant à modifier l'ordre de départ des paquets, en remplacement de la règle du « premier arrivé, premier servi ».

Une de ses applications les plus courantes consistera ainsi à donner priorité à certains types de trafic, de façon sommaire en ne laissant passer du trafic de faible priorité que s'il n'y a plus de trafic de forte priorité, ou de façon plus fine avec des algorithmes de Round-Robin pondérés, visant à faire passer des paquets des différentes connexions tour à tour, en laissant plus de temps aux paquets prioritaires.

Une autre application, le Fair Queuing consiste à séparer nettement les connexions, et à leur attribuer successivement et équitablement une possibilité de faire passer leurs paquets : cela permet de s'assurer qu'aucune application, même très demandeuse de débit, n'en écrasera d'autres.

Le matériel

La qualité de service se réalise au niveau de la couche 3 du modèle OSI. Elle doit donc être configurée sur les routeurs ou la passerelle reliée à Internet.

Page générée en 0.050 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales | Partenaire: HD-Numérique
Version anglaise | Version allemande | Version espagnole | Version portugaise