Menu

Filtrer les éléments par date : juin 2014

Le GPU

Le GPU est le processeur central de la carte graphique. Il se charge du traitement des données vidéo, permettant ainsi de soulager le microprocesseur. Son rôle est de traiter les objets envoyés par le microprocesseur puis d’en déduire les pixels à afficher. En effet, dans le cas de l’affichage du scène 3D, le microprocesseur communique au GPU les données à afficher sous forme vectorielle. Les objets sont donc définis par une masse de points représentant leurs coordonnées dans l’espace. Pour afficher un objet à l’écran, le GPU procède en plusieurs étapes :

1. placer les objets dans le repère et leur appliquer des transformations (translation, rotation, etc…)

2. appliquer les effets de lumières sur chaque objet

3. décomposer les objets en petits triangles puis en fragments

4. appliquer des textures et des effets sur les fragments

5. afficher les pixel résultants de l’association des fragments Pour cela, il est constitué d’un immense pipeline principal. Celui-ci comprend au moins un vertex shader (étape 1 et 2), un setup engine (étape 3) et un pixel shader (étape 4 et 5). Remarques :

toutes ces opérations doivent être effectuées pour tous les pixels de la scène à afficher. Pour une image en 1600x1200, cela fait 1 920 000 pixels à calculer, soit près de 6 millions de fragments !!!! D’autant plus que pour bien faire, le GPU doit être capable d’afficher 50 images/s soit calculer 300 millions de fragments par seconde… Ceci explique pourquoi les GPU des cartes 3D récentes sont plus complexes que les derniers microprocesseurs.

Pour utiliser au mieux les capacités des cartes graphiques ont dispose d'API (Application Program Interface) qui sont des langages de description et de manipulation des objets :

Direct3D de Microsoft

OpenGL

En savoir plus...

La carte vidéo

Le rôle de la carte graphique est de convertir les données numériques à afficher en un signal compréhensible par un écran . Alors qu'à ses débuts, la carte vidéo se chargeait uniquement d'afficher une simple image formée de points colorées (pixel), les derniers modèles apparus se chargent d'afficher des images en 3D d'une grande complexité. C’est donc un système à microprocesseur à elle seule qui est composée par :

Un GPU (Graphics Processor Unit)

De la mémoire vidéo

D’un dispositif de conversion analogique numérique : RAMDAC.

D’entrées/sorties vidéo

La carte vidéo communique avec la mémoire centrale et le microprocesseur par l’intermédiaire d’un bus. Actuellement, c’est le bus AGP qui est le plus utilisé mais il va progressivement être remplacé par le PCI Express qui présente des débits beaucoup plus élevés (8 Go/s contre 2 Go/s).

En savoir plus...

La mémoire

La qualité et la quantité de mémoire d’un PC vont permettre, au même titre que le microprocesseur, d’accroître les performances de celui-ci. Si on dispose d’un microprocesseur performant, encore faut-il que la mémoire puisse restituer ou sauvegarder des informations aussi rapidement qu’il le désire. La fréquence de fonctionnement de la mémoire est donc un paramètre essentiel. De même, si on veut réduire le nombre d’accès aux périphériques de stockage secondaire qui sont très lents (disque dur, CDROM, etc…), il faudra prévoir une quantité mémoire principale suffisante.

Aujourd’hui, toutes les mémoires que l’on retrouve sur les PC sont des RAM dynamiques

(DRAM). Elles sont toutes synchronisées sur l’horloge du bus processeur (FSB). Un boîtier mémoire est constitué de 3 éléments fondamentaux qui sont :

La matrice de cellules mémoires

Les buffers d’entrée/sortie

Le bus de données

Dans les premières SDRAM, tous les ensembles fonctionnaient à 100 MHz. C'est à dire que la cellule mémoire fournissait une information mémoire toutes les 10 ns au buffer d’entré/sortie qui lui même la renvoyait sur le bus à une fréquence de 100 MHz. Comme les DRAM fonctionnent sur 64 bits, on avait une bande passante de 800 Mo/s. Les différentes évolutions de la SDRAM permirent d’atteindre une fréquence de 166 MHz.

Actuellement, les technologies de DRAM permettent d’effectuer des accès à la mémoire sur le front montant et descendant de l’horloge (DDR-I SDRAM) et ainsi de doubler la bande passante mémoire sans en modifier la fréquence de fonctionnement. Pour cela, il faut bien entendu que la matrice mémoire puisse délivrer 2 informations par cycle d’horloge. Les DDR les plus rapides permettent d’atteindre des fréquences de 200 MHz pour l’accès à la matrice de cellules. Néanmoins, on commence à approcher les limites de fonctionnement du coeur de la mémoire.

La prochaine technologie reviendra donc à une fréquence de 100 MHz pour la matrice de cellules mais doublera la fréquence du buffer d’entré/sortie pour compenser (DDR II SDRAM). Il faut donc que le coeur de la mémoire puisse délivrer 4 informations par cycle d’horloge. Tout ceci est rendu possible en divisant le nombre de matrices mémoire. Dans le cas de la SDRAM, la matrice de cellules mémoire est constituée d’un seul bloc physique contre deux pour la DDR-I puis quatre pour la DDR-II.

De plus, de nombreux chipsets permettent de gérer deux canaux d’accès à la mémoire et donc d’accéder simultanément à deux modules de mémoire différents. Le PC sera donc plus performant si il utilise, par exemple, deux barrette de 256 Mo plutôt qu’une seule de 512 Mo. (bus quad pumped d’Intel) Exemple : Dénomination des mémoires SDRAM

La bande passante est théoriquement doublée si les barrettes sont utilisées en “dual channel”.

En savoir plus...

La carte mère

La carte mère est l'un des éléments essentiels d'un ordinateur. Elle assure la connexion physique des différents composants (processeur, mémoire, carte d'entrées/sorties, ...) par l’intermédiaire de différents bus (adresses, données et commande). Plusieurs technologies de bus peuvent se côtoyer sur une même carte mère. La qualité de la carte mère est vitale puisque la performance de l’ordinateur dépend énormément d’elle. On retrouve toujours sur une carte mère :

le chipset : c’est une interface d’entrée/sortie. Elle est constituée par un jeu de plusieurs composants chargé de gérer la communication entre le microprocesseur et les périphériques. C’est le lien entre les différents bus de la carte mère.

le BIOS (Basic Input Ouput Service) : c’est un programme responsable de la gestion du matériel : clavier, écran, disques durs, liaisons séries et parallèles, etc... Il est sauvegardé dans une mémoire morte (EEPROM) et agit comme une interface entre le système d’exploitation et le matériel.

l’horloge : elle permet de cadencer le traitement des instructions par le microprocesseur ou la transmission des informations sur les différents bus.

les ports de connexion : ils permettent de connecter des périphériques sur les différents bus de la carte mère. Il existe des ports « internes » pour connecter des cartes d’extension (PCI, ISA, AGP) ou des périphériques de stockage (SCSI, IDE, Serial ATA) et des ports « externes » pour connecter d’autres périphériques (série, parallèle, USB, firewire, etc …)

Le socket : c’est le nom du connecteur destiner au microprocesseur. Il détermine le type de microprocesseur que l’on peut connecter. 44 Architecture d’une carte mère Ici le chipset est composé par deux composants baptisé Pont Nord et Pont Sud. Le pont Nord s’occupe d’interfacer le microprocesseur avec les périphériques rapides (mémoire et carte graphique) nécessitant une bande passante élevée alors que le pont sud s’occupe d’interfacer le microprocesseur avec les périphériques plus lents (disque dur, CDROM, lecteur de disquette, réseau, etc…). On voit apparaître différents bus chargés de transporter les informations entre le microprocesseur et la mémoire ou les périphériques :

Bus processeur : on l’appelle aussi bus système ou FSB (Front Side Bus). Il relie le microprocesseur au pont nord puis à la mémoire. C’est un bus 64 bits.

Bus IDE : il permet de relier au maximum 2 périphériques de stockage interne par canal (disque dur ou lecteur DVDROM/CDROM). Son débit est de 133 Mo/s. Lorsque 2 périphériques sont reliés sur le même canal, un doit être le maître (prioritaire sur la prise du bus) et l’autre l’esclave.

Bus PCI (Peripheral Component Interconnect) : Il a été créé en 1991 par Intel. Il permet de connecter des périphériques internes. C’est le premier bus à avoir unifier l’interconnexion des systèmes d’entrée/sortie sur un PC et à introduire le système plug-and-play. Il autorise aussi le DMA. C’est un bus de 32 bits. On retrouve une révision du bus PCI sur les cartes mères de serveur ayant une largeur de bus de 64 bits et une fréquence de 133 MHz.

Bus AGP (Accelered Graphic Port) :. Il a été créé en 1997 lors de l’explosion de l’utilisation des cartes 3D qui nécessitent toujours plus de bandes passantes pour obtenir des rendus très réalistes. C’est une amélioration du bus PCI. Il autorise en plus le DIME (DIrect Memory Execution) qui permet au processeur graphique de travailler directement avec les données contenues dans la RAM sans passer par le microprocesseur à l’instar d’un DMA. C’est un bus 32 bits et son débit maximum est de 2 Go/s (en x8).

Bus ISA (Industry Standard Architecture) : C’est l’ancêtre du bus PCI. On ne le retrouve plus sur les nouvelles générations de cartes mères.

Bus SCSI (Small Computer System Interface) : c’est un bus d’entrée/sortie parallèle permettant de relier un maximum de 7 ou 15 périphériques par contrôleur suivant la révision du protocole utilisée. C’est une interface concurrente à l’IDE qui présente l’avantage de pouvoir connecter plus de périphériques pour des débits supérieurs. En outre, ces périphériques peuvent partager le bus lors d’un dialogue contrairement à l’IDE. Mais son coût reste très élevé… elle est utilisée pour les serveurs.

Bus USB (Universal Serial Bus ) : c’est un bus d’entrée/sortie plug-and-play série.

Dans sa deuxième révision (USB 2.0), il atteint un débit de 60 Mo/s. Un de ces avantages est de pouvoir connecter théoriquement 127 périphériques. Il supporte de plus le hot plug-and-play (connexion ou déconnexion de périphériques alors que le PC fonctionne).

Bus firewire : c’est un bus SCSI série. Il permet de connecter jusqu’à 63 périphériques à des débits très élevés (100 à 400 Mo/s). Ces applications sont tournées vers la transmission de vidéos numériques.

Liaison pont nord/pont sud : ses caractéristiques dépendent du chipset utilisé. Chaque fabricant a en effet développé une solution propriétaire pour connecter les deux composants de leur chipset. Pour Intel, c’est Intel Hub Architecture (IHA) dont les débits atteignent 533 Mo/s. Pour Nvidia (en collaboration avec AMD), c’est l’HyperTransport qui atteint des débits de 800 Mo/s. Remarques :

Tous les bus « internes » (PCI, IDE, AGP) vont être amenés à disparaître très rapidement et seront remplacés par des bus série :

Le Serial Ata, remplaçant du bus IDE, présente des débits de 150 Mo/s qui passeront bientôt à 300 Mo/s dans la prochaine révision du bus. Il permet de connecter des disques durs ou des lecteurs optiques.

Le PCI Express, remplaçant des bus PCI et AGP, permet d’atteindre des débits de 250 Mo/s dans sa version de base qui peuvent monter jusqu’à 8Go/s dans sa version x16 destinée à des périphériques nécessitant des bandes passantes très élevées (application graphique).

Les bus de connexions filaires tendent à être remplacés par des systèmes de communications sans fils. A l’heure actuelle, il existe :

le Bluetooth qui offre actuellement un débit de 1 Mb/s pour une portée d’une dizaine de mètre et qui va servir à connecter des périphériques nécessitant des bandes passantes faibles (clavier, souris, etc…).

le WIFI (WIreless FIdelity Network) qui permet de connecter des ordinateurs en réseau. La dernière révision permet des débits de 54 Mb/s. Exemple : Carte mère ASUS A7N8X 6.1.2 Le microprocesseur

Le microprocesseur est bien entendu l’élément essentiel du PC. Nous avons vu que les performances d’un microprocesseur étaient liées à son architecture et sa fréquence de fonctionnement. A l’heure actuelle, le marché des microprocesseurs pour PC est dominé par deux principaux constructeurs : Intel et AMD. Ceux-ci ont adopté deux stratégies différentes pour réaliser des microprocesseurs toujours plus performants. Intel, fort de son savoir faire, a choisi de fabriquer des microprocesseurs toujours plus rapide en terme de fréquence de fonctionnement alors qu’AMD essaie plutôt d’optimiser ses architectures afin qu’elles soient capables d’exécuter toujours plus d’instructions par cycle d’horloge. Ces deux optiques se retrouvent dans les références des microprocesseurs de chaque marque. Lorsqu’Intel désigne chaque nouveau microprocesseur par sa fréquence, AMD préfère utiliser un P-Rating se référant aux performances des microprocesseurs Intel. Chaque fondeur utilise des sockets et des chipsets différents pour leurs microprocesseurs. Ainsi, le choix d’un microprocesseur impose forcément un choix sur un type de carte mère. Pour connaître les performances d’un microprocesseur, il ne faut donc pas se fier à la seule valeur de sa fréquence de fonctionnement. Il faut prendre en compte toutes les caractéristiques liées à son architecture et ne pas oublier de l’entourer d’un chipset et d’une mémoire performants. La dernière chose à ne pas omettre lorsqu’on choisit un microprocesseur est son système de refroidissement. En effet, plus la fréquence augmente et plus la dissipation thermique sera importante. Un microprocesseur mal refroidit peut entraîner des dysfonctionnements au sein du PC voir même la destruction du microprocesseur lui même. Il faut prévoir un système d’air cooling (ventilateur + radiateur ou heat pipe) ou de water cooling (circuit de refroidissement à eau).

Connecteur PCI

Connecteur AGP Chipset Socket

Connecteur IDE

Connecteur RAM

Connecteurs Externes (port série, parallèle, firewire, USB, etc…) Connecteur floppy

En savoir plus...

Un exemple - le PC

Le terme PC (Personal Computer) a été introduit en 1981 lorsque la firme IBM (Internal Business

Machines) a commercialisé pour la première fois un ordinateur personnel destiné à une utilisation familiale.

Depuis, les domaines d’application du PC ont énormément évolué…. De la gestion de production à la gestion de systèmes d’acquisition, en passant par la reconnaissance de forme ou le traitement de l’image, ses domaines d’utilisation sont extrêmement riches et variés. Pour cela, le PC est défini par une architecture minimale laissant la liberté à chacun de rajouter les périphériques d’entrée/sorties nécessaires à l’utilisation visée, qu’elle soit familiale ou professionnelle. Un PC est composé par une unité centrale associée à des périphériques (clavier, moniteur, carte d’acquisition, etc…)

En savoir plus...

Topologie des réseaux

La topologie physique d’un réseau définie l’architecture du réseau. Elle peut être différente suivant le mode de transmission des informations.

En mode de diffusion, chaque système partage le même support de transmission. Toute information envoyée par un système sur le réseau est reçue par tous les autres. A la réception, chaque système compare son adresse avec celle transmise dans le message pour savoir si il lui est destiné ou non. Il ne peut donc y avoir qu’un seul émetteur en même temps. Avec une telle architecture, la rupture du support provoque l’arrêt du réseau alors que la panne d’un des éléments ne provoque pas de panne globale du réseau.

Dans le mode point à point, le support physique relie les systèmes deux à deux seulement. Lorsque deux éléments non directement connectés entre eux veulent communiquer, ils doivent le faire par l’intermédiaire d’autres éléments. Les protocoles de routage sont alors très importants. Topologie en bus

Facile à mettre en oeuvre.

A tout moment un seule station a le droit d'envoyer un message.

La rupture de la ligne provoque l'arrêt du réseau.

La panne d'une station ne provoque pas de panne du réseau.

mode de diffusion. Topologie en étoile

Le noeud central reçoit et renvoie tous les messages.

Fonctionnement simple.

Moins vulnérable sur rupture de ligne.

La panne du noeud central paralyse tout le réseau.

Mode point à point (avec switch) ou diffusion (avec hub). Topologie en boucle

Chaque station a tour à tour la possibilité de prendre la parole.

Chaque station reçoit le message de son voisin en amont et le réexpédie à son voisin en aval.

La station émettrice retire le message lorsqu'il lui revient.

Si une station tombe en panne, il y a mise en place d’un système de contournement de la station.

Si il y a rupture de ligne apparaît, tout s'arrête (sauf si on a prévu une 2ième boucle).

mode point à point. Topologie en arbre

Peut être considéré comme une topologie en étoile dans la quelle chaque station peut être une station centrale d’un sous ensemble de stations formant une structure en étoile.

Complexe

Mode point à point.

Tous les ordinateurs du réseau sont reliés les uns aux autres par des câbles séparés.

On a une meilleure fiabilité.

Si une station tombe en panne, le réseau continue de fonctionner.

Si il y a rupture de ligne apparaît, le réseau continue de fonctionner.

Il est très coûteux.

Il est possible de diminuer les coûts en utilisant un maillage partielle (irrégulier).

Mode point à point. Remarques : Il existe deux modes de fonctionnement pour un réseau, quelque soit son architecture :

avec connexion : l’émetteur demande un connexion au récepteur avant d’envoyer son message. La connexion s’effectue si et seulement si ce dernier accepte, c’est le principe du téléphone.

sans connexion : l’émetteur envoie le message sur le réseau en spécifiant l’adresse du destinataire. La transmission s’effectue sans savoir si le destinataire est présent ou non, c’est le principe du courrier.

En savoir plus...

Classification des réseaux

On peut établir une classification des réseaux à l’aide de leur taille. Les réseaux sont divisés en quatre grandes familles : les PAN, LAN, MAN et WAN.

PAN : Personal Area Network ou réseau personnel Ce type de réseau interconnecte des équipements personnels comme un ordinateur portable, un ordinateur fixe, une imprimante, etc… Il s’étend sur quelques dizaine de mètres. Les débits sont importants (qq Mb/s).

LAN : Local Area Network ou réseau local. Ce type de réseau couvre une région géographique limitée (réseau intra-entreprise) et peut s’étendre sur plusieurs kilomètres. Les machines adjacentes sont directement et physiquement reliées entre elles. Les débits sont très importants (de qq Mb/s à qq Gb/s).

MAN : Metropolitan Area Network ou réseau métropolitain. Ce type de réseau possède une couverture qui peut s'étendre sur toute une ville et relie des composants appartenant à des organisations proches géographiquement( qq dizaines de kilomètres). Ils permettent ainsi la connexion de plusieurs LAN. Le débit courant varie jusqu’à 100 Mb/s.

WAN : Wide Area Network ou étendu. Ce type de réseau couvre une très vaste région géographique et permet de relier des systèmes dispersés à l’échelle planétaire (plusieurs milliers de km). Toutefois, étant donné la distance à parcourir, le débit est plus faible (de 50 b/s à qq Mb/s).

En savoir plus...

Le modèle OSI

Le modèle OSI définit un modèle d’architecture décomposé en couche dont la numérotation commence par le bas. Il donne une description globale de la fonction de chaque couche. Chacune des couches de ce modèle représente une catégorie de problème que l’on peut rencontrer dans la conception d’un réseau. Ainsi, la mise en place d’un réseau revient à trouver une solution technologique pour chacune des couches composants le réseau. L’utilisation de couches permet également de changer une solution technique pour une seule couche sans pour autant être obligé de repenser toute l’architecture du réseau. De plus, chaque couche garantit à la couche supérieure qu’elle a réalisé son travail sans erreur. Couche Fonction Protocole de couche N Fonction Couche

7 Application Application 7

6 Présentation Présentation 6

5 Session Session 5

4 Transport Transport 4

3 Réseau Réseau 3

2 Liaison Liaison 2

1 Physique Physique 1 Chaque couche est identifiée par son niveau N et réalise un sous-ensemble de fonctions nécessaire à la communication avec un autre système. Pour réaliser ces fonctions de communication, la couche N s ’appuie uniquement sur la couche immédiatement inférieure par l ’intermédiaire d’une interface. Le dialogue entre les deux systèmes s’établie forcément entre deux couches de niveau N identique mais l’échange ‘’physique’’ de données s’effectue uniquement entre les couches de niveau 1. Les règles et conventions utilisées pour ce dialogue sont appelées protocole de couche N. On appelle les couches 1, 2, 3 et 4 les couches ‘’basses’’ et les couches 5, 6 et 7 les couches ‘’hautes’’. Les couches ‘’basses’’ sont concernées par la réalisation d’une communication fiable de bout en bout alors que les couches ‘’hautes’’ offrent des services orientées vers les utilisateurs.

Couche 1 : Physique

La couche physique se préoccupe de résoudre les problèmes matériels. Elle normalise les moyens mécaniques (nature et caractéristique du support : câble, voie hertzienne, fibre optique, etc…), électrique (transmission en bande de base, modulation, puissance, etc…) et fonctionnels (transmission synchrone/asynchrone, simplex, half/full duplex, etc..) nécessaires à l’activation, au maintient et la désactivation des connexions physiques destinées à la transmission de bits entre deux entités de liaison de données.

Couche 2 : Liaison La couche liaison de données détecte et corrige si possible les erreurs dues au support physique et signal à la couche réseau les erreurs irrécupérable. Elle supervise le fonctionnement de la transmission et définit la structure syntaxique des messages, la manière d’enchaîner les échanges selon un protocole normalisée ou non.

Cette couche reçoit les données brutes de la couche physique, les organise en trames, gère les erreurs, retransmet les trames erronées, gère les acquittements qui indiquent si les données ont bien été transmises puis transmet les données formatées à la couche réseau supérieure. La couche réseau est chargée de l’acheminement des informations vers le destinataire. Elle gère l’adressage, le routage, le contrôle de flux et la correction d’erreurs non réglées par la couche 2. A ce niveau là, il s’agit de faire transiter une information complète (ex : un fichier) d’une machine à une autre à travers un réseau de plusieurs ordinateurs. Elle permet donc de transmettre les trames reçues de la couche 2 en trouvant un chemin vers le destinataire.

La couche 4 : Transport Elle remplit le rôle de charnière entre les couches basses du modèle OSI et le monde des traitements supportés par les couches 5,6 et 7. Elle assure un transport de bout en bout entre les deux systèmes en assurant la segmentation des messages en paquets et en délivrant les informations dans l’ordre sans perte ni duplication. Elle doit acheminer les données du système source au système destination quelle que soit la topologie du réseau de communication entre les deux systèmes. Elle permet ainsi aux deux systèmes de dialoguer directement comme si le réseau n’existait pas. Elle remplit éventuellement le rôle de correction d’erreurs. Les critères de réalisation de la couche transport peuvent être le délai d’établissement de la connexion, sa probabilité d’échec, le débit souhaité, le temps de traversé, etc…

La couche 5 : Session Elle gère le dialogue entre 2 applications distantes (dialogue unidirectionnel/bidirectionnel, gestion du tour de parole, synchronisation, etc...). La couche 6 : Présentation

Cette couche s'occupe de la partie syntaxique et sémantique de la transmission de l'information afin d’affranchir la couche supérieure des contraintes syntaxiques. Elle effectue ainsi le codage des caractères pour permettre à deux systèmes hétérogènes de communiquer. C’est à ce niveau que peuvent être implantées des techniques de compression et de chiffrement de données. La couche 7 : Application

Elle gère les programmes utilisateurs et définit des standards pour les différents logiciels commercialisés adoptent les mêmes principes (fichier virtuel, messagerie, base de données, etc…).

En savoir plus...

Introduction

Pour des raisons d’efficacité, on essaie de plus en plus de connecter des systèmes indépendants entre eux par l’intermédiaire d’un réseau. On permet ainsi aux utilisateurs ou aux applications de partager et d’échanger les mêmes informations. Pour faire circuler une information sur un réseau, on peut utiliser principalement deux stratégies. Soit l’information est envoyée de façon complète, soit elle décomposées en petits morceaux (paquets). Les paquets sont alors envoyés séparément sur le réseau puis réassemblés par la machine destinataire. On parle souvent de réseaux à commutations de paquets… La première stratégie n’est que très rarement utilisés en informatique car les risques d’erreurs sont trop importants. Les règles et les moyens mis en oeuvre dans l’interconnexion et le dialogue des machines définissent le protocole et l’architecture du réseau. Toutes ces règles sont définies par des normes pour que des machines d’architecture différente puissent communiquer entre elles. Par exemple, pour l’envoie d’un fichier entre deux ordinateurs reliés par un réseau, il faut résoudre plusieurs problèmes : Avant l’envoi des premiers octets du fichier, la machine source doit : 1) accéder au réseau,

2) s’assurer qu’elle peut atteindre la machine destination en donnant une adresse,

3) s’assurer que la machine destination est prête à recevoir des données,

4) contacter la bonne application sur la machine destination,

5) s’assurer que l’application est prête à accepter le fichier et à le stocker dans son système de fichier Pendant l’envoi, les 2 machines doivent :

6) envoyer les données dans un format compris par les 2 machines,

7) gérer l’envoi des commandes et des données et le rangement des données sur disque,

8) s’assurer que les commandes et les données sont échangées correctement et que

l ’application destinataire reçoit toutes les données sans erreur et dans le bon ordre.

Au début des années 70, chaque constructeur a développé sa propre solution réseau autour d’architecture et de protocoles privés. Mais ils se sont vite rendu compte qu’il serait impossible d’interconnecter ces différents réseaux… Ils ont donc décidé de définir une norme commune. Ce modèle s'appelle OSI (Open System Interconnection) et comporte 7 couches qui ont toutes une fonctionnalité particulière. Il a été proposé par l'ISO, et il est aujourd'hui universellement adopté et

utilisé.a

En savoir plus...
S'abonner à ce flux RSS

Besoin d’avis?

Demandez maintenant un examen gratuit et sans engagement de votre site web.
Nous faisons un examen élaboré, et nous effectuons un rapport SEO avec des conseils
pour l’amélioration, la trouvabilité et la conversion de votre site web.

Audit SEO