Principes de fonctionnement



--Téléchargez Principes de fonctionnement en PDF --


Étymologie

Le terme ordinateur (computer) est une machine capable d’acquérir, de conserver, de traiter et de restituer des informations.

Un ordinateur peut traiter divers types d’informations (textes, musiques, vidéo,…). Mais de manière interne, l’ordinateur ne comprend qu’une seule chose : des chiffres.

Le terme informatique (computer science) est donc la science du traitement l’information.

Un système informatique est un ensemble de moyens logiciels et matériels nécessaires pour satisfaire les besoins des utilisateurs.

Architecture de von Neumann

Selon von Neumann, l’ordinateur est constitué de 4 parties :struct-1

  1. L’unité arithmétique et logique (UAL ou ALU en anglais) ou unité de traitement : son rôle est d’effectuer les opérations de base ;

  2. L’unité de contrôle, chargée du séquençage des opérations ;

  3. La mémoire qui contient à la fois les données et le programme qui dira à l’unité de contrôle quels calculs faire sur ces données. La mémoire se divise entre mémoire volatile (programmes et données en cours de fonctionnement) et mémoire permanente (programmes et données de base de la machine).

  4. Les dispositifs d’entrée-sortie, qui permettent de communiquer avec le monde extérieur.

En réalité, un ordinateur possède une architecture légèrement différente.struct-2

Un ordinateur se compose d’une mémoire centrale. Elle contient :

  • Les instructions des différents programmes ;

  • les données traitées lors de l’exécution des programmes.

Les instructions sont stockées sous forme de code machine. Les instructions comme les données sont écrites en langage binaire.

La mémoire centrale est divisée physiquement en cellules. Chaque cellule correspond à un mot1 mémoire et possède une adresse propre.

L’unité centrale de traitement, ou le CPU est le véritable cœur de l’ordinateur. Elle contient l’unité de commande et l’unité arithmétique et logique. L’unité de commande contient un dispositif permettant de décoder les instructions afin de reprogrammer les circuits interne de l’unité arithmétique et logique.

L’unité d’entrées/sorties, aussi appelé unité d’échange, sont des éléments qui permettent de transférer des informations entre l’UCT, la mémoire et les périphériques. L’unité I/O dialogue avec les contrôleurs de périphériques, qui servent d’interface entre le logiciel et le matériel.

Codage de l’information

Quels sont les types d’informations traitées par un ordinateur ? On en distingue deux types : les instructions et les données.

Instructions

Écrite en langage machine, une instruction représente une opération précise effectuée par un ordinateur. En réalité, l’ordinateur ne comprend que quelques instructions. C’est la combinaison de ces instructions qui permet de traiter l’information. Une instruction se compose de l’opcode (code de l’opération à effectuer) et des opérandes impliqué dans l’opération.

L’instruction doit être décodée par l’unité de contrôle afin de réaliser l’opération sur les opérandes.

Données

Une donnée est un opérande sur lequel on peut effectuer une opération. Le résultat de l’opération produira aussi une donnée, qui peut servir d’opérande à son tour. Ces données seront ainsi stockée en mémoire.

Attention, il ne faut pas confondre données et fichier. Un fichier est un conteneur rassemblant les données.

Les données sont constituées logiquement de deux parties. Les données numériques, sur lesquelles nous pouvons effectuer des opérations mathématiques, et les données alphanumériques, principalement utilisées pour l’affichage. Ces données alphanumérique sont des mots binaires codé selon une certaine norme. Les plus connues sont les normes ASCII et Unicode.

L’ASCII

Le format de codage ASCII (Amercian Standard Code for Information Interchange) est une table de codage sur 7 bits qui permet d’assigner à chaque mot binaire un caractère alphanumérique. Il est donc possible d’écrire en anglais avec la table ASCII.

L’ASCII définit 128 caractères numérotés de 0 à 127 et codés en binaire de 0000000 à 1111111. Toutefois, les ordinateurs travaillant sur un octet depuis les années 1970, chaque caractère d’un texte en ASCII est stocké dans un octet dont le MSB est 0.

Les caractères de numéro 0 à 31 et le 127 ne sont pas affichables ; ils correspondent à des commandes de contrôle de terminal informatique. Les autres caractères sont les chiffres arabes, les lettres latines majuscules et minuscules et quelques symboles de ponctuation. Vous pouvez, dans un programme en C par exemple, demander d’afficher le caractère ASCII 7 pour faire retentir la cloche interne de l’ordinateur !

Seulement, le code ASCII ne permet pas de gérer les caractères accentués, ou les idéogrammes asiatiques.

L’Unicode

Le format Unicode a été créé pour pallier les manques de l’ASCII. Unicode spécifie un numéro unique pour chaque caractère, quel que soit la forme, le logiciel ou la langue. Ce numéro unique s’appelle un point de code.struct-3

L’Unicode se divise en 17 plans de 256×256 cellules, soit 65536 points de code par plan. Il est donc possible de stocker plus d’1 millions de caractères !

Chaque plan est divisé en blocs de tailles variables. Ces blocs contiendront les points de code regroupés par caractères d’un même style d’écriture (latin, grec,…).

Unicode est une base de données. Dans cette base sont stocké le point de code, mais aussi description et d’autres informations (sa catégorie, son plan, son bloc, les correspondances de casse, etc.)

Puisque l’Unicode est une base de données, il faut pouvoir la traduire en code exploitable pour l’ordinateur ! Il faudra utiliser certaines normes de codage. C’est le rôle du standard UTF. Il se divise en 3 formes : UTF-8, très utilisé en Internet, UTF-16, et l’UTF-32 ; Les chiffres indiquent le nombre de bits utilisés pour le codage du caractère.

1Un mot est une suite finie de nombres dans un ensemble donné. Par exemple, un byte et un mot de 8 bits.


« Le Groupe Le binaire »