Un ordinateur, c'est comme un sandwich : on peut l'acheter tout fait mais c'est toujours meilleur quand on le prépare soi-même. On y met les ingrédients que l'on veut, dans l'ordre que l'on veut. C'est notre sandwich, celui qui nous correspond vraiment.
Pour un ordinateur, c'est pareil. Selon que vous soyez un joueur invétéré, un as de la bureautique ou un graphiste, vous n'utiliserez pas votre ordinateur de la même façon. Les composants que vous devrez assembler seront donc différents.
Seulement voilà, monter un ordinateur est un tantinet plus délicat que de préparer un sandwich. Dans ce tutoriel, on ne parlera pas de cornichons ni de mayonnaise, mais de CPU, ventirad, alim', SSD, RAM… Et bien d'autres choses encore ! Ces termes ne vous disent peut-être rien pour le moment mais pas de panique, ce tutoriel est justement fait pour y remédier. Nous allons apprendre ensemble à reconnaître et choisir les composants d'un ordinateur, avant de voir comment les assembler pour former ce merveilleux concentré de technologie qu'est un PC.
Cliquez sur les images pour les agrandir.
Certains sites internet vous proposent une grande quantité de composants à choisir vous-mêmes. La plupart mettent à votre disposition ce qu'on appelle des « configurateurs de PC », c'est à dire un petit programme qui va vous aider dans le choix de vos composants. Cela simplifie grandement la tâche. De plus vous pouvez choisir de recevoir votre ordinateur chez vous déjà monté. C'est un gain de temps et une source d'erreurs de montage en moins. C'est le cas de Top Achat, partenaire du Site du Zéro, vers lequel nous vous redirigerons pour les composants.
Nous allons découvrir, composant par composant, de quoi est fait un ordinateur. Nous allons commencer par l’un des plus petits éléments de l’ordinateur (mais aussi l’un des plus importants) : le processeur. Accompagné de son ventirad, il est en quelque sorte le cerveau de l’ordinateur.
Nous continuerons notre promenade dans les entrailles de l’ordinateur en parcourant la carte mère et ses composants principaux. Je vous préviens tout de suite, nous allons apprendre beaucoup de nouveaux termes dans ce chapitre. Il est très important de les assimiler dès maintenant car ils reviendront tout au long de ce tutoriel. Mais rassurez-vous, il n’y a rien de bien compliqué et nous allons découvrir tout cela en douceur. ;)
L'un des composants les plus importants d'un ordinateur est le processeur (qu'on appelle aussi CPU). C'est, en quelque sorte, le cerveau de l'ordinateur. Et, tout comme pour un être humain, il est impossible à notre ordinateur de vivre sans cerveau. C'est pourquoi le processeur est très important dans un ordinateur : c'est lui qui va exécuter les différents programmes informatiques et effectuer les calculs nécessaires au bon fonctionnement de l'ordinateur. Il faut donc bien choisir son processeur. Hé oui, si vous avez l'habitude de faire tourner 2 ou 3 programmes en parallèle, vous n'aurez pas besoin d'un processeur aussi puissant que si vous en faites tourner 15 ! Et pour bien choisir son processeur, il y a différentes informations à prendre en compte.
Vous avez dit « cœur » ?
Si je vous dis qu'un processeur comporte un cœur, vous me prenez pour un fou ? Et si je vous dis qu'aujourd'hui, la plupart des processeurs comportent plusieurs cœurs ? :waw:
Le cœur est en fait une unité de calcul : c'est lui qui va faire tous les calculs demandés par votre ordinateur. Et croyez moi, il a du travail ! C'est pourquoi les fabricants proposent aujourd'hui plusieurs cœurs dans un même processeur : on augmente ainsi sensiblement la capacité de calcul de l'ordinateur. Pour reprendre l'exemple de tout à l'heure, on pourrait dire que les cœurs d'un processeur sont les neurones d'un cerveau. En théorie, plus vous avez de neurones, plus votre cerveau est réactif à son environnement. Les cœurs de votre processeur sont à peu près pareil : plus grand est leur nombre, plus ils opèrent de calculs, donc envoient plus de données en même temps. Votre ordinateur est donc bien plus rapide.
Il y a une dizaine d'années, les processeurs ne comportaient qu'un seul cœur. Aujourd'hui, il n'est pas rare de voir des processeurs à 2 cœurs (« dual core » en anglais), 4 ou même 8 !
Vous le voyez sur ces deux images : la première représente un processeur avec un seul cœur, la deuxième un processeur avec plusieurs cœurs.
Avant d'aller plus loin, il faut que je vous explique un peu comment un cœur exécute ses calculs. Toutes les opérations qu'il doit faire forment une sorte de file d'attente. Notre cœur prend la première opération à effectuer dans la file d'attente, effectue ses calculs, envoie le résultat au composant de l'ordinateur souhaité, prend la nouvelle opération à effectuer en tête de la file d'attente, etc. En réalité, le cœur fait des millions de calculs à la seconde (c'est qu'il est rapide, le bougre). Mais toujours est-il qu'il est limité, il ne fait les calculs qu'un par un. C’est pour pallier ceci que les processeurs multi-cœurs ont été inventés. Il existe deux techniques pour obtenir des processeurs multi-cœurs.
L'HyperThreading
L'HyperThreading est une technique développée par Intel, qui consiste à séparer un cœur physique en deux cœurs logiques. Autrement dit, on simule la présence d'un second cœur afin qu'il puisse exécuter lui aussi des calculs, parallèlement au premier.
Finalement, du point de vue du système d'exploitation (tel Windows), le processeur est doté de deux cœurs. Cela implique d'ailleurs que le système doit être capable de fonctionner avec un processeur multi-cœurs, bien que cela ne soit que « virtuel ». Cela dit, l'idéal reste tout de même d'avoir physiquement plusieurs cœurs, comme nous allons le voir à présent.
Le multi-cœur
Un processeur dit multi-cœur est composé non pas d'un seul cœur (HyperThreadé ou non) mais de plusieurs qui permettent, à fréquence égale (nous allons revenir sur ce point dans très peu de temps), de multiplier par autant de cœurs les performances. Avec deux cœurs, les performances sont doublées, avec quatre cœurs, elles sont quadruplées, etc.
Dans la pratique, les performances ne sont pas réellement multipliées. Il faut que le système d'exploitation et les logiciels soient conçus de manière à tirer parti de ce type d'architecture.
Une histoire de fréquence
La fréquence du processeur est importante, car c'est elle qui détermine la vitesse à laquelle il fonctionne. Elle désigne le nombre d'opérations que votre processeur est capable d'effectuer en 1 seconde et est exprimée en Hertz (Hz). Aujourd’hui, on parle plutôt en GigaHertz (c'est que ça évolue, ces petites bêtes là !).
Par exemple, si un processeur a une fréquence de 3 GHz, il peut alors effectuer… 3 milliards d'opérations à la seconde ! :waw:
Tant que ça ? Quand j’utilise mon ordinateur, je fais bien moins de choses ! Alors pourquoi l’ordinateur met parfois plusieurs secondes à réagir ?
Les opérations comme nous les entendons ici ne représentent pas des tâches comme celles que nous, utilisateurs, réalisons sur l’ordinateur. Il s’agit en réalité d’un tout petit calcul qui, associé à des millions d’autres, participe à la réalisation d’un simple copier-coller par exemple. Quoi qu’il en soit la règle reste valable : plus la fréquence est élevée, plus le CPU pourra réaliser de calcul et donc plus l’ordinateur sera rapide (en théorie bien sûr, car de nombreux autres paramètres entrent en compte).
La mémoire cache
Non, vous n'avez pas de la mémoire qui joue à cache-cache dans votre ordinateur. >_ La mémoire cache est un type de mémoire très rapide, assez cher à produire, ce qui explique qu'il y en ait peu dans les composants. En fait, elle sert d'intermédiaire entre le processeur et ce qu'on appelle la mémoire vive. Ce qui est stocké dans la mémoire cache est en fait une information dupliquée, c'est à dire qu'elle existe ailleurs que dans cette mémoire. Mais l'accès des données y est plus rapide.
Il existe 3 types de mémoire cache :
Level 1 (L1) : de très faible capacité, en 2 parties et directement intégré au(x) cœur(s) du CPU.
Level 2 (L2) : de plus grande capacité que le L1 et partagé entre les cœurs sur les anciens CPU mais intégré aux cœurs sur les dernières générations.
Level 3 (L3) : le plus grand en terme de capacité. Il y a quelques temps, elle était situé au niveau de la carte mère mais aujourd'hui, elle est directement intégrée au CPU et partagée entre les cœurs.
Vous l’aurez probablement déjà remarqué : un ordinateur, ça chauffe ! Pas de quoi faire des grillades, mais presque. Cela est dû à ce qu’on appelle l’effet Joule : quand un courant électrique traverse un matériau conducteur, de la chaleur est dégagée. Dans le cas des composants de l’ordinateur, c’est bel et bien ce qu’il se passe.
Le processeur ne déroge pas à cette règle et subit cet effet. Afin d’éviter que la chaleur ne l’endommage, il est donc impératif de le refroidir. On utilise pour cela un ventirad, contraction des mots ventilateur et radiateur. Drôle de contraction vous ne trouvez pas ? Je vous explique tout de suite son origine.
Le couple radiateur - ventilateur
Que faites-vous quand votre tasse de café est trop chaude pour la boire ? Vous soufflez dessus ? Vous attendez qu’elle refroidisse en allant sur le Site du Zéro pendant quelques minutes ? Eh bien les deux solutions sont possibles et même complémentaires.
Le radiateur
Contrairement à ce que l’on pourrait penser, un radiateur n’a pas pour seul but de chauffer une pièce en hiver. En réalité et par définition, un radiateur permet un échange thermique entre deux milieux. Par exemple, le radiateur de votre chambre permet de transférer de la chaleur depuis le circuit d’eau chaude qu’il contient vers l’air de la pièce.
Pour que cela soit efficace, il faut que la surface de contact entre les deux milieux soit la plus grande possible. En effet, c’est sur cette surface que se produit l’échange thermique. C’est pour cette raison que les radiateurs ont des formes si particulières (tubes, zig-zag, etc.) : la surface de contact entre l’air et le radiateur est plus importante que si ce dernier était tout à fait droit et rectiligne (un simple parallélépipède par exemple).
Ça, c’est le radiateur tel qu’on l’entend habituellement. Dans le cas qui nous intéresse ici, le radiateur va permettre le transfert de chaleur depuis le CPU vers l’air qui se situe dans le boîtier de l’ordinateur. Afin d’agrandir la surface de contact, le radiateur est composé d’ailettes (en Aluminium la plupart du temps).
Aujourd’hui, les radiateurs sont de plus en plus souvent accompagnés de caloducs (ou heat pipes en anglais). Les caloducs sont des tubes à l’intérieur desquels circule un fluide qui va aider la chaleur à se propager depuis la base du radiateur jusqu’aux ailettes.
Le ventilateur
Un radiateur, c’est bien mais ça ne suffit pas pour refroidir suffisamment le CPU. En effet, que se passe-t-il lorsque la chaleur a été transmise du processeur à l’air situé près du radiateur ? Eh bien cet air est chaud. La différence de température est donc moins grande entre les ailettes du radiateur et l’air alentour. Cela pose un problème car un transfert de chaleur entre deux milieux est plus grand si la différence de température entre ces deux milieux est importante.
C’est là qu’intervient le ventilateur : en soufflant sur le radiateur, il permet de renouveler l’air. L’air chaud est remplacé par de l’air plus frais, le transfert de chaleur peut donc se faire de nouveau plus efficacement. Finalement, il se passe exactement la même chose avec votre tasse de café. En soufflant dessus, vous renouvelez l’air situé près de la surface de liquide.
Vous avez peut-être remarqué que le bruit du ventilateur de votre ordinateur n’est pas constant. Tout dépend du besoin de refroidissement du CPU. Plus ce dernier fait de calculs, plus il chauffe et va par conséquent avoir besoin de l’aide du ventilateur (accompagné du radiateur) pour être refroidi. Certains modèles de ventilateurs sont thermorégulés, c’est-à-dire que la vitesse de rotation des pales varie en fonction de la chaleur à dissiper. D'autres sont réglables manuellement par l'intermédiaire d'un potentiomètre, comme on peut le voir sur l’image ci-dessous (regardez la petite molette à gauche de l’image, qui sera accessible à l’arrière de la tour) :
Le radiateur et le ventilateur sont donc tout à fait complémentaires. Le couple ainsi formé est appelé ventirad. Mais au fait, à quoi ressemble un ventirad ?
Formats de ventirad
On trouve essentiellement deux formats de ventirad, qui diffèrent par le positionnement de leurs composants par rapport au CPU.
Pour les ventirad de type top-Flow, le radiateur et le ventilateur sont superposés et mis parallèles au CPU :
En revanche, pour les ventirad de type tower, le radiateur et le ventilateur sont mis l'un à côté de l'autre, de façon perpendiculaire au CPU :
La plupart des ventirad fournis d'office avec les CPU sont de type top-flow.
La carte mère est l’élément central de l’ordinateur. Elle est fixée au boîtier et est le support de tout un tas de cartes et autres composants dont nous parlerons bientôt. Voici à quoi une carte mère peut bien ressembler :
Magnifique, vous ne trouvez pas ? :D Comme vous pouvez le constater, la carte mère est constituée d’une grande plaque (que l’on appelle PCB), sur laquelle une multitude d’éléments se disputent la place. Nous passerons en revue ces éléments plus loin dans ce chapitre.
Format de la carte mère
Au cours des années, de nombreux formats de cartes mères ont vu le jour. Pourquoi différents formats me direz-vous ? Tout d’abord, la taille de la carte mère est un facteur important à prendre en compte. Vous imaginez bien qu’une carte mère de quatre mètres sur trois (je vous rassure, ça n’existe pas) sera plus encombrante qu’une carte mère de petite taille.
Les formats les plus courants actuellement sont les suivants :
ATX : Ce format de carte mère, très répandu, est conçu pour faciliter la circulation de l’air (et donc l’évacuation de la chaleur). C’est ce format de carte qui est représenté par l’image ci-dessus. Dimensions : 305x244 mm
micro-ATX : Le micro-ATX, comme son nom l’indique, est une version plus petite de l’ATX. Dimensions : 244x244 mm
mini-ITX : De par sa taille très réduite, le format mini-ITX est adapté aux mini-PC. Dimensions : 170x170 mm
Le format de la carte mère aura une influence sur le choix du boîtier. Évidemment, une grande carte mère ne pourra pas rentrer dans un boîtier trop petit ! Mais chaque chose en son temps, nous aborderons la question du boîtier dans un prochain chapitre.
Quelques composants importants
Le socket
Le socket est le socle qui va recevoir le CPU. Ce dernier n’est en effet pas branché directement sur la carte mère mais sur un support qui permet de le brancher plus facilement et avec moins de risque de l’abîmer (sauf dans un cas, que nous allons voir).
Il existe trois catégories de CPU :
Le PGA (Pin Grid Array) : Le CPU comporte une multitude d'aiguilles (appelées pins) servant de connecteurs qui vont venir s'insérer dans les multiples trous du connecteur. Il est surtout utilisé chez AMD.
Le LGA (Land Grid Array) : Cette fois, il n'y a plus de pins sur le CPU ni de trous sur le connecteur mais des contacts métalliques sur chacun d'entre eux. Il est essentiellement utilisé chez INTEL.
Le BGA (Ball Grid Array) : Ce dernier type de format, apparu plus récemment, est destiné aux processeurs mobiles. La principale caractéristique de ces CPU est que les contacts sont des petites billes (d'où le « ball » du nom) soudées directement à la carte mère. Ce n'est pas malin, me direz-vous, cela limite les possibilités d'évolutions. o_O Mais l'objectif n'est pas là ! Le but est d'économiser la place d'un socket sur les appareils mobiles, tels que les netbooks, pour lesquels la miniaturisation est un enjeu majeur.
Le chipset
Les composants de l’ordinateur, vous vous en doutez, échangent énormément de données entre eux. CPU, carte graphique, mémoire vive… Les 0 et les 1 vont bon train ! Il avait été question d’un petit lutin qui ferait le facteur entre tous ces composants, mais cette solution n’étant pas assez rapide, le chipset a été inventé. Cette puce gère donc tous les flux de données entre les composants de l’ordinateur.
On peut voir cela comme un énorme échangeur d’autoroute (où les voitures représentent les impulsions électriques). Une voiture arrive sur une branche et repart vers sa destination via une autre branche.
Bien souvent, le chipset de la carte mère est séparé en deux parties distinctes (donc deux puces) : NorthBridge et SouthBridge, chacune ayant son propre rôle. Par exemples, le NorthBridge relie le CPU à la mémoire vive, le SouthBridge relie quant à lui le NorthBridge à l’horloge RTC, etc.
La CMOS RAM et la pile
Certaines informations doivent pouvoir être conservées même lorsque l’ordinateur est éteint (et donc lorsque la carte mère n’est plus alimentée en courant électrique) : la configuration de l’ordinateur, la date et l’heure du système, etc. Pour cela, la carte mère contient une petite mémoire, appelée CMOS RAM.
C’est bien beau mais si l’ordinateur n’est pas alimenté pendant plusieurs jours, comment peut-il savoir la date et l’heure à son réveil ?
Même si l’ordinateur est débranché, la CMOS RAM est toujours alimentée grâce à une petite pile (ou une petite batterie). La pile est de type « pile bouton » (modèle CR2032 la plupart du temps) :
L'horloge
On l’a vu plus haut, le CPU exécute ses instructions à une certaine fréquence, exprimée en Hertz (Hz). Cela signifie qu'entre chaque opération, il se passe une période donnée. Le CPU est donc un peu comme un musicien qui suit la cadence de son métronome. Cette cadence est assurée par l'horloge de la carte mère (appelée RTC). Cette horloge cadence également les instructions des autres composants et périphériques internes, tels que le bus système (ou FSB), qui relie le CPU au chipset.
On peut également citer d’autres bus, tels que le bus mémoire, qui relie la mémoire vive au chipset ou le bus d’extension qui lui s’occupe de faire le lien avec les connecteurs d’entrées/sorties dont nous parlerons dans quelques instants.
La connectique
La carte mère est le point central de l’ordinateur, on y branche donc tous les éléments du système grâce à une large gamme de connecteurs.
La connectique « interne »
Commençons par les connecteurs destinés à brancher des composants internes à l’ordinateur : barrettes de mémoires, cartes en tout genre, disques durs, etc. Nous n’avons pas encore abordé tous ces éléments mais pas d’inquiétude, nous y reviendrons au cours de ce tutoriel.
Commençons ce petit tour du propriétaire avec les slots mémoire. Destinés à accueillir les barrettes de mémoire vive, on peut en trouver 2, 3, 4 ou 6 selon le format de la carte mère.
Viennent ensuite les ports PCI, qui servent essentiellement aux cartes filles (cartes son, carte réseau, etc.).
On trouve également des ports PCIe, actuellement dans leur seconde génération (PCIe 2.0, les débits sont doublés par rapport à la première génération). Ils sont de plusieurs types :
Les ports PCIe 2.0 x1 (500 Mo/s) qui devraient remplacer les ports PCI et servent aux autres cartes filles (cartes son, carte réseau, etc.).
Les ports PCIe 2.0 x16 (4 Go/s) sont les remplaçants de l'ancien port AGP et sont destinés aux cartes graphiques (ils peuvent passer en x8 ou x4 en fonction du nombre de cartes graphiques et du chipset).
Du côté des périphériques de stockage (disques durs, SSD, graveur DVD, etc.), deux normes de connectique existent. La première, vieillissante et tendant à disparaître, décrit les ports IDE (également appelés ATA ou PATA).
Les larges nappes branchées à ces connecteurs attirent la poussière et gênent la circulation de l'air à l'intérieur du boîtier. Les toutes dernières cartes mères n'en sont donc plus équipées, au profit des ports SATA qui permettent l'utilisation de câbles plus fins :
Il en existe plusieurs types et si le SATA2 (3 Gbps) est encore le plus répandu, il y a, aujourd'hui, de plus en plus de cartes mères équipées de ports SATA3 (6 Gbps). Aussi, sur certaines cartes mères, il est possible d'associer plusieurs ports de ce type en RAID afin d'améliorer les performances (RAID 0), la sécurité (RAID 1) ou les 2 (RAID 0+1, RAID 5).
Enfin, les prises pour les ventilateurs, qui servent à alimenter le ventirad CPU et les ventilateurs du boîtier. Elles existent en 2 versions : 3 pins ou 4 pins (thermorégulé, ci-dessous).
La connectique « externe »
Nous nous trouvons à présent sur le panneau arrière (ou BackPanel), sur lequel se trouvent des connecteurs destinés à des appareils externes à l'ordinateur.
On peut tout d'abord trouver des ports PS2, utilisés pour les anciens claviers et les vieilles souris :
Ils sont aujourd'hui en voie de disparition, au profit des célèbres ports USB, bien plus pratiques. Vous en avez forcément déjà croisé ! Ils sont utilisés pour la plupart des périphériques externes (claviers, souris, disques durs externes, clés USB, imprimantes, etc.). La norme la plus répandue est l'USB2 (480 Mbit/s, soit 60 Mo/s) mais la récente norme USB3 (4,8 Gbit/s, soit 600 Mo/s) devrait la remplacer petit à petit. Notons que les ports (et câbles) sont noirs en USB2 et bleus en USB3 (voir ci-dessous).
Avec des débits bien plus élevés, les ports FireWire sont quant à eux utilisés pour les caméscopes (transférer un flux vidéo nécessite un débit élevé) et certains disques durs externes.
Ce type de port est aussi appelé IEEE 1394 (du nom de la norme qui le décrit), FireWire étant le nom donné par Apple. Sony de son côté utilise le nom i.LINK. Oui, cela serait bien trop simple s'ils se mettaient tous d'accord sur un seul et même terme ! >_
Vous souvenez-vous des ports SATA utilisés pour les périphériques de stockage (ne me dites pas non, nous en avons parlé il y a quelques minutes) ? Eh bien il en existe une version « externe » : eSATA (je vous laisse deviner la signification du « e »), essentiellement utilisée pour les disques durs externes.
Pour les réseaux Ethernet, on utilise les ports RJ45 (ou plus simplement ports Ethernet). Les anciennes cartes mères étaient équipées de ports RJ45 fonctionnant à 100 Mbps mais aujourd'hui on ne trouve pratiquement plus que du 1000 Mbps (soit 1Gbps).
Finissons ce petit tour des connecteurs en musique, avec les ports Audio. Ce sont des ports au format jack 3,5 mm sur lesquels vont se brancher les haut-parleurs, les casques ou autres micros.
Les couleurs ont généralement les significations suivantes :
vert : haut-parleurs avant ;
orange : voix centrale et caisson de basses ;
noir : haut-parleurs arrière ;
gris : haut-parleurs latéraux ;
rose : micro ;
bleu : entrée ligne.
Voilà pour ce qui est de la connectique de la carte mère. Un petit résumé en image ? Mais bien sûr, avec plaisir :
Je sais, ça fait beaucoup de choses d’un seul coup. Mais plus nous avancerons dans ce chapitre, plus nous verrons tous les éléments que nous avons abordés ici. Avant cela, passons à une partie… invisible de la carte mère : le BIOS.
Le BIOS
La mémoire est morte, vive la mémoire !
Quand on démarre l’ordinateur, une phase très importante consiste en l’initialisation de tous les composants matériels : disque dur, carte graphique, carte son, etc. Avant leur étape d’initialisation, il est impossible d’utiliser ces éléments. Mais pour que cette initialisation puisse avoir lieu, il est nécessaire que leur configuration soit connue et donc enregistrée quelque part. Mais où ? Sur le disque dur ? Problème : le disque dur n’a pas encore été initialisé et est donc inutilisable pour le moment. Il faut donc trouver un autre endroit où sauver cette configuration (entre autres choses), c’est là qu’intervient la mémoire morte, ou ROM.
ROM signifie « Read Only Memory », ce qui signifie « mémoire en lecture seule » (autrement dit, on ne peut pas écrire dessus). Elle contient notamment un petit programme permettant la gestion du matériel : le BIOS.
Rôles du BIOS
Le BIOS va servir d'interface entre la carte mère, le système d'exploitation et certains composants et périphériques. Il est notamment en charge de l’initialisation des composants matériels et de la vérification de leur bon fonctionnement. Si des problèmes sont détectés, ils sont transmis à l’utilisateur sous forme de BIPS émis directement par la carte mère (le matériel n’ayant pas encore été initialisé, les haut-parleurs que vous utilisez habituellement ne sont pas prêts).
Une fois les étapes d’initialisation du matériel achevées, le BIOS va avoir pour rôle de chercher une séquence d’amorçage afin de lancer le système d’exploitation (Windows par exemple). Cette séquence d’amorçage peut se trouver sur le disque dur (au niveau de la toute première section, appelée le MBR) ou bien sur un support externe ou même un disque inséré dans le lecteur. Une fois cette séquence trouvée, le BIOS passe le relais au système d’exploitation.
Le menu du BIOS
Au démarrage de l’ordinateur, après l’initialisation du matériel et avant l’amorçage du système d’exploitation, le BIOS affiche un écran d’accueil. À ce moment précis, il est possible d’entrer dans le menu du BIOS (ou setup) grâce à une touche ou une combinaison de touches indiquée à l’écran. Vous arrivez alors sur une interface pour le moins austère :
On navigue dans les différents menus avec les touches du clavier (les actions possibles sont affichées en bas de l’écran dans l’image ci-dessus).
Ce menu permet de régler bon nombre de paramètres, comme la date et l’heure du système mais aussi le mode de fonctionnement de vos disques durs, du CPU, etc. C’est aussi ici que vous pouvez définir l’ordre des éléments dans lequel le BIOS doit chercher une séquence d’amorçage pour lancer le système d’exploitation (menu « Boot » généralement). Pour démarrer à partir d’une clé USB par exemple, il faudra placer ce composant avant le disque dur. Ainsi, une fois la séquence d’amorçage trouvée, le BIOS n’ira pas plus loin dans ses recherches et passera le relais au système installé sur la clé.
Sur les cartes mères les plus récentes, ce menu est désormais remplacé par l'UEFI qui lui se pilote à la souris (ouf !).
Processeur : Le critère de choix le plus « visible » pour le processeur est bien sûr le nombre de cœurs. Si les processeurs mono-cœur sont à éviter, il est cependant souvent inutile d'aller au delà de 4 cœurs (les jeux et logiciels sont rarement capables de les utiliser de façon optimale). En revanche, si vous comptez utiliser votre ordinateur pour des choses très gourmandes en calculs (comme la 3D), alors il peut être intéressant de regarder les processeurs à 6 cœurs. Mais le nombre de cœurs n'est pas le seul critère à prendre en compte ! La fréquence est également très importante. Si deux processeurs sont similaires en tout autre point que la fréquence, c'est évidemment celui dont cette dernière sera la plus haute qui sera à privilégier. Enfin, le type de microarchitecture est primordial. La règle est on ne peut plus simple : il faut privilégier les microarchitecture de dernière génération.
Ventirad : Le ventirad n'est pas le composant le plus difficile à choisir. La plupart du temps, les processeurs en sont d'ailleurs équipés de base. Les critères à prendre en compte vont être la taille de surface de contact avec l'air, le nombre de caloducs, mais aussi le bruit. On recherchera en effet souvent un ventirad offrant la meilleure dissipation thermique… en silence !
Carte mère : Avant toute chose, vous devez prendre garde à ce que le socket et le chipset de la carte mère soient compatibles avec le processeur que vous aurez choisi. Avec un CPU AMD, il faut prendre une carte mère à base de chipset AMD ; avec un CPU INTEL, il en faut une basée sur un chipset INTEL. Logique ! ;) Cela dit, au sein d'une même marque, il existe plusieurs chipsets, qui ne sont généralement pas compatibles entre eux.
Ensuite, vous devrez vous poser la question du format de la carte mère : ATX, micro-ATX ou mini-ITX. Outre le fait que cela influe sur la taille du boîtier à acheter, le nombre de connecteurs internes va varier. C'est un point important car la connectique interne va être gage d'évolutivité ou non.
Voilà une bonne chose de faite : avec ce chapitre, nous avons posé les bases du fonctionnement de l’ordinateur. Nous avons vu à la fois son « cerveau » (le CPU) mais aussi son « squelette » (la carte mère). Et pour éviter la fièvre, nous avons également parlé de son ventirad, élément plus important qu'on ne pourrait le penser.
Avec la carte mère, nous avons aperçu bon nombre de composants qui vous sont peut-être encore inconnus. Ne vous inquiétez pas, cela est bien normal, nous sommes encore au début de ce tutoriel. Une chose est sûre, nous allons revenir sur chacun de ces composants dans les chapitres à venir.
Dans le prochain chapitre, je vous propose de nous intéresser à ce que nous avons en permanence sous les yeux lorsqu’on utilise un ordinateur : l’écran.
L’écran est l’interface entre le système et l’utilisateur. Tout ce que l’ordinateur peut vous transmettre (mis à part le son évidemment), c’est via l’écran qu’il le fera. C’est bien simple, lors de l’utilisation d’un ordinateur, nos yeux sont rivés dessus en permanence ! Alors dans ces conditions, il est nécessaire d’avoir un bon écran. Son choix sera donc très important, d’autant que les paramètres à prendre en compte sont plus nombreux qu’il n’y parait.
Dans ce chapitre, nous allons donc commencer par parler quelques instants de ce qu’est une image numérique et de sa brique de base, le pixel. Nous verrons ensuite les diverses caractéristiques utiles pour le choix d’un écran, telles que sa taille, son temps de réponse, sa luminosité, etc. Enfin, nous nous intéresserons à sa connectique. Bref, voilà un chapitre qui va nous permettre d’en prendre plein les yeux !
Avez-vous déjà regardé un écran allumé de très près ? Je veux dire, de vraiment très près ! Bon ok, ça fait mal aux yeux… Mais on arrive à distinguer des petits points. Eh bien ces points sont ce qu'on appelle des pixels. Ils sont les briques de base d’une image numérique. Sur un écran donné, tous les pixels ont la même taille. Ils ont chacun une et une seule couleur et sont indivisibles. L’œil humain, sauf s’il s’en approche suffisamment, est incapable de distinguer les pixels les uns des autres. Leur union forme une image que le cerveau interprète en tant que telle, sans se préoccuper de ce qui la constitue.
On peut illustrer cela avec la désormais célèbre guerre des post-it qui fait rage dans les bureaux parisiens :
C’est la mise bout à bout de chacun des post-it qui forme l’image.
Revenons aux images numériques. Un écran est capable d’afficher un certain nombre de pixels (nombre qui ne varie pas tout au long de la vie de l’écran), qui vont chacun prendre une couleur précise afin d’afficher les images. Chaque pixel est en fait composé de 3 points (un rouge, un vert et un bleu) dont la combinaison par synthèse additive (le mélange de ces trois couleurs) va permettre d'obtenir différentes couleurs. Nous reviendrons sur ce point plus loin dans ce chapitre. ;)
Rouge, vert et bleu sont les trois couleurs primaires qui permettent d’obtenir toutes les autres couleurs. En informatique, on croise d’ailleurs souvent le modèle RGB, qui permet de définir une couleur.
Le choix d’un écran dépend de nombreux paramètres qui peuvent revêtir plus ou moins d’importance selon vos attentes.
Taille et format de l’écran
La taille de l’écran et son format sont deux critères à ne pas confondre. La taille de l'écran est déterminée par la diagonale de sa dalle (la partie où se trouvent les cristaux liquides qui afficheront l'image). Elle se mesure en pouce (rappelons qu’un pouce vaut 2,54 centimètres).
Le format quant à lui, est le rapport entre la largeur et la hauteur de l’écran. C’est un rapport, il est donc sans unité.
Lorsque la télévision a été créée (c’était évidemment bien avant les ordinateurs), le format par défaut était le 4/3. Avec un écran de ce format, le rapport largeur/hauteur vaut donc 4/3, soit 1,33. Autrement dit, si on note l la largeur de l'écran et h sa hauteur, on a donc : l = 1,33 x h. Il ne reste plus qu’à appliquer le théorème de Pythagore pour obtenir la taille de l’écran. ;)
Le format 4/3 a perduré pendant de nombreuses années, même avec l’arrivée des premiers ordinateurs. Il a été remplacé par le 16/10, lui-même en voie de disparition. De nos jours c’est le format 16/9 qui prédomine, plus proche de la vision humaine (notre champ de vision est plus « panoramique », donc plus proche du 16/9 que du 4/3). Les écrans de télévision (LCD/Plasma) et d’ordinateur tendent tous à s’uniformiser vers ce format.
Résumons les choses à l’aide d’un petit tableau :
Critère
Définition
Exemples
Taille
Taille de la diagonale de la dalle (en pouces).
14", 15", 17", 23", etc.
Format
Rapport entre la largeur et la hauteur de l’écran.
4/3, 16/10, 16/9
Définition et pitch
Sur un écran, les pixels sont organisés en lignes et en colonnes. Le produit entre le nombre de pixels en ligne et celui en colonne donne la définition de l’écran. La définition est donc le nombre de pixels pouvant être affiché à l’écran.
Par exemple, ce nombre peut s’élever à 786 432 pixels. Bon, ce nombre n’étant pas très parlant, on exprime la définition sous forme de produit : 1024x768. Dans ce cas, une ligne va contenir 1024 pixels et une colonne en sera elle composée de 768.
Le pitch d’un écran (aussi appelé pas de perçage) est la plus faible distance entre deux pixels. Le pitch est exprimé en millimètres (bien qu’il soit inférieur à 1 mm).
Critère
Définition
Exemples
Définition
Nombre de pixels pouvant être affiché à l’écran.
800x600, 1024x768, 1280x720, 1440x900, 1920x1080, etc.
Pitch (pas de perçage)
Plus faible distance entre deux pixels.
0.21mm, 0.25mm, 0.28mm, 0.31mm, etc.
Pour bien comprendre, on peut mettre en relation le pitch avec la taille de l’écran et sa définition. Prenons un exemple avec un écran dont le pitch vaut 0,31 mm et dont les dimensions de la dalle sont de 345,44 mm en largeur par 259,08 mm en hauteur. En largeur, il peut donc y avoir un pixel tous les 0,31 mm et cela sur 345,44 mm. Le nombre de pixels en largeur est donc de 345,44/0,31 soit 1114 pixels (je vous laisse faire le calcul pour la hauteur ;) ). Le produit des nombres de pixels en largeur et en hauteur donne la définition.
En théorie, plus le pitch est petit, plus on peut mettre de pixels dans une même surface et ainsi avoir une image plus détaillée. Mais en réalité, tout dépend de la distance à laquelle on se trouve par rapport à l'écran. Rappelez-vous du petit test que nous avons fait en début de chapitre, lorsque je vous demandais de vous approcher au plus près de votre écran. ;) L’important est que le pitch ne soit ni trop petit, auquel cas les caractères pourraient devenir difficile à lire, ni trop gros car dans ce cas on risquerait de « voir » les pixels :
Luminosité et contraste
La luminosité d’un écran caractérise sa capacité à émettre plus ou moins de lumière. Elle s’exprime en candelas par mètre carré (cd/m²). La candela étant l’unité de l’intensité lumineuse, la luminosité représente donc cette intensité rapportée à la surface de l’écran.
Les écrans actuels ont une luminosité comprise entre 200 et 500 cd/m². Mais attention, cette valeur représente la luminosité maximale de l’écran. Autrement dit, deux écrans aux luminosités affichées différentes pourront être réglés de façon à produire la même intensité lumineuse. Tout dépend de vos préférences et de la lumière régnant dans la pièce. Vous pouvez faire le test avec n’importe quel écran : selon que vous le regardiez en plein jour, volets ouverts ou dans la nuit noire, vous n’aurez pas le même ressenti de la luminosité.
Une caractéristique est très souvent associée à la luminosité : le contraste. Le contraste est le rapport de luminosité entre le pixel le plus sombre et le pixel le plus clair de l’écran. Vous allez me dire que les pixels n’ont jamais la même couleur selon l’image affichée à l'écran… C'est vrai. Le contraste représente en fait la capacité de l’écran à afficher, au sein d’une même image, des pixels de luminosités les plus différentes possibles.
Le contraste s’exprime sous forme d’un rapport, comme par exemple 50 000:1. Cela signifie qu’un tel écran pourrait afficher, en théorie, un pixel cinquante mille fois plus lumineux qu’un autre. Je dis bien « en théorie » parce qu’en réalité, les contrastes sont souvent situés autour de 850:1. Si les constructeurs se vantent d’afficher des niveaux de contrastes si délirants, c’est avant tout pour des raisons marketing.
Comme vous pouvez le constater, contraste et luminosité sont très liés. Lors du réglage de l’écran, ils sont donc très souvent réglés ensemble.
Enfin, une valeur trop souvent absente des caractéristiques données par les constructeurs est la valeur de noir. C'est une luminosité, elle s'exprime donc en candelas par mètre carré. Dans un monde parfait, un pixel noir aurait une luminosité de 0 cd/m². Seulement, nous ne vivons pas dans un monde parfait… Retenez simplement ceci : plus la valeur de noir sera proche de 0, plus les noirs seront profonds.
Critère
Définition
Exemples
Luminosité
Capacité de l’écran à émettre de la lumière.
350 cd/m², 500 cd/m², etc.
Contraste
Rapport de luminosité entre le pixel le plus sombre et le pixel le plus clair de l’écran.
3 000:1, 50 000:1, 80 000:1, etc.
Temps de réponse
Tel qu’il est défini dans sa norme ISO (l'organisation internationale de normalisation, qui s'occupe de produire des normes dans de très nombreux domaines et pour le monde entier), le temps de réponse d’un écran est le temps que va mettre un pixel pour passer du noir au blanc, puis à nouveau au noir.
Pourquoi s’embêter à faire revenir le pixel au noir ? Le temps pour passer du noir au blanc n’est-il pas déjà caractéristique ?
Pour qu’un pixel soit coloré, il faut « allumer » avec plus ou moins d’intensité chacune des cellules rouge, verte et bleue dont nous parlions plus tôt, à l’aide d’un courant électrique. Pour faire du blanc, il faut que les trois cellules soit stimulées au maximum (rappelez-vous de la synthèse additive). Le temps nécessaire à la stimulation de ces trois cellules est donc effectivement caractéristique, mais il ne suffit pas. En effet, pour que le pixel revienne au noir, il faut maintenant que la stimulation des cellules se dissipe après que le courant électrique ait été coupé. Le temps nécessaire à la dissipation de ce courant est donc tout autant caractéristique.
Dans la pratique, il est rare qu’un pixel passe du noir (« tout éteint ») au blanc (« tout allumé »). Les pixels passent d’une couleur quelconque à l’autre, ce qui signifie que les cellules rouge, verte et bleue reçoivent plus ou moins de courant électrique, sans pour autant être à leur maximum. Pour mesurer le temps de réponse, on s’intéressera donc plutôt au temps mis pour passer du gris au blanc, puis à nouveau au gris. C’est ce temps qui est indiqué par les constructeurs sur les fiches techniques des écrans.
Le temps de réponse est un critère important lors du choix d’un écran. Il s’exprime en millisecondes (1 ms = 0,001 s), ce qui est une échelle relativement petite mais tout de même significative car on peut presque la mesurer « à l’œil nu » (du moins, on peut ressentir les différences entre deux écrans). Si le temps de réponse est trop grand, les images ne se succèderont pas bien : une sensation de « flou » se fera ressentir.
Critère
Définition
Exemples
Temps de réponse
Temps nécessaire pour qu’un pixel passe du gris au blanc, puis à nouveau au gris.
5 ms, 8 ms, 12 ms, etc.
Angle de vision et rétro-éclairage
Avez-vous déjà essayé de regarder un écran d’ordinateur à plusieurs ? J’imagine que oui. Si vous n’étiez pas bien en face de l’écran, vous avez peut-être subi les effets néfastes d’un angle de vision trop faible : vous ne voyiez pas bien l’image.
Les angles de visions (horizontal et vertical) sont les angles auxquels on peut regarder l’écran sans que l’image ne se dégrade.
Les angles de visions varient entre 160 et 180°, selon le type de dalle (nous allons en parler dans quelques instants).
Le rétro-éclairage quant à lui est le procédé permettant de voir l’image dans le noir. Tous les écrans en sont bien sûr pourvus. Jusqu’à peu, le rétro-éclairage était effectué à la seule lumière de néons intégrés à l’écran. Aujourd’hui, on utilise plutôt des LED, ce qui permet de réduire l’épaisseur et la consommation électrique des écrans.
Critère
Définition
Exemples
Angles de vision
Angles (horizontal et vertical) auxquels on peut regarder l’écran sans que l’image ne se dégrade.
160°, 178°, etc.
Rétro-éclairage
Eclairage de l’écran permettant de l’utiliser dans le noir.
-
Fréquence
La fréquence d’un écran LCD est une caractéristique plutôt secondaire, le temps de réponse étant un critère plus significatif. En effet, quel que soit l’écran, une fréquence de 60 Hz convient tout à fait. Certains modèles permettent de monter à 75 Hz, mais cela a souvent pour effet de dégrader l’image… et de faire mal aux yeux ! >_
Aujourd’hui, on commence à voir apparaître des écrans capables de doubler cette fréquence et donc de monter à 120 Hz. Dans ce cas, il est recommandé d’utiliser cette fréquence afin de diminuer la rémanence (c’est-à-dire le temps que met l’écran à effacer une image après en avoir affiché une nouvelle). Cela dit, ces écrans sont peu nombreux, plus chers et la rémanence dépend aussi du temps de réponse. Avec certaines cartes graphiques, cette fréquence élevée permet même de jouer en 3D stéréoscopique. :soleil:
Les écrans LCD utilisent, comme leur nom acronyme l’indique, des cristaux liquides pour afficher les images. Mais que représentent ces fameux cristaux au juste ? Eh bien disons qu’ils ont un rôle de guide pour la lumière… Explications.
Un écran LCD est composé de deux fines plaques de verre, qui vont devoir être toutes deux traversées par des rayons lumineux. Chacune de ces plaques a la propriété de laisser passer la lumière uniquement si elle est orientée dans un certain sens. En faisant pivoter une plaque, la lumière a de plus en plus de mal à la traverser. Une fois la plaque pivotée à 90 degrés, alors la lumière ne peut plus passer du tout. Il se trouve que dans un écran LCD, la seconde plaque est justement positionnée à 90 degrés de la première ! De base, un rayon lumineux ne peut donc pas passer :
Dans cette configuration, l’utilisateur ne reçoit aucune lumière et ne peux donc rien voir à l’écran.
C’est alors qu’interviennent les cristaux liquides ! Situés entre les deux plaques de verre, ils ont la faculté de faire pivoter, non pas les plaques, mais le rayon lumineux. Cela peut sembler étrange au premier abord, mais un rayon lumineux peut en effet être considéré comme une onde ayant une certaine orientation. Lorsque les cristaux liquides sont traversés par un courant électrique plus ou moins fort, alors l’onde lumineuse pivote proportionnellement. Ainsi, il est possible de faire traverser les deux plaques de verres par le rayon lumineux :
C’est ce principe qui permet d’afficher chacun des pixels d’un écran LCD. Il est même répété trois fois par pixel, afin de donner les trois composantes des couleurs : rouge, vert et bleu. Selon les intensités de courant électrique envoyées aux cristaux liquides des trois couleurs, il est possible d’obtenir la couleur désirée pour chaque pixel.
Ainsi, pour faire du blanc, les rayons lumineux des trois composantes de couleurs sont transmis (c’est la synthèse additive) alors que pour faire du noir, aucun rayon ne l’est.
Si j’ai bien compris, les rayons lumineux sont plus ou moins masqués selon la couleur voulue. Ils sont même complètement occultés pour faire du noir. Mais alors dans ce cas, comment peut-on encore voir quelque chose à l’écran si les rayons lumineux ne parviennent pas (ou mal) jusqu’à nos yeux ?
Vous avez très bien compris ! Cette technique nécessite un éclairage supplémentaire afin de permettre à l’utilisateur de voir le résultat : c’est le rétro-éclairage dont nous parlions tout à l’heure.
On distingue principalement trois types d’écrans LCD. Leur principe général de fonctionnement est le même, mais ils diffèrent par leurs caractéristiques.
TN : C’est les dalles les plus répandues. Elles sont très réactives (avec un temps de réponse de l’ordre de 2 ms) et relativement économique à produire. En contrepartie, elles offrent des angles de vision plus faibles que les autres types de dalles. C’est notamment l’angle de vision vertical qui en souffre le plus, en virant au blanc lorsqu’on regarde l’écran de trop haut ou au noir lorsqu’on le regarde de trop bas.
IPS : Ce sont cette fois ces dalles qui ont les meilleurs angles de vision. En revanche, elles sont moins réactives (les dernières générations sont tout de même proche des dalles TN de 2ms), ont des noirs moins profonds, consomment plus (même si cela s’améliore avec l'arrivé du rétro-éclairage à LED) et sont plus chères à fabriquer.
VA (MVA et PVA) : Enfin, ces dernières dalles se situent entre les deux autres types. C’est un compromis entre les deux.
Comme vous le voyez, ils ont chacun leur qualité et leur défaut.
Actuellement, on assiste à un retour des dalles IPS et, dans une moindre mesure, des dalles VA.
D’autres types d’écrans
Le Moyen-Age : les écrans CRT
Les plus jeunes d’entre vous ne s’en souviendront peut-être pas, mais les écrans n’ont pas toujours été aussi plats qu’aujourd’hui. Il fut un temps où les unités centrales étaient accompagnées de mammouths qui prenaient toute la place sur le bureau : les écrans CRT. Vous l’aurez compris, ces écrans sont en voie de disparition.
Sur ces écrans, une partie de la dalle est masquée par les bords de l’écran. Cela implique que la taille annoncée par les constructeurs est généralement un peu plus grande que la surface de dalle réellement visible (la différence est d’environ un pouce). Attention donc aux surprises si jamais vous… en fait il y a peu de risque que vous achetiez un tel écran. Mais si ça devait être le cas, pensez à ce petit détail. ;)
Les principes de définition, pitch, luminosité et contraste sont les mêmes que pour les écrans LCD. En revanche, la fréquence d’affichage d’un écran CRT est un point important à prendre en considération. Les écrans CRT affichent les images grâce à un système de balayage (de gauche à droite, du haut vers le bas). Si la fréquence n’est pas assez élevée, ce balayage peut provoquer un clignotement à l’écran, très gênant et pouvant provoquer des maux de têtes. Il est recommandé de ne pas descendre en dessous de 72 Hz pour éviter ce phénomène.
En fait la règle est simple : plus la fréquence d’un écran CRT est élevée, mieux c’est. ;)
Enfin, on parle rarement du temps de réponse d’un écran CRT car celui-ci est très faible. Il est même la plupart du temps inférieur à celui d’un écran LCD, quoique cela soit de moins en moins vrai avec les écrans LCD actuels.
Le futur (pas si loin que ça) : les écrans OLED
D'ici quelques années, on devrait voir apparaître un tout nouveau type de dalles, dites OLED. Comme leur nom l'indique, elles ne seront plus composées de cristaux liquides mais de LED qui ont l'avantage d'émettre leur propre lumière : il n’y a donc plus besoin de rétro-éclairage. Elles seront plus réactives et plus fines (à tel point que certains écrans pourront être souples :waw: ). L’absence de rétro-éclairage induit également un autre avantage non-négligeable : ces dalles consommeront moins d’énergie.
Bon, c’est bien beau tout ça, mais un écran ne sert à rien s’il n’est pas branché à un ordinateur ! Nous allons maintenant nous intéresser à la connectique d’un écran. Commençons par des connecteurs que vous risquez de ne plus beaucoup croiser : VGA et DVI.
Le port VGA date de 1987. C’est un type de connexion analogique dont la définition maximale est de 2048x1536. Il est généralement de couleur bleue :
Le DVI se voulait le remplaçant du port VGA. Il en existe de plusieurs types :
DVI-A : connexion uniquement analogique.
DVI-D : connexion uniquement numérique.
DVI-I : connexion analogique ou numérique.
Dual Link : connexion permettant de gérer les écrans de très haute définition (tels que les écrans de 27" en 16:9 (2.560x1.440) et de 30" en 16:10 (2.560x1.600)).
Un port DVI est généralement de couleur blanche, mais cela n’est pas systématique :
Les ports VGA et DVI sont en voie de disparition. En effet, avec l’arrivée de la HD, les ports HDMI ont fait leur apparition :
Le HDMI est une interface numérique qui, en plus de transmettre l’image, peut aussi transmettre le son. On le trouve aussi bien sur les ordinateurs que sur les écrans de télévisions HD. Il est l’équivalent numérique (et donc le remplaçant) de la célèbre et vieillissante prise péritel.
Pour la haute-définition, on trouve également le DisplayPort, lui aussi numérique, remplaçant du DVI et concurrent du HDMI :
Certains écrans haut de gamme intègrent des prises composites, composantes et audio (analogiques et/ou numériques), voir des prises USB.
Concernant les écrans CRT, on n’y trouve généralement qu'un unique port VGA. Certains modèles haut de gamme (pour les graphistes en particulier) peuvent cependant être équipés de prises BNC, qui améliorent la qualité de l'image.
Écran : Le grand nombre de caractéristiques définies dans ce chapitre aurait pu suffire pour choisir son nouvel écran. Cela dit, il faut prendre garde aux valeurs annoncées par les constructeurs ! Celles-ci sont malheureusement rarement fiables, car enjolivées pour des raisons bassement marketing. Le seul moyen fiable de juger de la qualité d'un écran reste de lire un test le concernant sur un site ou dans un magazine spécialisé. La compréhension des caractéristiques vues dans ce chapitre est primordiale pour la bonne lecture de ces tests.
Mais les constructeurs ne peuvent pas mentir sur tout ! Taille, format et définition sont par exemples des critères qui ne trompent pas. Pour la taille, c'est avant tout une question de goût personnel (et de place, aussi ;) ). Attention tout de même à ne pas privilégier la taille au détriment de la définition (à définition égale, un écran de plus grande taille aura des pixels un peu plus « gros »).
Enfin, prêtez attention à la connectique de l'écran, surtout si vous êtes intéressé par la haute définition. Niveau ergonomie, certains écrans possèdent un pied réglable en hauteur, options parfois précieuse si vous ne voulez pas avoir à réhausser votre dalle avec le bottin de l'année dernière.
Un écran d’ordinateur possède bien plus de caractéristiques que ce que l’on pourrait penser au premier abord. Il ne s’agit pas seulement de choisir sa taille et son format ! ;) Selon vos attentes, vous aurez besoin d’un écran de plus ou moins haute qualité. Le tout est de vous poser les bonnes questions selon que vous soyez graphiste, amateur de jeux vidéo ou que vous utilisiez tout simplement votre ordinateur pour la bureautique.
Dans le prochain chapitre, nous allons revenir du côté de la carte mère, et plus précisément sur ce qu’on y branche : les cartes filles.
Revenons à présent à l’intérieur du boîtier de l’unité centrale, et plus précisément au niveau de la carte mère. Dans un précédent chapitre, nous avions vu que cette dernière possédait de nombreux connecteurs internes, dont le nombre dépendait du modèle choisi. Vous en souvenez-vous ? Ces connecteurs servent notamment à brancher les cartes filles, qui vont nous intéresser dans le présent chapitre.
Si le rôle de la carte mère ne varie pas quel que soit le modèle (il s’agit toujours d’une grande plaque accueillant les autres composants de l’ordinateur), la donne n’est pas la même pour les cartes filles : il en existe plusieurs types, aux rôles bien définis. On parlera ainsi de carte graphique, de carte réseau, de carte tuner, etc. Elles ont chacune une fonctionnalité spécifique. Si elles sont toutes regroupées sous le terme de « carte fille », c’est avant tout pour leur dépendance vis-à-vis de la carte mère, à laquelle elles sont toutes branchées.
Au cours de ce chapitre, nous parlerons donc des cartes filles les plus courantes : cartes son, cartes réseau, cartes contrôleur, cartes tuner… Et pour commencer, les cartes à mettre en relation avec le chapitre précédent : les cartes graphiques.
Lorsqu’on utilise un ordinateur, nous avons les yeux rivés sur l’écran. Ce dernier est l’interface principale permettant à l’ordinateur de transmettre des informations à l’utilisateur. Ainsi, il n’est rien de plus naturel pour nous que de déplacer une fenêtre d’explorateur de fichiers, de lancer un jeu, de regarder un Blu-Ray, etc. Toutes ces images qui apparaissent à l’écran sont générées par l’ordinateur qui, comme vous le savez, travaille avec des 0 et des 1. Le rôle de la carte graphique est alors de transformer ces 0 et 1 en données graphiques, puis de les envoyer à l’écran.
De nos jours, les cartes graphiques font même beaucoup plus ! En effet, elles ont également pour tâche de procéder à de très nombreux calculs de rendu quand cela est nécessaire. C’est notamment le cas dans les jeux vidéo actuels ou pour les logiciels de modélisation et d’animation 3D (3DSMax, Blender, LightWave, Maya, etc.). La carte graphique sera également sollicitée lors de l'application de filtres dans des logiciels de traitement d’images 2D (Photoshop, Gimp, etc.), l'affichage de certains éléments de Windows (notamment les thèmes « Aero », apportant la transparence aux fenêtres), certains calculs mathématiques poussés, le décodage de certains formats vidéos, etc.
Si vous êtes intéressé par l’une de ces applications, alors il vous faut porter une attention toute particulière au choix de la carte graphique. Je vais même aller plus loin : la carte graphique est alors l’un des éléments les plus importants de votre configuration ! Il n’est donc pas étonnant de voir le prix de la carte graphique grimper à 20 ou 25% du prix total de votre PC ! :waw: Joueurs, vous êtes donc prévenus : ne sous-estimez pas le choix de votre carte graphique !
En revanche, si la principale utilisation que vous faites de votre ordinateur est la bureautique ou la navigation sur le Web, alors la carte graphique ne sera pas primordiale. Vous pourrez même vous contenter de la carte graphique intégrée de base à la carte mère. Celle-ci est souvent très basique, mais après tout, si vous n’avez pas de besoins particuliers en terme d’affichage, alors pourquoi se ruiner ?
La carte graphique est une carte fille complexe, dotée de plusieurs composants importants. Nous allons en décrire quelques uns.
Composants de la carte graphique
Carte « fille » ne veut pas dire carte « basique ». La carte graphique possède plusieurs composants très importants, à commencer par son propre processeur : le GPU.
Le GPU (Graphics Processing Unit)
On l’a vu plus tôt, le processeur (ou CPU) est un des éléments les plus importants de l’ordinateur : il s’occupe de tous les calculs nécessaires au fonctionnement du système. Tous ? Non ! Car un village peuplé d'irréductibles cela est parfois trop pour lui. Il s’aide donc du processeur de la carte graphique, le GPU, pour tous les calculs spécifiques à l’affichage.
L’intérêt est double. D’une part, le GPU soulage la charge de travail du CPU. En effet, on travaille plus efficacement à deux que tout seul. D’autre part, le GPU est spécialisé dans les calculs graphiques. C’est un peu comme dans la cuisine d’un restaurant : le cuisinier est capable de réaliser la plupart des plats, mais les clients sont bien plus satisfaits quand il est aidé par un spécialiste des desserts. Ce dernier ne s’occupe peut-être que des desserts, mais il s’en occupe très bien ! Et cela laisse du temps au cuisinier « principal » pour la préparation des plats.
Tout comme le CPU, le GPU a tendance à chauffer. Il est donc généralement accompagné d’un radiateur, voire d’un ventirad (si vous avez bien suivi le chapitre sur la carte mère, vous devriez savoir de quoi il s’agit ;) ).
La mémoire
Certaines images sont parfois très complexes, notamment les images 3D. Pour les générer, le GPU doit faire plusieurs « passes » afin d’ajouter les éléments les uns après les autres. Par exemple, le GPU doit être en mesure d’ajouter les textures à une image 3D, c’est-à-dire d’appliquer à chaque élément les couleurs ou habillages (une texture « brique » sur le mur d’une maison, etc.). Parfois, les textures elles-mêmes nécessitent de nombreux calculs avant d’être applicables. Avant de pouvoir être utilisés dans l’image, tous les éléments de l’image déjà constitués sont donc stockés dans la mémoire vidéo de la carte graphique. Ainsi, plus la quantité de mémoire est importante, plus la carte graphique pourra gérer un nombre important de textures ou des textures composées de plus de pixels.
La mémoire sert également à constituer les éléments d’une image pendant qu’une autre est affichée à l’écran (on parle de framebuffer). Tout cela doit aller extrêmement vite ! Il est hors de question pour l’utilisateur d’attendre que sa carte graphique construise chaque image de son jeu ou de son film. La mémoire sert donc de tampon, permettant de calculer les images aussi rapidement que nécessaire.
Il existe plusieurs types de mémoires vidéo. Les plus courants actuellement sont les GDDR2, GDDR3 et GDDR5 (la GDDR4 a été très vite remplacée par cette dernière). La GDDR2 équipe principalement les cartes graphiques d’entrée de gamme mais tend à être remplacée par la GDDR3. La GDDR5 quant à elle, est la plus performante et devient petit à petit la norme.
Les autres composants utiles
Une carte graphique est faite de beaucoup d’autres composants, parmi lesquels le RAMDAC et le BIOS vidéo.
Le RAMDAC est un convertisseur numérique-analogique. Il transforme les données numériques produites par le GPU en données analogiques pouvant être affichées à l’écran. Avec l’arrivée des ports numériques tels que le DVI, le RAMDAC est devenu inutile : le GPU peut envoyer à l’écran les données numériques directement.
Tout comme le BIOS de la carte mère, le BIOS vidéo contient quant à lui les informations nécessaires au fonctionnement de la carte graphique (modes d’affichage supportés, etc.) et à son démarrage.
La connectique
Sur les vieux PC (pardon, les PC d’un certain âge) la carte graphique était branchée à la carte mère via un port AGBP 8x, voire un port PCI (si vous ne vous souvenez plus de leur frimousse, je vous invite à relire le passage concerné dans le chapitre de la carte mère). Aujourd’hui, elle se connecte sur un port PCIe x16 :
Pour les PC portables, on peut trouver des cartes graphiques externes se branchant sur un port USB.
Une fois la carte graphique branchée, celle-ci offre plusieurs connecteurs externes, que nous avons vus dans le chapitre traitant de l’écran : VGA, DVI, HDMI ou encore Display Port (ces deux derniers étant les ports que l’on trouvera de plus en plus dans les années à venir).
N’avez-vous jamais été averti par un magnifique ♫ DING ♪ qu’une erreur était survenue dans votre système ? Ou peut-être utilisez-vous votre ordinateur pour écouter de la musique, regarder un film, ou même pour communiquer de vive voix avec vos proches ? Bref, les applications « sonores » ne manquent pas ! Mais la carte son ne sert pas uniquement à émettre du son, elle a également pour tâche de le recevoir (avec l’aide d’un micro bien entendu).
Bonne nouvelle : si vous avez une carte mère, vous avez déjà une carte son ! En effet, les cartes mères actuelles intègrent toutes le nécessaire à l’émission et à la réception du son.
Sans vouloir passer pour le radin de service, pourquoi dépenser plus pour une carte son dédiée ? Y a-t-il un véritable intérêt comme pour les cartes graphiques ?
La réponse est… oui et non. Comme toujours, tout dépend de vos attentes.
Si vous êtes un joueur invétéré, il se peut que dans certains cas (néanmoins rares) une carte son performante vous permette d’obtenir une meilleure spatialisation des sons. Autrement dit, vous pourrez plus facilement repérer un son provenant d’une autre pièce que celle où se trouve votre personnage.
Si vous êtes passionné de musique (vraiment passionné), une bonne carte son vous procurera une meilleure qualité d’écoute.
Si vous décidez de faire de votre PC un Home Cinema, vous aurez besoin d'une carte son compatible 5.1 ou 7.1 (nous reviendrons sur ces termes dans un prochain chapitre).
Enfin, si vous êtes intéressé par la création audio (artiste, ingénieur du son, etc.), alors il faudra vous tourner vers des cartes son professionnelles. Ces cartes peuvent être internes ou externes.
L’installation d’une carte son a un autre inconvénient que son prix (même si ce n’est pas le composant le plus dispendieux) : elle occupe un port supplémentaire. Cela peut être un port PCI, un port PCIe ou même un port USB. Dans tous les cas, si vous êtes en pénurie de ports, la carte son n’est pas forcément à privilégier. L’apport d’une carte son dédiée (par rapport à la carte son intégrée à la carte mère) n’est pas aussi flagrant que pour les cartes graphiques.
Pour que votre ordinateur puisse échanger avec le reste du Monde, il a besoin d’une interface réseau. Ce « reste du Monde » peut être le réseau local de votre maison (afin d’échanger des photos avec l’ordinateur d’un ami par exemple), le réseau de votre entreprise (pour imprimer un document sur la photocopieuse du bout du couloir) ou bien le Monde tout entier lorsqu’il s’agit d’Internet. De nos jours, un ordinateur sans interface réseau (filaire ou non) se trouve bien esseulé.
Les cartes Ethernet
La méthode la plus courante pour relier un ordinateur à un réseau est sans doute l’utilisation d’un câble Ethernet :
La plupart des cartes mères récentes sont équipées d’une puce gérant le protocole Ethernet à des débits pouvant aller jusqu’à 1.000 Mbps (Gigabit Ethernet). Ainsi, il est de moins en moins fréquent d’utiliser une carte dédiée. Toutefois, vous ne pourrez pas y couper si vous souhaitez atteindre des débits de 10 Gbps (10 Gigabit Ethernet) ou supérieurs.
Dans le cas où vous choisissez l’installation d’une carte réseau dédiée, cette dernière sera à placer dans un port PCI ou PCIe.
Les cartes Wi-Fi
Quelques mots sur le Wi-Fi
Avec un fil, c’est bien. Sans fil, c’est mieux ! Le Wi-Fi est une variante du protocole Ethernet, spécialement conçue pour être utilisée sans fil (Wi-Fi est d’ailleurs la contraction de « Wireless Fidelity », soit « fidélité sans fil »). Ainsi, plus besoin de ce pénible câble toujours trop court et bien contraignant lorsqu’il s’agit de traverser une cloison. « Wi-Fi » est le sympathique nom donné à la norme, mais son véritable nom est 802.11.
Il existe des cartes mères pourvues d’une puce Wi-Fi mais cela est encore rare, au moins pour les PC de bureau (les cartes mères des ordinateurs portables récents en sont de plus en plus souvent équipées). L’utilisation du Wi-Fi passe donc la plupart du temps par l’installation d’une carte fille, branchée en PCI ou PCIe.
Avoir une interface Wi-Fi n’empêche en rien d’avoir une interface Ethernet, les deux peuvent très bien cohabiter. D’ailleurs, sauf cas particuliers, un ordinateur équipé d’une interface Wi-Fi est aussi équipé d’une carte Ethernet. L’ordinateur peut alors être connecté au réseau de deux façons différentes, selon votre choix ou bien les possibilités qui s’offrent à vous. Un ordinateur peut même avoir deux interfaces Ethernet ! Cela ne le gêne absolument pas.
C:\Users\Matthieu>ipconfig /all
Configuration IP de Windows
Nom de l'hôte . . . . . . . . . . : SHIGERUM-PC
Suffixe DNS principal . . . . . . :
Type de noeud. . . . . . . . . . : Hybride
Routage IP activé . . . . . . . . : Non
Proxy WINS activé . . . . . . . . : Non
Carte Ethernet Connexion au réseau local :
Statut du média. . . . . . . . . . . . : Média déconnecté
Suffixe DNS propre à la connexion. . . :
Description. . . . . . . . . . . . . . : Atheros AR8132 PCI-E Fast Ethernet Controller (NDIS 6.20)
Adresse physique . . . . . . . . . . . : BC-AE-C5-A0-CD-BB
DHCP activé. . . . . . . . . . . . . . : Oui
Configuration automatique activée. . . : Oui
Carte réseau sans fil Connexion réseau sans fil :
Statut du média. . . . . . . . . . . . : Média déconnecté
Suffixe DNS propre à la connexion. . . :
Description. . . . . . . . . . . . . . : Broadcom 802.11n Network Adapter
Adresse physique . . . . . . . . . . . : 48-5D-60-A8-90-C3
DHCP activé. . . . . . . . . . . . . . : Oui
Configuration automatique activée. . . : Oui
On distingue bien les deux interfaces réseau, filaire (« Carte Ethernet ») ou non (« Carte réseau sans fil »), ainsi que leurs adresses MAC.
Différentes normes
La norme 802.11 est la norme Wi-Fi de base. Comme toute norme, la 802.11 a évolué (et continue d'évoluer) et de nombreuses variantes ont vu le jour. Ces variantes ont pour but d’améliorer les débits, de régler des problèmes de sécurité, etc. Les normes les plus courantes aujourd’hui sont les suivantes :
802.11b : débit théorique de 11 Mbps (6 Mbps réels) sur la bande de fréquences de 2,4 GHz avec une portée maximale de 300 m.
802.11g : débit théorique de 54 Mbps (25 Mbps réels) sur la bande de fréquences de 2,4 GHz. C’est la norme la plus répandue dans le commerce.
802.11n : débit théorique de 300 Mbps (100 Mbps réels) sur la bande de fréquences de 2,4 GHz et/ou de 5 GHz avec une portée maximale de 100 m. C’est la norme la plus récente.
Dans tous les cas, la compatibilité ascendante est respectée. Cela signifie qu'un appareil fonctionnant avec une norme 802.11 récente sera toujours capable de communiquer avec un appareil de norme plus ancienne.
Les prises CPL
Mis à part le Wi-Fi, il existe un autre moyen de s’affranchir des câbles pour monter un réseau informatique. Il consiste en l’utilisation d’un autre réseau déjà présent dans la maison, le réseau électrique, et de prises CPL :
Ces prises ne sont pas des cartes filles, dans le sens où elles ne se branchent pas directement sur la carte mère, mais sur une prise de courant classique de la maison. Ainsi, chaque prise CPL peut devenir un point d’entrée du réseau informatique. Voyons un exemple.
Imaginons que votre MODEM (ou votre routeur, box, etc.) se trouve dans le salon et que le but du jeu est d’amener le réseau informatique dans la chambre qui se situe à l’étage. Une première méthode serait de faire courir un câble Ethernet dans les escaliers, mais cela n’est ni très pratique, ni très esthétique. Autre méthode : les prises CPL. Une première prise CPL est reliée au routeur situé à quelques centimètres d'elle (grâce à un câble Ethernet) et est branchée sur le secteur. A l’étage, une seconde prise CPL est elle aussi branchée sur une prise de courant classique et est cette fois reliée à l’ordinateur de la chambre (toujours avec un câble Ethernet). Le réseau informatique est alors « porté » par le réseau électrique, du salon à la chambre. Cette méthode nécessite un peu plus de matériel, mais a le mérite d’éviter qu’un très long câble Ethernet ne traverse toute la maison.
Les prises CPL permettent de s'affranchir des encombrants fils qui parcourent la maison.
Les 1ers boîtiers permettaient des débits pouvant aller jusqu'à 85 Mbps mais aujourd'hui, les débits moyens se situent dans les 200 Mbps et peuvent même monter jusqu'à 500 Mbps. Les prises CPL ont donc un avantage non négligeable par rapport au Wi-Fi : le débit est meilleur.
Une carte graphique permet l’ajout d’un connecteur graphique, une carte son permet l’ajout d’un connecteur audio, une carte réseau permet l’ajout d’un connecteur réseau, une carte… Enfin bref, je crois que vous avez compris. Le principe est le même pour les cartes contrôleurs, qui permettent d’ajouter des contrôleurs, bien souvent à destination de périphériques de stockage.
Par exemple, on utilisera une carte contrôleur SATA sur de vieilles cartes mère n’étant pas équipées de base par ce type de port. L’inverse est également possible : on peut très bien vouloir brancher un disque dur en IDE sur une carte mère récente ne disposant que de connecteurs SATA. Si un connecteur USB est endommagé ou bien si l’on souhaite profiter des débits de l’USB3, on se tournera là encore vers une carte contrôleur adéquate.
Les cartes tuner
On l’a vu dans le chapitre précédent : les écrans d’ordinateur et les écrans de télévision ont tendance à converger (si on exclut la taille gigantesque des derniers écrans de Home Cinema). Dans ces conditions, pourquoi ne pas faire de votre ordinateur une télévision à part entière ? Parce qu’il n’a pas de tuner TV peut-être ? Qu’à cela ne tienne, les cartes tuner sont là pour ça !
Mais avant tout, qu’est-ce qu’un tuner au juste ? Un tuner, c’est d’abord un appareil permettant d’exclure un certain nombre de plages de fréquence qui ne nous intéressent pas. Typiquement, un tuner TV ne s’intéressera qu’aux fréquences… TV. Idem pour un tuner audio, qui ne retient que les ondes radio. Dans tous les cas, un tuner peut être analogique (TV hertzienne traditionnelle), numérique (TNT) ou bien les deux à la fois (on parle de tuner hybride).
Les cartes tuner à destination d’ordinateurs peuvent être connectées sur un port USB ou bien en interne, sur un port PCI/PCIe. Pour les ordinateurs portables, on trouvera plus fréquemment des cartes au format PCMCIA.
Certaines cartes tuner sont accompagnées d’une petite télécommande, de quoi transformer votre PC en véritable télévision ou radio.
Carte graphique : Tout d’abord, une carte graphique dédiée n’est pas forcément utile si vous n’utilisez votre ordinateur que pour le surf ou la bureautique (auquel cas la carte graphique intégrée à la carte mère suffit). En revanche, il faut se poser la question de son achat si vous jouez ou utilisez des applications graphiques (2D ou 3D). Premier critère bête et méchant permettant de juger de la qualité d’une carte graphique : son prix. On dit souvent que celui-ci doit être à hauteur de 20 ou 25% du coût total de votre configuration. Outre les critères de puissance, il faudra porter une attention particulière au bruit et à la consommation électrique (parfois excessive) de la carte graphique que vous choisirez. Deux constructeurs se partagent le marché : Nvidia (GeForce*) et AMD (Radeon*).
Carte son : L’apport d’une carte son dédiée n’est pas toujours perceptible par une oreille non-entraînée. L’achat d’une telle carte ne sera donc utile que pour les professionnels de la création audio ou les grands passionnés de musique. Dans la plupart des cas, la carte son intégrée à la carte mère est amplement suffisante.
Carte réseau : Tout comme la carte son, il est assez rare de devoir se procurer une carte réseau (Ethernet) dédiée. Cela peut néanmoins être le cas si vous avez besoin de débits élevés, à partir de 10 Gbps. Le Wi-Fi étant rarement intégré aux cartes mères des PC de bureau, vous devrez probablement vous équiper d'une carte dédiée si vous souhaitez profiter de cette technologie.
Carte contrôleur : Les cartes contrôleurs sont utiles pour ajouter un connecteur absent de votre configuration ou bien en remplacer un défectueux (ports USB, SATA, IDE, etc.).
Carte tuner : Une carte tuner est utilisée pour recevoir la télévision (ou la radio) sur votre ordinateur. Il faudra vous poser la question de ce que vous souhaitez recevoir : signal numérique (TNT), signal analogique (Hertzien) ou bien les deux. Encore une fois, c’est d’abord vos besoins qui dicteront l’achat ou non d’une telle carte.
En voilà des cartes ! Il y en a pour tous les sens : la vue (carte graphique), l’ouïe (carte son),… Bon, les autres cartes filles ne correspondent pas à des sens « humains ». Mais vous avez compris le principe : ces cartes sont primordiales pour l’ordinateur. Si ce n’est pas par le biais d’une carte fille dédiée, ces fonctionnalités doivent être gérées par la carte mère elle-même (je pense notamment aux cartes son ou réseau).
Dans le prochain chapitre, nous allons parler de…
Mince, j’ai oublié…
Ah si, ça me revient ! Nous allons parler de la mémoire de l’ordinateur.
Plus tôt dans ce tutoriel, nous mettions en parallèle la capacité de réflexion du cerveau humain avec les calculs du CPU. Mais nous avions mis de côté une autre faculté du cerveau : sa capacité à mémoriser des informations. Sans mémoire, nous ne pourrions aller bien loin (parlez-en à mon poisson rouge). De la même façon, un ordinateur sans mémoire n’aurait pas beaucoup d’intérêt. Imaginez devoir recommencer un rapport de stage ou une partie de jeu vidéo à chaque fois que vous arrêtez votre ordinateur (les joueurs de Star Fox 64 comprendront de quoi je veux parler).
Nous avons déjà rapidement abordé la mémoire morte (ROM) dans le chapitre traitant de la carte mère, nous ne reviendrons donc pas ici sur ce type de mémoire très particulier. Nous nous intéresserons plutôt à d’autres types de mémoire : la mémoire vive et la mémoire de masse. La première représente les données en cours de traitement. La seconde sert à sauvegarder des données sur le long terme (fichiers systèmes, documents, photos, musiques, etc.), que ce soit en interne sur le disque dur ou sur des périphériques externes.
Les différentes mémoires d’un ordinateur prennent donc une place très importante dans sa configuration. Elles vont nous occuper tout au long de ce chapitre.
Vous souvenez-vous de ces jours de contrôles de Maths à l'école ? Après de longues révisions, la veille ou juste avant de rentrer dans la salle d'examen, votre tête était pleine de formules et de théorèmes ! Seulement sitôt l’épreuve terminée, vous aviez tout oublié. Impossible de vous faire réciter les fameux théorèmes… En fait, vous n’aviez gardé en mémoire que ce dont vous aviez besoin, au moment où vous en aviez besoin. Vous n’aviez pas rangé les théorèmes dans les mêmes « cases » de votre cerveau que votre numéro de téléphone ou que les souvenirs de vos dernières vacances.
Alors bien sûr, un ordinateur ne fonctionne pas exactement comme le cerveau humain mais l’idée est là. La mémoire vive, appelée également RAM, est utilisée pour les traitements en cours de l’ordinateur : fonctionnement du système d’exploitation, programmes lancés, etc. Par exemple, quand vous utilisez un logiciel de traitement de texte, la mémoire vive stocke les données nécessaires au fonctionnement du programme ainsi que votre travail en cours. Ce n’est qu’au moment où vous enregistrez votre document que ce dernier est sauvegardé sur le disque dur (c'est-à-dire la mémoire de masse, dont nous parlerons tout à l’heure).
La mémoire vive se présente sous forme d’une ou plusieurs barrettes, des circuits imprimés équipés de puces de mémoire. C’est une mémoire dite volatile, ce qui signifie qu’elle s’efface complètement lorsqu’elle n’est plus alimentée en courant électrique. C’est pour cette raison que vous perdez tout votre travail en cours si le réseau électrique a le bon goût de vous jouer des tours. :waw:
Si je comprends bien, la mémoire vive est un peu comme la mémoire du disque dur, sauf qu’elle s’efface à chaque fois que j’arrête l’ordinateur. C’est un peu dommage… Pourquoi ne pas utiliser le disque dur pour la mémoire vive ? Ainsi, plus de problème de coupure de courant !
La mémoire vive possède un autre atout considérable sur les disques durs classiques : elle est beaucoup plus rapide. Cela permet au processeur d’accéder très vite aux données dont il a besoin. Un disque dur étant très lent (nous le verrons dans quelques minutes), il ferait attendre le CPU à chacune de ses requêtes, ce qui ralentirait considérablement le système.
Caractéristiques importantes
La capacité
La quantité de mémoire vive est le premier critère à regarder lors de l'achat de barrettes de mémoire vive. C’est aussi le plus important. Aujourd’hui, le standard est de 4 Go, minimum. Le prix des barrettes n’étant pas excessif, il serait dommage de viser en dessous. Au-delà de 4 Go, votre OS devra nécessairement être en 64 bits (et non 32). Si vous souhaitez un peu plus de confort et avoir le temps de voir venir, vous pouvez pousser jusqu’à 8 Go, mais il est inutile d’aller bien au-delà.
Pour être utilisée, la mémoire est gérée par un contrôleur mémoire, inclus dans le processeur. Aujourd’hui, tous fonctionnent en « Dual Channel », ce qui leur permet d’accéder à deux barrettes en parallèle et ainsi de réduire les temps d’accès globaux. Ainsi, il est plus avantageux de se doter de deux barrettes de 2 Go plutôt que d’une seule barrette de 4 Go. C’est également pour cette raison que vous avez tout intérêt à choisir deux barrettes de même marque et même modèle. En effet, si les temps d’accès varient (ce qui est fatalement le cas si les marques sont différentes), les accès à la plus lente « brideront » les accès à la plus rapide.
Les timings
Au sein d’une barrette de mémoire, les données sont enregistrées dans des cases mémoires. Ces cases sont disposées en lignes et en colonnes. Ainsi, pour connaître le contenu d’une case mémoire, le contrôleur mémoire doit connaître ses numéros de ligne et colonne puis y accéder. Cela prend un certain temps, défini par ce qu’on appelle les timings de la mémoire vive.
Les timings sont au nombre de quatre et représentent des temps d’accès précis dans la mémoire :
CAS delay ;
RAS to CAS delay ;
RAS active time ;
RAS Precharge Time.
Dans les caractéristiques d’une barrette de mémoire, vous les trouverez notés séparément, ou bien sous forme de listes, telles que 9-9-9-24 ou 7-8-7-24.
Il n’est pas primordial de connaître précisément la définition de chacun des timings pour choisir sa barrette de mémoire vive. Une chose est sûre, comme ce sont des temps d'accès, ils doivent être le plus petits possible. Cela dit, il faut bien reconnaître que ces valeurs ne sont pas primordiales pour les performances de vos barrettes.
A quoi ça ressemble, la RAM ?
Le format
Il existe plusieurs formats de barrettes de mémoire, mais aujourd’hui les deux plus répandus sont le DIMM et le SO-DIMM. Le premier est à destination des PC de bureau, le second est quant à lui utilisé pour les ordinateurs portables.
Certaines barrettes de mémoire vive sont équipées de radiateurs, leur permettant de refroidir plus rapidement. Il existe même des modèles haut de gamme pourvu de ventilateurs ! Mais à ce niveau-là, je pense qu’on peut parler de « fioritures ». ;)
Le type
Il existe plusieurs types de RAM. La mémoire qui nous intéresse ici est la SDRAM, à mettre en opposition à la VRAM, utilisée dans les cartes graphiques. La VRAM n'a strictement rien à voir avec la SDRAM, il n'y a donc aucun lien à faire entre la carte graphique et la mémoire vive.
Au sein des mémoires SDRAM, on distinguera principalement la DDR2-SDRAM de la DDR3-SDRAM. La DDR2 est en fin de vie et est donc à éviter au profit de la plus récente DDR3, qui améliore les performances tout en consommant moins d'énergie. :soleil:
Comme je le disais plus haut, la mémoire vive est à mettre en opposition à la mémoire de masse. Cette dernière est non-volatile (les données persistent même sans alimentation électrique) et bien plus lente que la RAM. Son représentant le plus courant est bien sûr le disque dur, que l'on abrège très souvent HDD.
Le disque dur sert ainsi de mémoire « à long terme » des données contenues dans l'ordinateur. C’est lui qui stocke vos documents, photos, musiques, vidéos, etc. Il contient également les fichiers systèmes de votre OS (système d'exploitation).
Structure et fonctionnement d’un disque dur
Structure globale
Un disque dur est composé de plusieurs plateaux superposés, tournant autour d’un même axe. Les données sont stockées sur l’une des deux faces de chaque plateau ou bien sur les deux selon les modèles. Pour lire ou écrire sur ces plateaux, le disque est équipé de têtes de lecture/écriture, une par face de plateau utilisée. S’il y a trois plateaux double-faces par exemple, il y aura donc six têtes.
Les têtes se déplacent sur un arc de cercle à la surface des plateaux. Ce mouvement combiné à celui de la rotation des plateaux permet aux têtes d’accéder à la totalité de la surface inscriptible.
L’espace entre une tête de lecture et son plateau est extrêmement petite : environs 10 nanomètres (soit mètre). Pour vous donner un ordre d’idée, un cheveu a un diamètre d’environ 50 micromètres (soit mètre). Un cheveu est donc environ 5000 fois plus épais que l’espace entre une tête et son plateau ! Vous imaginez donc bien l’effet dévastateur d’une poussière qui se promènerait sur un plateau… Mais pas d’inquiétude, les disques durs sont protégés et hermétiques. Ils restent fragiles bien sûr, mais on peut tout de même les manipuler normalement sans aucun problème.
Pistes, secteurs, cylindres et clusters
Les têtes ne sont pas indépendantes les unes des autres. Elles se déplacent toutes en même temps, sur le même arc de cercle, et sont ainsi toujours superposées les unes aux autres.
C’est bête, chaque tête devrait pouvoir se déplacer de façon autonome et ainsi lire ou écrire une section différente du disque. Pourquoi n’est-ce pas le cas ?
Tout simplement parce que les données sont inscrites sur le disque d’une façon tout à fait particulière, un petit morceau de fichier sur chaque plateau. Pour bien comprendre, je dois vous présenter la façon dont sont découpés les plateaux du disque.
Tout d’abord, chaque plateau est composé de pistes, que l'ont peut considérer comme des cercles concentriques. Chaque piste est à son tour divisée en petites sections, appelées secteurs, que l’on peut voir cette fois comme des arcs de cercle.
Voilà pour le découpage d’un plateau. Mais comme nous l’avons vu tout à l’heure, un disque contient plusieurs plateaux superposés. Je fais donc appel à vos souvenirs de géométrie et vous pose la question : que forment des cercles empilés les uns au-dessus des autres ? Vous avez trouvé ? Des cylindres bien sûr ! C’est ainsi qu’on appelle la section d’un disque dur formée par les pistes « voisines » (en hauteur) sur les différents plateaux.
Le regroupement d’un certain nombre de secteurs forme ce qu’on appelle un cluster (ou bloc). Ce nombre dépend du système de fichier utilisé pour formater le disque dur (ou une partition de celui-ci).
Le bloc est la plus petite unité de stockage d’un système de fichier. Autrement dit, du point de vue du système de fichiers, un fichier enregistré sur le disque occupe nécessairement au moins un bloc, même s’il est plus petit que la taille d’un bloc.
Prenons l’exemple d’un système de fichiers quelconque dont la taille de bloc serait de 4 ko. Un fichier de 13 ko occupera alors quatre blocs :
trois blocs « pleins » (4 ko chacun) ;
et un bloc « partiellement rempli » (1 ko sur les 4 possibles).
Au final, nos 13 ko sont répartis sur les 16 ko disponibles, 3 ko sont donc perdus. Cette perte est normale et est fort heureusement négligeable à l'usage grâce aux algorithmes des systèmes de fichiers actuels, mais il est toujours bon de la connaître. ;)
Caractéristiques importantes
Tournent les plateaux !
La structure d’un disque dur est impressionnante. Elle l’est d’autant plus quand on sait que tout cela est en rotation à une vitesse très élevée ! En effet, les plateaux sont en continuelle rotation lors du fonctionnement d’un disque dur. Ils le sont à une vitesse constante, appelée vitesse de rotation, exprimée en tours par minute (tpm ou rpm, c’est la même chose).
Cette vitesse est une des caractéristiques les plus importantes des disques durs car plus elle est élevée, plus l’accès aux données (en lecture ou en écriture) sera rapide. En effet, les têtes de lecture/écriture doivent régulièrement « attendre » que les plateaux arrivent dans la bonne position pour pouvoir accéder aux données. S’ils tournent plus vite, les têtes attendent moins longtemps. Logique.
Aujourd’hui, on distingue principalement deux vitesses de rotation : 5400 ou 7200 tours par minutes. Les disques en 7200 rpm sont bien sûr à privilégier pour des accès plus rapides.
Attention cependant à un point : qui dit vitesse de rotation plus élevée dit aussi usure plus rapide. Un disque en 7200 rpm risque donc (même si c'est à relativiser bien évidemment) de tomber en panne plus rapidement qu'un 5400 rpm. Si votre disque doit contenir des données importantes, il peut être préférable d'opter pour un disque moins rapide mais plus robuste. Quoi qu'il en soit, faire des sauvegardes est toujours nécessaire ! ;)
Format, densité surfacique et nombre de plateaux
S’il y a une caractéristique simple concernant les disques durs, c’est bien le format ! Il n’y a pas trente-six solutions mais principalement deux : 2,5" ou 3,5" (le format se mesure en pouces). Les disques durs 2,5" sont destinés aux ordinateurs portables alors que leurs grands frères sont utilisés pour les PC de bureau. On trouve également des disques de 1,8" mais ils sont utilisés dans des cas bien particuliers (tels que les baladeurs). Bref, les disques les plus petits pour les appareils les plus petits, c’est logique, c’est simple. ^^
Une autre caractéristique importante est indirectement liée au format : la densité surfacique. Cette dernière détermine la quantité de données par unité de surface. Autrement dit, plus la densité surfacique est élevée, moins les têtes de lecture/écriture ont besoin de se déplacer pour accéder aux données. Il faut donc qu’elle soit le plus élevée possible.
La densité surfacique est donc le ratio entre la quantité de données et la surface de disque. À format et capacité égaux, on pourrait donc imaginer que la densité surfacique est constante selon les disques. Mais c'est sans compter un paramètre souvent oublié : le nombre de plateaux. En effet (toujours à format et capacité égaux), plus le nombre de plateaux sera élevé, plus la densité surfacique sera faible. Les données sont d’avantages « éparpillées » sur le disque s’il dispose de trois plateaux, plutôt que de deux. Cela implique que les têtes ont plus de travail et que par conséquent, le disque est moins rapide.
Mémoire cache
Mais même avec une densité surfacique très élevée, le disque dur reste un élément mécanique et par conséquent très lent. Cela est fortement pénalisant, notamment pour le fonctionnement du système d’exploitation qui accède en permanence à plusieurs petits fichiers. Faire se déplacer les têtes de lectures pour ces fichiers à chaque fois qu’ils sont sollicités rendrait le système trop peu réactif. Pour pallier à ce problème, la plupart des disques durs possèdent une petite mémoire cache, capable de stocker les données les plus souvent utilisées.
Cette mémoire est électronique (ce n’est donc pas la tête de lecture qui s’en occupe) et donc très rapide. Ainsi, les petits fichiers fréquemment utilisés sont toujours sous le coude du disque dur, qui peut laisser les têtes de lecture vaquer à leurs occupations. Aujourd’hui, la plupart des disques durs possèdent une mémoire cache de 32 Mo, voir 64 Mo. Dans les faits, au-delà de 16 Mo, le gain de réactivité est négligeable. Ce n’est donc pas un critère de la plus haute importance lorsque l’on choisit son disque dur. ;)
Capacité
Enfin (et surtout), la capacité du disque dur est bien sûr un critère important. 250 Go, 500 Go, 1 To (soit 1000 Go)… vous trouverez des disques durs de toutes les tailles ! Bien sûr, au sein d’une même gamme, le prix augmente avec la capacité. Attention tout de même, au-delà de 3 To, à ce que votre système d’exploitation soit capable de gérer une telle quantité de mémoire (avec Windows, il vous faudra par exemple Vista au minimum).
Connectiques et débits
Comment SATA aujourd’hui ?
Nous en parlions dans le chapitre sur la carte mère, deux connecteurs principaux existent pour brancher un disque dur : IDE (également appelé ATA ou PATA) et SATA. Les ports IDE impliquent la présence de larges nappes gênant la circulation de l’air dans l’unité centrale (et donc limitant le refroidissement des composants). De plus, leur débit théorique est plus faible que celui des ports SATA. Tout cela fait donc que l’on assiste aujourd’hui à une disparition progressive des ports IDE au profit des ports SATA.
Il existe principalement trois normes SATA, sobrement nommées SATA I, SATA II et SATA III. Ce sont des évolutions successives de la norme, ayant pour but (entre autres) d’améliorer le débit, c’est-à-dire la quantité de données pouvant être lue ou écrite par seconde.
Norme
Débit théorique / débit réel (Mo/s)
SATA I
187 / 150
SATA II
350 / 300
SATA III
700 / 600
Pour information, le débit théorique maximum en IDE (ATA-7, dernière norme en date) était de seulement 133 Mo/s. Vous voyez la différence. Plus rares, on trouve également des disques durs en SCSI (débits jusqu'à 64 Mo/s) ou SAS (jusqu'à 600 Mo/s).
Alimentation électrique
Pour fonctionner, un disque dur a besoin d’une alimentation électrique. Celle-ci est assurée par le boîtier d’alimentation, que nous verrons dans un prochain chapitre. Pour l’instant, nous allons nous contenter de voir les connecteurs utilisés pour alimenter le disque dur.
Pour les disques en IDE, on utilise une prise MOLEX, branchée à côté du port IDE :
Pour les disques en SATA, l’alimentation électrique est faite en… SATA. Oui, les ports utilisés pour les données et l’alimentation sont définis par la même norme et ont ainsi le même nom. Pour les différencier, le port d’alimentation est plus large que celui des données. Voici un petit schéma résumant les choses :
Certains disques en SATA disposent également d’une prise MOLEX, comme on peut le voir ci-dessus, afin de pouvoir être utilisés avec un boîtier d’alimentation ne proposant que des connecteurs MOLEX. Il existe toutefois des adaptateurs MOLEX → SATA si besoin.
Ne trouvez-vous pas cela incroyable qu’à notre époque il reste des parties mécaniques dans nos ordinateurs, telles que les têtes de lecture/écriture des disques dur ? Comme nous venons de le voir à l’instant, ces parties forcément « lentes » sont de véritables goulets d’étranglement dans le fonctionnement du système. Eh bien vous n’êtes pas seuls à penser cela ! Voilà pourquoi a été inventé un autre type de disque : le SSD. Et vous allez voir que la rapidité n’est pas le seul avantage des disques SSD.
Les SSD étant les dignes remplaçants de nos chers disques durs, on a rapidement tendance à les appeler « disques SSD ». Pourtant ils n’ont absolument rien en commun avec un disque : ils ne sont pas en rotation, ils ne possèdent pas de plateaux… Ils ne sont même pas ronds ! C’est donc un abus de langage comme on les aime, dû à l’histoire de l’informatique. :D
Mais alors si un SSD n’a ni plateaux, ni de têtes de lecture/écriture mécaniques, comment fonctionne-t-il ? La réponse tient en deux mots : mémoire flash. En effet, la mémoire d’un SSD est de type « flash », ce qui signifie que les données sont inscrites dans de petites cellules de mémoire au sein d’une puce. Il n’y a donc aucun élément mécanique. Chaque cellule de mémoire peut être lue ou écrite avec le même délai, peu importe son positionnement sur la puce. Avec un disque dur classique, il fallait attendre que la tête de lecture se déplace à la surface des plateaux pour aller chercher les données. C’était long, trop long, mais cela n’a plus lieu d’être avec les SSD. Cette prouesse est rendue possible grâce au contrôleur, premier des critères que nous allons voir à présent.
Caractéristiques importantes
Le contrôleur
A côté de sa puce de mémoire flash, le SSD est équipé d’un contrôleur, qui est chargé de choisir les cellules où lire et stocker les données. C’est ce contrôleur qui fait d’ailleurs toute la force des SSD, car il est capable d’accéder à plusieurs cellules à la fois, ce qui augmente considérablement le débit de données ! Plutôt que de lire une cellule, puis une autre, puis une autre, etc., le SSD lit plusieurs cellules à la fois et rassemble le tout. Le gain de temps est net. La qualité du contrôleur (et de son firmware) est donc primordiale dans le choix d’un SSD.
Finalement, on peut donc voir un SSD comme une sorte de ruche où chaque alvéole représente une cellule mémoire. Les abeilles (le contrôleur) sont capables de déposer du miel (nos données) en adressant plusieurs alvéoles à la fois.
Bien, et comment procéderait une abeille si elle voulait modifier le contenu d’une alvéole (pour y mettre du miel tout neuf par exemple) ? Il lui faudrait en tout état de cause regarder ce qu’il y a dans l’alvéole, la vider si besoin, avant de la remplir. Eh bien c’est exactement la même chose avec une cellule de SSD : pour écrire dans une cellule, il faut que le contrôleur en vérifie le contenu au préalable, ce qui prend du temps. La conséquence directe est qu’il est plus rapide de lire le contenu d’une cellule que d’y écrire. Et comme je n’ai aucune idée de la véritable façon de procéder des abeilles, je vais m'arrêter là avec ces dernières. :p
Autre caractéristique qui a une très grande importance comme nous le verrons tout à l’heure : les contrôleurs SSD sont bien plus performants pour la gestion des petits fichiers que pour celle des gros. Concrètement, un SSD est plus efficace avec un fichier texte de quelques kilooctets qu’avec une vidéo de plusieurs gigaoctets.
Type de mémoire
Le contrôleur est donc en charge de choisir les cellules mémoires à adresser. Ces cellules mémoires peuvent être de plusieurs types, ayant chacun leur avantages et inconvénients. Nous allons passer en revue ces différents types, pour le plaisir, mais vous allez voir que le choix sera finalement assez rapide. ^^
Premier type : la mémoire SLC. Comme son nom l’indique (avec un peu d'imagination en tout cas), il s’agit d’une mémoire dont les cellules contiennent chacune un et un seul bit de données, c’est-à-dire un 0 ou un 1. À l’inverse, les cellules mémoires de type MLC contiennent chacune plusieurs bits de données (de deux à quatre).
Cette différence majeure implique plusieurs choses. Tout d’abord, la SLC est plus rapide que la MLC, le contrôleur n’ayant pas besoin de se poser la question du bit à impacter au sein d’une cellule (il n’y en a qu’un, c’est facile). Ensuite, pour impacter plusieurs bits par cellule, la MLC nécessite plus de courant électrique, elle consomme donc plus que la SLC. Enfin, les tensions appliquées sur les cellules MLC étant plus fortes, ces dernières sont usées plus rapidement. Au final, la SLC semble donc meilleure sur tous les plans. Tous, sauf un bien évidemment, son prix.
Ainsi la SLC est plus rapide que la MLC, consomme moins, à une meilleure durée de vie mais est aussi plus chère. Le choix du type de mémoire est-il donc un simple choix performance/prix ? Eh bien non, pour la simple et bonne raison que l’on trouve très majoritairement des mémoires MLC dans les SSD grand public. Les SLC sont plutôt destinés aux entreprises et aux serveurs. Si vous décidez d’équiper votre ordinateur personnel d’un SSD, il y a fort à parier qu’il sera équipé d’une mémoire MLC.
On trouve également un type de mémoire intermédiaire, la mémoire eMLC, qui se situe à mi-chemin entre la MLC et la SLC.
Format et connectique
Après le point de vue micro avec les types de mémoire, prenons un peu de hauteur pour nous intéresser aux différents formats de SSD et à leurs connectiques.
La majorité des SSD sont en 2,5", soit la taille des disques durs pour ordinateurs portables. On en trouve également en 3,5", généralement un peu moins chers, mais cela est plus rare. Dans les deux cas, l'interface la plus courante est SATA (2 ou 3). Bien sûr, les SSD en SATA3 permettent d’obtenir des débits plus importants, mais on peut se poser la question de l’intérêt de la chose. En effet, les temps d’accès des SSD étant extrêmement faible, ce sont les applications elles-mêmes qui n’arriveront plus à suivre la cadence de débits trop élevés. Plus rares, on trouve des SSD se connectant en IDE ou USB3.
Voilà pour ce qui est des SSD de format « classiques », dont le principe se rapproche fortement des disques durs habituels. Mais il existe également des SSD sous forme de « cartes filles », se connectant sur un port PCIe. Ce sont les SSD offrant les débits les plus élevés, mais ce sont également les plus chers.
Enfin, il existe des SSD se connectant en mini-SATA. Ils sont essentiellement utilisés dans les PC portables, NetBooks, Tablettes, les smartphones, ou autres baladeurs.
Capacité
Tout comme les disques durs classiques, la capacité d’un SSD est évidemment un critère central dans le choix de celui-ci. De la même manière, le prix grimpe avec la capacité : plus elle est importante, plus le SSD est cher. Cela semble logique.
Ce qui diffère des disques durs classiques, c’est le « prix au giga », bien plus grand pour les SSD. Il est inconcevable de s’équiper d’un SSD de capacité équivalente à celles auxquelles nous sommes habitués avec les disques durs. Même en étant très riche, les SSD ne vont de toute façon guère au-delà des 480 Go. Et les prix sont alors faramineux ! Vous êtes donc prévenus : SSD ne rime pas avec forte capacité (enfin si, en l’occurrence ça rime, mais vous avez compris ce que je voulais dire).
Faut-il choisir un SSD plutôt qu’un disque dur classique ?
Maintenant que nous connaissons mieux ces messieurs les SSD, pouvons-nous nous tourner vers eux les yeux fermés ? Pas si sûr…
Du pour, du contre…
Les SSD ont d'indéniables avantages par rapport aux disques durs classiques, au premier chef desquels leur formidable rapidité. L’absence de toute partie mécanique permet de décupler les temps d’accès aux données bien au-delà de ce que pourrait proposer un disque dur. Les SSD sont également bien plus résistants aux chocs (toujours grâce à l’absence de partie mécanique). Ils consomment moins, ce qui permet non seulement d’alléger la facture d’électricité, mais également de s’affranchir de la chaleur et du bruit produits par un disque dur classique. À première vue, il n’y a donc pas de doute : les SSD sont à préférer !
Oui mais voilà, tout n’est pas si rose dans ce monde de brutes. L’inconvénient majeur des SSD reste leur prix beaucoup trop élevé pour le commun des mortels. Si vous souhaitez éviter de mettre votre foyer sur la paille, il faudra donc opter pour un SSD de faible capacité. Deuxième inconvénient important : la durée de vie des SSD est plus faible que celle des disques durs classiques. Cela est dû au nombre de cycles de lecture/effacement/écriture que peuvent subir les cellules, usées un peu plus à chaque fois qu’une tension leur est appliquée. Alors finalement, qu’est-ce qu’on fait ?
… et du compromis.
Nous avons vu tout à l’heure que les SSD étaient plus efficaces pour lire que pour écrire. Nous avons également vu qu’ils étaient plus performants quand il s’agissait de petits fichiers. On peut donc facilement en conclure que les SSD sont parfaits pour… lire des petits fichiers. Bien, et dans quels cas avons-nous surtout besoin de lire des fichiers de petites tailles ? Eh bien pour le système d’exploitation, rien que ça ! En effet, un OS passe son temps à trifouiller ses fichiers systèmes (petits en général) et a rarement besoin de les modifier. Le principe est le même pour la majorité des logiciels.
Ainsi, vous l’aurez compris, les SSD sont tout à fait adaptés pour jouer le rôle de disque système. Un SSD de 60 ou 128 Go est généralement suffisant pour l’OS et les logiciels, vous n’aurez donc pas besoin de vous ruiner. En parallèle, vous devrez disposer d’un disque dur classique de bonne capacité pour stocker toutes vos données : documents, photos, musiques, vidéos, etc. Le couple SSD/disque dur est ainsi une très bonne façon d’obtenir un système très réactif, tout en conservant une bonne capacité de stockage.
Plus haut, tu nous disais que la durée de vie des SSD était relativement faible. Est-ce judicieux de placer son système sur un disque qui peut mourir à tout moment ?
Je vois que vous êtes prudent, c'est bien. :D Premièrement, il est préférable de perdre son système que ses données (on peut réinstaller Windows ou sa distribution GNU/Linux préférée, mais on ne peut pas retrouver ses photos et documents perdus). Cela dit, le but n’est pas de mettre une épée de Damoclès au-dessus de la tête de votre système ! Dans la pratique, la faible durée de vie des SSD est à relativiser.
Tout d’abord, même si le taux de pannes reste plus élevé que pour les disques durs, cela n’est pas une règle générale. Si vous achetez un SSD, il ne tombera pas forcément en panne dans les premiers jours d’utilisation ! Ensuite, il faut bien se mettre dans la tête qu’un SSD n’est pas un disque : les technologies sont différentes et par conséquent, les usages doivent l’être aussi. Il existe une série de recommandations permettant d’allonger la durée de vie d’un SSD, à commencer par la limitation des écritures. En effet, comme on l'a vu plus haut, plus on utilise un SSD, plus ses cellules sont abîmées par les tensions appliquées. Parmi les recommandations courantes visant à augmenter la durée de vie d'un SSD, on peut citer les suivantes :
Placer toutes les données sur un disque dur classique, qui viendrait en complément du disque SSD réservé au système.
Ne jamais défragmenter un SSD. Si cela pouvait être utile pour un disque dur, le grand nombre d’écritures réalisées au cours de cette opération est nocif pour un SSD.
Désactiver les fonctionnalités devenues inutiles étant donné la rapidité d’un SSD (indexation du disque, mise en veille prolongée, etc.).
Vérifier l’activation de la commande TRIM. Nous allons en parler plus en détail dans quelques instants.
Plus généralement, éviter tout processus d’écriture si cela n’a pas un réel intérêt.
La commande TRIM
TRIM est le nom d’une commande permettant d’optimiser l’utilisation des SSD. Le « trimming » doit être supporté par le SSD lui-même, mais aussi par l'OS utilisé. Tous les SSD actuels savent la gérer, pas de soucis de ce côté-là. Au niveau des OS, Windows 7 (avec des partitions en NTFS) et GNU/Linux (avec un noyau Linux 2.6.33 au minimum et des partitions en ext4) sont parfaitement aptes. Pour bien comprendre en quoi cette commande consiste, il me faut d’abord vous parler de la suppression de fichier.
Que se passe-t-il « réellement » lorsqu’un fichier est supprimé (après un éventuel passage par la corbeille) ? Le fichier est-il perdu à jamais ? Eh bien non, le fichier n’est pas vraiment supprimé. En fait, seul son emplacement sur le disque est « oublié » par le système de fichier. Physiquement, le fichier est toujours sur le disque !
Physiquement, le fichier est donc toujours sur le disque. C’est d’ailleurs grâce à cela que certains logiciels sont capables de récupérer des fichiers supprimés, même lorsque la corbeille a été vidée. Tant qu’un autre fichier n’est pas écrit par-dessus (ce qui peut arriver à tout moment, l’adresse ayant été libérée du point de vue du système de fichier), alors le fichier est toujours lisible.
C’est la qu’intervient la commande TRIM ! Si cette dernière est activée, alors la suppression d’un fichier sera complète : non seulement l’adresse sera perdue, mais le fichier sera également physiquement supprimé du disque. Dans ces conditions, il devient impossible de le récupérer, même avec un logiciel spécial.
Alors où se situe l’intérêt pour les SSD dans tout ça ? Plus haut, nous avons vu que le contrôleur du SSD devait lire le contenu d’une cellule avant de pouvoir y écrire. Si la cellule est vide, alors le contrôleur ne perd pas de temps et écrit directement ce qu’il a à écrire. Sans la commande TRIM, au bout d’un certain temps d’utilisation du SSD, toutes les cellules auraient fini par être pleines (ce qui ne veut pas dire que le système de fichier voit le SSD plein, attention). Les performances en écriture se seraient alors dégradées, le contrôleur n’ayant plus jamais le luxe de pouvoir écrire sans lecture préalable. La commande TRIM améliore ainsi la durée de vie du SSD. :soleil:
Les SSD n’ont pas le monopole de la mémoire flash, bien au contraire. Celle-ci se trouve par exemple dans un périphérique que vous avez certainement déjà manipulé : la clé USB.
Les clés USB
Il fût un temps, pas si lointain, où nous nous embêtions avec de fragiles disquettes, pas performantes pour un sou. Heureusement, les clés USB sont venues révolutionner nos usages ! Comme leur nom l’indique, elles se connectent à l’ordinateur sur un port USB (USB 2 ou USB 3). Les clés USB 1 ont aujourd’hui quasiment disparues. Bien évidemment, les clés les plus rapides sont en USB 3, mais elles sont également les plus chères.
Il en existe de toutes capacités (de 1 à 256 Go) et de toutes formes, du bâtonnet sobre à la brique de Lego, en passant par la forme d’une véritable… clé. Bref, il y en a pour tous les goûts, même les plus kitchs. :D
Tout comme les SSD, elles sont à base de mémoire flash (MLC). Cela dit, les contrôleurs utilisés ne sont pas les mêmes que dans les SSD, les performances constatées sont donc bien inférieures que sur ces derniers.
Un critère important à prendre en considération lors de l’achat d’une clé USB est sa vitesse de lecture/écriture (en Mo/s). Plus ces vitesses sont grandes, moins vous mettrez de temps à transférer un fichier depuis ou vers un ordinateur.
Enfin, certaines clés USB offrent des fonctionnalités supplémentaires telles que le cryptage des données qu’elles contiennent ou bien l’interdiction d’écriture. Mais pour cela, à vous de voir si vos besoins valent le surcoût engendré. ;)
Les cartes mémoires
Les appareils photos et caméras numériques actuels sont équipés de cartes mémoires, elles aussi de type flash. Le but de ce tutoriel n’est pas de vous parler des appareils photos ou des caméras, mais bien des cartes mémoires et de leur lecteur.
Le lecteur
Pour transférer vos photos (ou vidéos) depuis une carte mémoire vers votre ordinateur, deux méthodes s’offrent à vous :
insérer la carte dans l’appareil et le brancher à l’ordinateur, via un câble (USB en règle générale) ;
insérer la carte dans un lecteur adéquat spécialement conçu à cet effet.
C’est cette seconde solution qui nous intéresse ici. Les lecteurs de cartes mémoire existent en versions « interne » (format 3,5"), s’intégrant dans le boîtier de l’ordinateur, ou bien en version « externe » :
Dans les deux cas, le lecteur se branche généralement en USB 2 ou USB 3 (port interne pour le lecteur « interne »). Ainsi, certains lecteurs offrent des ports USB supplémentaires.
Prenez garde à ce que le lecteur soit compatible avec le type de carte mémoire qui vous intéresse. Cela dit aujourd’hui, beaucoup de lecteurs sont capables de lire la plupart des cartes mémoires du marché. À ce sujet, voyons à présents les types de cartes mémoires les plus courants.
Les différents types de cartes mémoires
Il existe de nombreux types de cartes mémoire, chacun décliné en plusieurs variantes. Petit tour d’horizon.
Commençons avec les cartes les plus courantes aujourd’hui, les cartes SD. Elles sont utilisées dans les appareils photos et caméras de plusieurs grandes marques. Pour les appareils de petites tailles (typiquement, les téléphones), on trouvera des cartes Micro SD :
Les cartes SD de première génération ont une capacité maximale de 2 Go, mais les cartes SDHC et SDXC peuvent monter respectivement jusqu’à 32 Go et 2 To. :waw:
Sur les appareils de marque SONY, on trouve essentiellement des cartes Memory Stick (ou MS). Elles sont souvent plus chères que les cartes SD, mais si votre appareil photo est conçu pour les utiliser, vous n’avez pas trop le choix.
Plus petites que les MS classiques, les « Duo » et « Pro Duo » sont maintenant les plus répandues des Memory Stick :
Côté miniaturisation, on trouve les cartes Memory Stick Micro M2. En règle générale, les Memory Stick ont une capacité maximale de 32 Go.
Plus rares, les cartes MMC ont quant à elle une capacité maximale de 2 Go. Elles sont déclinées en MMC Micro, MMC Mobile, MMC Plus et MMC Reduced Size.
Chez Olympus et Fuji principalement, on utilise des cartes SM (Micro Drive) et cD Card. Enfin, on trouve parfois des cartes CF et miCARD, bien que ces types de cartes soient plus rares.
Copier un CD audio en MP3, installer un logiciel, regarder un film en DVD ou Blu-ray… Toutes ces actions ont un point commun : elles utilisent un disque optique. Ces petites galettes aux multiples usages ne sont pas à oublier lorsque vous montez votre ordinateur.
Les différents types de disques optiques
On trouve trois principaux types de disques optiques : les CD, les DVD et les Blu-ray, selon leur ordre d’apparition sur le marché. Chacun est une évolution du précédent, offrant une plus grande capacité. On peut garder à l’esprit cet ordre de grandeur : un DVD équivaut à environ sept CD et un Blu-ray représente environ cinq DVD (soit 35 CD !).
Un CD permet de stocker 650 Mo ou 74 minutes de musique (on peut également en trouver de 700 ou 800 Mo). Il peut être inscriptible une seule fois (CD-R) ou réinscriptible (CD-RW).
Le DVD a quant à lui une capacité de 4,7 Go en simple couche et 8,5 Go en double couche (on parle alors de DVD-DL). Il existe deux normes de DVD : les DVD « - » et les DVD « + ». Ces derniers sont plus récents et plus adaptés au stockage de données. Tout comme les CD, ils peuvent être inscriptibles ou réinscriptibles. Au final, on retrouve une petite foule de types de DVD : DVD±R, DVD±R DL, DVD±RW et DVD±RW DL.
Enfin, le Blu-ray (attention à l’orthographe, il n’y a effectivement pas de « e » à « Blu ») a une capacité de 25 Go en simple couche, 50 Go en double couche et 128 Go en quadruple couche. Les BD (c’est l’abréviation des Blu-ray Disc) inscriptibles sont nommés BD-R et les réinscriptibles sont nommés BD-RE. J’imagine que les appeler R et RW comme tout le monde devait être trop simple… >_
Au fait, savez-vous d’où vient le nom « Blu-ray » ? Tout simplement de la couleur du laser utilisé pour les lire et graver. La faible longueur d’onde du bleu permet d’obtenir une précision supérieure, et donc de stocker plus de données sur une même surface. La perte du « e » au nom de couleur « blue » est une affaire purement commerciale, permettant aux inventeurs (SONY en l’occurrence) de déposer la marque.
Le lecteur/graveur
Passons à l’appareil permettant de lire ou graver ces petites galettes. Tout d’abord, précisons que la compatibilité ascendante a été respectée, ce qui signifie que les lecteurs/graveurs de Blu-Ray sont capables de lire/graver des DVD. Idem avec les lecteurs/graveurs DVD et les CD.
Si les graveurs sont forcément lecteurs, l’inverse n’est pas vrai. Et bien sûr, les graveurs sont plus chers que les simples lecteurs. Il faut donc bien définir vos besoins. Première question à se poser : avez-vous besoin de lecteur Blu-ray ? La réponse est oui si vous êtes amateurs de films en HD. Maintenant, votre lecteur Blu-ray doit-il aussi être graveur ? Etant donné le prix actuel des BD-R ou BD-RW, on peut se poser la question de l’intérêt de la chose.
Pour les DVD, on ne trouve principalement plus que des graveurs. Pas d’inquiétude en ce qui concerne les normes « + » et « - », tous les graveurs actuels sont capables de gérer les deux.
Dans les caractéristiques des lecteurs/graveurs, vous trouverez fréquemment des vitesses de lecture/écriture, notées 16x, 24x, 48x, etc. Celles-ci caractérisent en réalité le débit de données lues/écrites. L'unité de référence de cette notation, la vitesse « 1x », a une signification historique : le débit de lecture d'un CD audio, soit 150 ko/s. « 2x » signifie donc 300 ko/s, « 4x » signifie 600 ko/s, etc.
Reste à se poser la question de la connectique et du format. Les lecteurs/graveurs internes se connectent aujourd’hui très majoritairement en SATA. Leurs homologues externes sont quand à eux plutôt tournés vers l’USB ou le FireWire. Une chose est sûre, la connectique ne change pas grand-chose en terme de performances.
Mémoire vive : Les différentes marques de barrettes de mémoire vive ne présentent pas d'énorme différences de performance. En termes de capacité, il n'est pas forcément utile de dépasser les 8 Go. L'idéal est d'utiliser plusieurs barrettes identiques afin de profiter des capacités de parallélisme du contrôleur mémoire.
Disque dur : La vitesse de rotation d'un disque dur est un des critères les plus importants. La norme actuelle est au 7200 rpm. Il en existe des plus rapides, mais la hausse de prix n'est pas forcément à la hauteur des espérances. Attention également au format du disque : 3,5" pour les ordinateurs de bureau ou 2,5" pour les portables. Niveau connectique, le SATA (2 ou 3) est à privilégier à tout prix par rapport à l'IDE encombrant et vieillissant.
SSD : Le « prix au giga » des disques SSD étant encore très élevé, les SSD sont souvent utilisés comme disque système afin de profiter de leur grande rapidité. Les critères importants sont le type de mémoire (MLC ou SLC), le contrôleur, le format et la connectique. Cela dit, on trouve très majoritairement des SSD MLC en SATA 2 ou 3 (le SATA 3 est d'ailleurs à privilégier pour un SSD). Le prix reste donc le meilleur critère de choix (en espérant les promos…).
Clé USB : Outre la capacité (de 1 à 256 Go) et la forme (et donc l’encombrement) de la clé USB, un critère important à prendre en compte est la vitesse de lecture/écriture. En outre, les clés USB 3 auront un bien meilleur débit que les clés USB 2, à condition que votre ordinateur soit équipé en ports USB 3 bien sûr.
Lecteurs de cartes et disques optiques : Concernant les lecteurs de cartes mémoire et lecteurs/graveurs de disques optiques, tout dépend de vos besoins. Si votre appareil photo ne fonctionne qu'avec un type de carte, vous n'avez pas d'autres choix que de choisir un lecteur compatible. Pour ce qui est des disques optiques, si vous êtes un inconditionnel du cinéma (HD, forcément), le lecteur Blu-ray sera indispensable. Côté graveur DVD, ils sont désormais monnaie courante pour des prix très raisonnables, il serait dommage de s'en passer.
Les différentes mémoires de l'ordinateur sont une part importante de son fonctionnement. Si la mémoire vive est gage de réactivité, il ne faut pas non plus mettre de côté les performances du disque dur. Les SSD sont pour cela le meilleur choix possible, à condition d'y mettre le prix. Bien souvent, on choisira un compromis SSD/disque dur, afin d'obtenir un système très réactif, tout en conservant une grande capacité de stockage.
Dans le prochain chapitre, nous abordons un point souvent négligé : l'alimentation électrique de l'ordinateur.
Un ordinateur consomme de l’énergie. Et pas qu’un peu ! Votre facture d’électricité ne manquera pas de vous le rappeler en temps voulu. Du disque dur au processeur, en passant par la RAM ou la carte graphique, tous les composants sont concernés, même si certains sont plus gourmands que d’autres.
Dans ce chapitre, nous allons nous intéresser à l’élément central de la gestion de l’énergie : le bloc d’alimentation. Ce dernier a pour mission de transformer le courant alternatif du secteur électrique en un courant continu « consommable » par l’ordinateur.
Nous commencerons donc par expliquer en quoi consiste cette transformation. Cela impliquera donc un peu de théorie sur l’électricité, qui vous rappellera peut-être quelques cours du lycée. ;) Nous parlerons également de la « qualité » du courant pour un ordinateur, notion souvent négligée mais néanmoins très importante pour la bonne santé de tous les composants de votre ordinateur ! Enfin, nous décrirons les différents formats d’ « alim’ » (on les appelles souvent ainsi) et les types de connectiques disponibles.
Quand on parle d’alimentation électrique, on parle de courants, tensions, résistances et autres puissances. Je vous propose donc une petite mise au point sur ces notions afin de bien comprendre pourquoi notre ordinateur a besoin d’un bloc d’alimentation.
Quelques notions de bases pour bien comprendre la suite…
Savez-vous ce qu’est un électron ? Mais si, ce sont ces petites particules qui constituent (avec d’autres) les atomes. On en « voit » donc tous les jours autour de nous ! Il se trouve que les électrons ont une charge électrique, et que cette charge a la particularité d’être négative. Ainsi, on les notes souvent , le signe « - » témoignant de cette fameuse charge négative.
Quand beaucoup d’électrons sont concentrés en un endroit précis, la charge (ou potentiel) électrique est de plus en plus négative. À l’inverse si un manque d’électron est provoqué, la charge est de moins en moins négative (donc de plus en plus positive). Entre ces deux potentiels se produit alors une différence de potentiel électrique, appelée tension. C’est le cas entre les bornes d’une pile ou encore entre les deux fils arrivant dans la prise électrique de la maison. La tension est exprimée en volts (V).
Lorsque les deux potentiels se trouvent sur un circuit fermé, les électrons sont attirés par la borne chargée positivement, tout comme des magnets sur un frigo. En se déplaçant, ils laissent derrière eux une charge positive (puisqu’ils sont eux-mêmes chargés négativement), ce qui attire à nouveau d’autres électrons situés alentour, etc. Le déplacement de tout ce petit monde est appelé courant électrique. L'unité d'intensité du courant électrique est l'ampère (A).
Mais le courant électrique ne se balade pas sans encombre sur son fil (ou son matériau conducteur quel qu’il soit). Il lui est opposé une résistance dans sa progression, qui dépend notamment de la forme et de la longueur du fil, ainsi que du matériau utilisé. La résistance est exprimée en ohms (Ω).
Votre courant, vous le prenez alternatif ou continu ?
Définitions
Le courant électrique présente une particularité tout à fait étonnante : il peut s’inverser. En effet, les électrons peuvent changer leur sens de déplacement ! Si on mesure la tension du courant sur un circuit, ce changement de sens se traduit par une inversion de signe du courant (il passe d’une valeur positive à négative ou inversement). Si ce changement de sens s'effectue de façon périodique, alors le courant est dit alternatif. La courbe de la tension au cours du temps ressemble alors à une courbe sinusoïdale telle que la suivante :
Ce signal est périodique, ce qui signifie que ses variations se reproduisent à l'identique à intervalles réguliers. On appelle alors fréquence le nombre de fois que ces variations se répètent en une seconde. La fréquence est exprimée en Hertz (Hz).
Inversement (si je puis dire), un courant qui conserve toujours le même sens est dit continu :
Ici, pas de notion de fréquence puisque la courbe est « plate », il n’y a donc pas lieu de parler de répétition.
Dans la pratique
En pratique, le courant qui sort des prises électriques de la maison est un courant alternatif. Sa tension oscille périodiquement de -325 V à +325 V (ce n'est pas le cas en Amérique du Nord mais le principe est exactement le même) :
On calcule alors une valeur appelée tension efficace, qui correspond à la valeur qu’aurait la tension si elle était continue et constante :
Ainsi, la tension efficace de nos prises de courant est de . Elle a une fréquence de 50 Hz (ou 60 Hz selon la région du globe dans laquelle vous vous trouvez, mais peu importe).
Manque de chance, les composants de l’ordinateur, comme la plupart des appareils électriques de la maison, utilisent pour fonctionner un courant continu de tension 5 ou 12 V. On est donc très loin du courant alternatif de tension 230 V fourni par les prises électriques ! :waw:
Toute la problématique est donc de transformer un courant alternatif de tension efficace 230 V, 50 Hz en un courant continu et constant, de tension 5 ou 12 V. Vous l’avez compris : c’est le rôle du bloc d’alimentation. Voyons donc à présent comment celui-ci procède pour réaliser cette transformation.
Principe de fonctionnement du bloc d’alimentation
Tout d’abord, à quoi ressemble un bloc d’alimentation ? C’est une boîte, ok, mais encore ? Qu’y a-t-il dans cette boîte ?
Tous les composants du bloc d’alimentation que vous apercevez ci-dessus ont un rôle à jouer dans la transformation du courant dont nous parlions plus tôt. C’est un peu comme une recette de cuisine : pour réaliser votre plat, vous devez faire passer les ingrédients de départ par toute une série d’étapes et d’ustensiles en tout genre. Après chaque étape, le plat n’est pas encore fameux mais s’approche du résultat final. Ici, notre recette est en cinq étapes principales.
Première étape : protections et filtres
Le bloc d’alimentation est tout d’abord équipé d’un fusible, dont le rôle est de protéger l’installation électrique de votre maison. En cas de court-circuit, ce fusible va « sauter » et ainsi ouvrir le circuit électrique afin de stopper les dégâts. Un autre composant appelé varistance protégera cette fois le bloc d’alimentation (et les autres composants de l’ordinateur par la même occasion) en cas de surtension. Typiquement, cela se produit lorsque la foudre s’abat dans le coin. Sans cette protection, votre ordinateur ressemblerait alors à un toast laissé un peu trop longtemps dans le grille-pain. :-°
Côté filtre, on utilise un « correcteur du facteur de puissance » (PFC) afin de limiter les interférences électromagnétiques (EMI) engendrées par le découpage de la tension. Le but est de limiter les parasites qui polluent à la fois le courant fourni à l’ordinateur, mais également le réseau électrique de la maison. Un PFC peut être actif ou passif. Un PFC actif est plus efficace qu’un PFC passif, mais il est aussi plus cher, ce qui a forcément un impact sur le prix global de l’alimentation.
Pour l’instant, aucune transformation n’a encore eu lieu, notre courant est toujours alternatif et notre tension toujours sinusoïdale, oscillant de -325 V à +325 V (soit une tension efficace de 230 V).
Deuxième étape : redresser la tension avec le pont de diode
Le pont de diode sert à « redresser » la tension. Je n’entre pas dans les détails du schéma électrique, sachez simplement qu’il s’agit de quatre diodes montées entre elles de façon à ce qu’elles ne laissent passer le courant que dans un seul sens. Après le pont de diode, notre tension ressemble donc à ceci :
Le signe du courant ne s’inverse plus, on a donc un courant continu qui s’approche de notre objectif. C’est mieux, mais ce n'est pas encore ça.
Troisième étape : lisser la tension avec le premier condensateur
Les composants de l’ordinateur ne supporteraient pas les oscillations toujours présentes qu’on observe sur la courbe ci-dessus. La tension a donc besoin d’être « lissée ». Pour cela, on utilise un condensateur qui va agir comme un « réservoir » à courant. Je m’explique.
Lorsqu’on injecte du courant dans un condensateur, celui-ci se charge, ce qui signifie qu’il accumule de l’énergie. Cette énergie peut alors être restituée au circuit électrique, un peu comme le ferait une pile rechargeable (même si le principe physique n’a en fait rien à voir). On va alors utiliser le condensateur de façon à combler les creux de tension : quand la tension est croissante, le condensateur est chargé ; lorsque celle-ci redescend, on utilise la réserve d’énergie pour la lisser.
Au final, on a donc une courbe de tension lissée :
Là encore, c'est mieux, mais on doit encore triturer notre tension afin qu'elle ressemble tout à fait à ce que nous cherchons (une tension continue de 5 ou 12 V, je le rappelle pour les étourdis ;) ).
Quatrième étape : abaisser la tension avec le transistor de découpage et le transformateur
Nous voici donc avec un courant continu presque constant. En revanche, la tension efficace est toujours de 230 V. Pour ne pas faire fondre comme neige au soleil les composants de l’ordinateur, on va devoir utiliser un transformateur, composant capable d’abaisser ou d’élever une tension. Dans notre cas, nous allons bien sûr nous servir du transformateur pour baisser la tension, de 230 V à 5 V ou 12 V.
Problème : la taille d’un transformateur est inversement proportionnelle à la fréquence du courant qui le traverse. Pour éviter de nous retrouver avec un bloc d’alimentation gros comme un camion, il faut donc trouver un moyen d’augmenter la fréquence de notre signal. Cela se fait en « découpant » la tension, grâce à un ou plusieurs transistors. Le principe consiste à ouvrir et fermer un interrupteur à intervalles très restreints et régulier afin d’obtenir une tension qui ressemble à ceci :
On passe ainsi de 50 Hz à environ 100 000 Hz ! On peut donc envoyer notre courant au transformateur. Problème résolu ! :D Pour comprendre le principe général d’un transformateur, deux choses sont à savoir :
Lorsqu’un courant électrique traverse un conducteur, un champ magnétique est créé alentour.
Lorsqu’un circuit se trouve dans un champ magnétique, un courant électrique y est créé. C’est le principe de l’induction (on dit alors qu’un courant est induit dans le circuit).
Un transformateur est composé de deux bobines, c’est-à-dire des enroulements de fils conducteurs :
La première bobine reçoit le courant de tension 230 V, ce qui génère un champ magnétique. Ce champ magnétique induit alors un courant dans la seconde bobine, dont la tension est inférieure. En jouant sur le nombre de spires des deux bobines, on peut parvenir à induire un courant de tension voulue dans la seconde bobine. Le tour est joué ! Enfin presque.
Cinquième étape : redresser et lisser à nouveau la tension avec la diode Schottky et le second condensateur
Avec tout ça, notre tension est devenue complètement hachée, ce qui ne va pas plaire aux composants de l'ordinateur. On va donc la redresser de manière similaire à ce qui a été fait précédemment.
On n’utilise plus un pont de diodes mais une diode « Schottky », cette dernière chauffant moins et donc souffrant de moins de pertes d’énergie. Un second condensateur est ensuite utilisé pour lisser au mieux notre tension afin d’obtenir en sortie la tension désirée, la plus constante possible. Mais comme nous le verrons tout à l’heure, ce n’est pas toujours le cas et cela peut malheureusement entraîner quelques désagréments.
Maintenant que nous savons un peu mieux à qui nous avons affaire, je vous propose de nous attarder sur quelques critères importants concernant le bloc d’alimentation.
Je vous le disais en introduction, l'ordinateur consomme de l'électricité et les effets s'en ressentent donc sur la facture d'électricité à court terme. Mais le choix d'une bonne alimentation a également des effets à moyen terme. Avant de comprendre pourquoi, il nous faut voir ensemble la notion de puissance d'une alimentation.
Puissance de l'alimentation
On appelle puissance la quantité d'énergie fournie sur une période donnée. Elle se calcule par le produit de la tension (U, en volts) et du courant (I, en ampères) :
La puissance s'exprime en watts. C'est cette unité que vous retrouverez dans les fiches caractéristiques des blocs d'alimentation.
Chaque composant de l'ordinateur a besoin d'une certaine quantité de puissance pour fonctionner convenablement. Ils tireront tous sur le bloc d'alimentation, qui devra alors être à la hauteur de leurs besoins. Il est donc primordial de choisir un bloc d'alimentation capable de délivrer suffisamment de puissance pour votre configuration.
La puissance nécessaire dépend des composants choisies. De ce fait, le choix de l'alimentation doit se faire après celui de la majeure partie des autres composants. Ce n'est pas un hasard si ce chapitre n'arrive que maintenant. ;)
Il faut donc trouver les puissances nécessaires pour chacun des composants et les additionner pour pouvoir choisir le bloc d'alimentation ? Fastidieux…
Eh oui, il le faut. Mais rassurez-vous, de nombreux outils existent pour vous faciliter la tâche ! C'est notamment le cas des PSU Calculator (tels que celui-ci par exemple) qui donne une puissance recommandée en fonction de votre configuration.
Rendement
Dans un monde parfait, toutes les transformations de courant et tension que nous venons de voir se dérouleraient sans encombre et toute la puissance délivrée par la prise électrique serait utilisée par l’ordinateur. Mais une alimentation n’est jamais parfaite, malheureusement. Le rapport entre la puissance délivrée à l'ordinateur et la puissance reçue par l'alimentation est appelé rendement :
Si l’alimentation délivrait à l’ordinateur toute la puissance qu’elle reçoit en entrée, alors le rendement serait de 1 (c’est-à-dire 100%). Mais ce n’est jamais le cas, le rendement est donc toujours inférieur à 1. Le tout est de faire en sorte qu’il soit le plus près possible de 1, histoire de ne pas payer une énorme facture d’électricité pour pas grand-chose.
Pourquoi une perte de puissance ?
Mais au fait d’où vient cette perte de puissance ? Pourquoi les transformations effectuées sur le courant et la tension font perdre de l’énergie ? La réponse, je suis sûr que vous la connaissez si vous avez déjà pris un chargeur d’ordinateur portable dans les mains : ça chauffe !
En effet, tout courant électrique traversant un matériau conducteur provoque un dégagement de chaleur. Vous souvenez-vous de la résistance dont nous parlions plus tôt ? Elle est dû aux chocs entre les atomes du matériau conducteur et les électrons qui y circulent. Ces collisions provoquent un dégagement de chaleur, appelé effet Joule. Et la chaleur, c’est de l’énergie ! Toute la chaleur émise par le bloc d’alimentation est autant d’énergie qui n’est pas transmise à l’ordinateur. Ça chauffe la pièce, c’est bien, mais ce n’est pas le rôle d’un ordinateur à la base. :p
Comment s’y retrouver ?
Depuis 2007, le label 80 Plus a été mis en place afin de garantir un rendement acceptable pour les alimentations du commerce. « Acceptable » signifie que les pertes n’excèdent pas 20%. Autrement dit, le rendement doit être d’au moins 80%. Par soucis d'économie, certains constructeurs n'hésitaient pas à proposer des alimentations au rendement exécrable ! Ce n'était bon ni pour l'environnement, ni pour la facture ! Le but de ce label est donc d'éliminer ces escroqueries.
Plusieurs labels ont ainsi été déclinés afin de permettre au consommateur que nous sommes de repérer du premier coup d’œil les alimentations ayant le meilleur rendement :
Charge
20%
80%
82%
85%
87%
90%
50%
80%
85%
88%
90%
92%
100%
80%
82%
85%
87%
89%
Rendements minimaux en fonction de la charge et du label. Comme vous pouvez le voir dans le tableau ci-dessus, le rendement varie selon la sollicitation de l’alimentation. Si cette dernière est trop ou trop peu sollicitée, alors le rendement est légèrement inférieur. Le meilleur rendement est atteint entre les deux, c'est-à-dire lors d’une utilisation « normale ».
Qualité du courant
Le « ripple »
Vous l’aurez compris, une bonne alimentation se doit d'avoir un rendement élevé. Mais ce n’est pas le seul paramètre à prendre en compte. En effet, le courant fourni par l’alimentation est envoyé à la majorité des composants de l’ordinateur : carte mère, processeur, carte graphique, disque dur, etc. Imaginez un peu les effets dévastateurs d’une alimentation qui enverrait aux composants un courant corrompu. Imaginez les effets dévastateurs d’une cantine d’entreprise qui donnerait des aliments avariés aux salariés. Leur après-midi ne serait pas très productive…
La qualité du courant est donc primordiale pour ne pas abîmer les composants de votre ordinateur. Comme on l’a vu, le courant attendu est continu et la tension doit être la plus stable possible. Cependant, il reste toujours ce qu’on appelle du « ripple » (« ondulation » en anglais), de toutes petites oscillations de tensions qui vont s’avérer nocives pour les composants de l’ordinateur.
Plus le ripple est élevé, plus les composants vont être abîmés au fil du temps. Acheter une alimentation délivrant une tension « propre » est donc un investissement d’avenir : mieux vaut mettre 20 ou 50 € de plus maintenant, que de devoir changer la carte mère ou la carte graphique dans un an. ;)
L’alimentation génère également des ondes électromagnétiques qui peuvent interférer avec les autres appareils de la maison. Ces ondes sont censées être filtrées par le PFC dont nous parlions plus tôt, mais les alimentations bas de gamme s’en affranchissent un peu trop souvent.
Les onduleurs
Pour éviter les effets indésirables sur les composants de votre ordinateur, rien ne vaut une alimentation de qualité. Mais même avec un bloc haut de gamme, vous ne serez pas à l'abri d'un autre type d'incident : la coupure électrique. L'échelon de tension provoqué par une telle coupure risque de poser des problèmes irréversibles sur votre configuration. La coupure peut même se faire vicieuse et ne durer que quelques millisecondes (on appelle ça une micro-coupure). Tellement court que vous ne vous rendrez peut-être même pas compte que la lumière s'est éteinte un instant, mais suffisamment long pour que votre PC se redémarre tout seul. Pas top.
À l'inverse, il peut surgir des surtensions sur votre réseau électrique, si la foudre s'abat sur votre maison par exemple. Là encore, votre configuration risque d'en pâtir.
Pour se prémunir de tout cela, vous pouvez vous procurer un onduleur. Le principe de base est simple : l'onduleur est branché à la fois au secteur et à l'ordinateur et en cas de soucis, une batterie contenue dans l'onduleur prend le relais. Il en existe trois types différents :
les onduleurs OFF-Line, qui conviennent pour les particuliers la plupart du temps, mais ne permettent pas de se prémunir des micro-coupures ;
les onduleurs Line interactive, qui cette fois permettent d'absorber les micro-coupures grâce à un petit processeur qui surveille l'état de la tension ;
les onduleurs ON-Line, le top-du-top, pour une sécurité maximale de votre réseau électrique. Le prix s'en ressent, bien évidemment.
Passons à présent à des considérations plus « visibles » : le format et les connectiques d’une alimentation.
Côté format, on retrouve le même genre de dénominations que pour les cartes mères. Le format le plus courant est le format ATX. On trouve également des micro-ATX ou mini-ITX pour les boîtiers de plus petite taille. Nous aurons l’occasion de parler plus en détail des boîtiers dans le prochain chapitre.
Concernant les connecteurs, on retrouve de nombreuses normes afin de répondre aux attentes des différents composants de l’ordinateur. Concrètement, c’est autant de câbles qui sortent de l’alimentation et qu’il faudra brancher sur chaque composant.
Pour la carte mère, on utilisera un connecteur ATX 24 pins (ou broches) :
Afin de respecter la compatibilité avec les anciennes cartes mère qui nécessitaient un connecteur de 20 pins seulement, quatre broches de l’ATX 24 pins sont désolidarisées des vingt autres.
Le connecteur ATX 8 pins, également appelé ATX-P4, se branche également sur la carte mère mais est dédié à l’alimentation du CPU :
Là encore, une ancienne norme impose de pouvoir détacher des blocs de broches afin d’obtenir des connecteurs adaptés aux besoins.
Pour la carte graphique, un connecteur PCIe 6 ou 8 pins est disponible :
Enfin, nous avons vu dans le chapitre précédent les connecteurs utilisés pour les disques dur : MOLEX pour les disques en IDE et SATA pour les disques et SSD en… SATA :
Notons que les lecteurs disquettes sont également alimentés via des ports MOLEX. Mais je doute que vous en ayez encore grand besoin aujourd’hui. ;)
Certaines alimentions dites « modulaires » permettent de débrancher les câbles inutilisés. Cela dans le but de ne pas encombrer l’espace et ainsi de permettre une meilleure circulation de l’air dans le boîtier.
Alimentation : Une bonne alimentation est une alimentation qui ménagera votre facture électrique sur le court et le moyen terme. Pour le court terme, il faut choisir une alimentation possédant un bon rendement. Les labels 80 Plus ont été créés pour vous aider à ce niveau là.
Sur le moyen terme, c'est la qualité du courant délivré qui devra être étudiée de près afin de ne pas abîmer les autres composants de votre machine. Les constructeurs ne sont pas fous et indiquent rarement ce critère dans leur description. Cela dit, de nombreux tests présents dans les magazines ou sites spécialisés vous renseigneront sur les meilleurs courants du marché.
Qui aurait cru qu'un simple bloc pouvait faire subir autant de choses au courant électrique et à sa tension ? Finalement, tout serait plus simple si le courant sortant des prises était directement « propre à la consommation ». Mais cela poserait de gros problèmes de transport du courant, des centrales électriques jusqu'à nos habitations.
Le bloc d'alimentation ne doit surtout pas être négligé, car c'est un investissement d'avenir. Une bonne alim' vous fera économiser de l'argent à court terme sur votre facture d'électricité, mais aussi à moyen terme dans le sens où vous n'aurez pas à changer des composants abîmés par des oscillations de tensions trop importantes.
Les boîtiers sont souvent vendus avec une alimentation mais attention, celle-ci est souvent bas de gamme et donc à éviter. Les boîtiers font d'ailleurs l'objet du prochain chapitre. À l'instar de C-3PO dans l'épisode II, nous allons donc à présent voir comment habiller notre machine !
Demander au voisin de 80 ans de définir ce qu'est un ordinateur, il vous répondra sûrement que « c'est une grosse boîte ». Il aura entièrement raison ! Il fera simplement abstraction du contenu pour ne voir que ce qui est à portée de son regard. C'est d'ailleurs une des caractéristiques du boîtier : il se voit. S'il est plaisant d'avoir une carte graphique qui en jette, aux couleurs accordées à celles des autres composants, ce n'est pas un spectacle que l'on contemple tous les jours (quoi que?). En revanche, même relativement caché sous le bureau, le boîtier reste apparent et a donc tout intérêt à être plutôt beau, esthétiquement parlant. Cela dit, étant donné le caractère hautement subjectif de la chose, nous ne nous attarderons pas sur ce point ici.
Si on creuse un peu, on se rend vite compte que le boîtier n'est pas « juste » une boîte. Il a, comme tous les autres composants, des caractéristiques bien précises qu'il faudra surveiller à l'heure du choix. Taille, ventilation, isolation, vibration, nombre d'emplacements pour disques durs… Il y a de quoi dire. Mais pour commencer, il faut choisir sa taille.
Première caractéristique à définir dans le choix d'un boîtier : la place qu'il va prendre chez vous. Mais ce choix ne peut être fait qu'en prenant en compte le format d'un élément dont nous avons déjà parlé, je veux bien sûr parler de la carte mère. En effet, cette dernière étant l'élément le plus « large » du PC, il est normal qu'elle influe directement sur la taille du boîtier. Vous pouvez alors vous trouver dans deux cas de figure :
vous avez choisi une carte mère pour une raison x ou y : vous devez choisir un format de boîtier correspondant ;
vous avez décider de monter un PC de taille bien définie, comme un mini-PC par exemple : c'est cette fois le format du boîtier qui dictera le choix du format de la carte mère.
Dans les deux cas, la corrélation entre les deux est inévitable.
Pour rappel, les formats les plus courants des cartes mères sont ATX, micro-ATX et mini-ITX (un petit retour sur ce chapitre vous en dira plus si vous avez quelques trous de mémoire ;) ). Lors du choix du boîtier, veillez donc à ce que le format de la carte mère soit compatible.
La taille
Indirectement liée au format, la taille du boîtier est évidemment la caractéristique la plus « voyante » de votre PC. La plupart des boîtiers sont sous forme de tours, mais ce n'est pas une obligation, comme nous allons le voir.
Les tours
Le plus souvent, c'est sous forme de tours verticales que sont présentés les PC. Il en existe trois familles : mini, moyennes et grandes tours. Elles se différencient principalement par le nombre de baies 3,5" et 5,25" dont elles disposent.
Évidemment, plus la tour est grande, plus son nombre de baies peut être important. Une mini-tour peut par exemple ne comporter qu'une seule baie 5,25" alors qu'une grande tour peut en comporter une dizaine !
Le faible encombrement des petites tours peut être séduisant, mais attention, elles ont l'inconvénient de limiter les possibilités d'évolution de votre configuration. Elles ont également tendance à chauffer plus vite car l'air dispose de moins de place pour circuler.
Les spéciales du chef
Pour certains usages bien précis, les boîtiers peuvent prendre une forme particulière, comme les barebone, ou mini-PC :
Ce sont les plus petits boîtiers. Ils sont généralement pré-assemblés mais on en trouve de plus en plus acceptant les cartes mères au format ITX, ce qui permet de monter des configurations relativement performantes tout en étant facilement transportables.
Autre usages, autre formes : les boîtiers Desktop et HTPC sont horizontaux, ce qui leur permet d'intégrer facilement un meuble de salon :
Comme vous pouvez le voir ci-dessus, certains sont équipés d'une télécommande et d'un petit écran en façade, de quoi les faire passer pour un lecteur Blu-ray classique, ou presque. :p Ils ont d'ailleurs pour vocation le remplacement pur et simple des autres appareils multimédias. On utilise pour cela un logiciel de « media center » (Windows Media Center par exemple) en les connectant à la télévision plutôt qu'à un moniteur d'ordinateur.
En général, ils sont faits pour accueillir des cartes mères au format micro-ATX, mais on en trouve également des compatibles avec le format ATX.
Les matériaux utilisés
En attendant les boîtiers prétendument écologique en bambou, les principaux matériaux utilisés à l'heure actuelle sont l'acier et l'aluminium. Visuellement, il n'y a pas de grandes différences entre les deux, mais l'alu est plus léger et donc plus facilement transportable. Il est cependant également plus cher que l'acier. :(
Les boîtiers en acier sont en revanche généralement plus solides. Ils sont plus lourds et moins soumis aux vibrations ce qui les rend un peu moins bruyants que leurs homologues en alu. Cela dit, on trouve dans les deux cas des boîtiers dont les parois sont isolées afin de limiter le bruit.
Des parties en plastiques, plus fragiles, peuvent compléter le tout. Elles se cassent plus facilement, il faut donc prendre garde. Lorsqu'il s'agit d'éléments de décors ce n'est pas bien important, même si cela peut faire mal sur un boîtier à 100 €. En revanche, cela devient beaucoup plus problématique lorsque ce sont poignées, portes ou charnières qui se cassent.
Outre ces considérations globales, un boîtier peut présenter des caractéristiques fort intéressantes, voire indispensables dans certains cas.
La ventilation
On a eu l'occasion d'en parler dans les chapitres précédents : la dissipation de la chaleur produite par les composants de l'ordinateur est un problème récurrent. Le boîtier joue un rôle très important dans la régulation de la température car son architecture va définir le nombre et l’emplacement des ventilateurs, ainsi que la façon dont l’air pourra circuler à l’intérieur.
Les boîtiers d’entrée de gamme ne sont généralement équipés que d'un seul ventilateur, à l’arrière ou à l’avant. Il est recommandé d’en avoir plutôt deux, à l’avant et à l’arrière, voir un troisième sur le dessus ou sur le côté si votre configuration le nécessite (cas des grosses cartes graphique par exemple).
Côtés accessoires, les grilles d’aérations peuvent être équipées de filtres anti-poussière, limitant ainsi l’accumulation de cette dernière dans le boîtier :
Qui a déjà démonté un ordinateur vieux de quelques années comprendra l’importance de ces filtres. ;)
Enfin, certains ventilateurs sont équipés de LED, mais nous revenons dans des considérations purement esthétiques que je ne me risquerais pas à commenter ici. :p
La connectique
Le boîtier n’est pas qu’une coque de protection, il fait également office d’interface entre l’ordinateur et l’utilisateur. Ainsi, il peut présenter divers connecteurs en façade, beaucoup plus faciles d’accès que ceux présents derrière.
Au minimum, un boîtier est généralement équipé de deux ports USB ainsi que des ports audio (micro et casque) en façade. Selon vos usages, cela peut s’avérer insuffisant. Le nombre de ports USB est important, mais le type de ports disponibles l’est tout autant. Pensez notamment à l’USB 3, qui n’est pas encore systématique. Des ports moins courants mais néanmoins très pratiques peuvent également être accessibles du bout du bras. Je pense aux ports FireWire pour les caméras numériques ou bien aux ports eSATA pour brancher un disque externe :
On trouve même des boîtiers pourvus d’un dock « Hot Swap », permettant de brancher un disque dur ou un SSD « à chaud », c’est-à-dire sans avoir besoin d’ouvrir l’ordinateur pour le brancher en interne :
Cela dit, les ports en façade ne font pas tout : ils doivent être reliés à la carte mère. Prenez donc garde à ce que cette dernière soit équipée en conséquence.
Éléments de montage
Les boîtiers peuvent disposer de petits agréments facilitant le montage et l’organisation interne des composants. Parmi ceux-ci, on notera les fixations sans vis des périphériques de stockage, extrêmement pratique si vous avez à intervenir régulièrement sur ces derniers. Dans la même idée, certains boîtiers sont presque intégralement montables et démontables sans outils :
Cela dit, l’esthétique en prend un sacré coup ! :-° (Oups ! Pardon, je n’ai pas pu m’en empêcher de donner mon avis sur ce coup-là. :p )
Enfin, certains boîtiers peuvent accepter des cages de disque dur placées à 90° (voir amovibles), disposer de « cable management » (pour éviter que les câbles ne traînent partout) et d’un accès « Backplate CPU » (afin de pouvoir monter/démonter le ventirad sans avoir à démonter la carte mère), etc. Bref, il y a de quoi faire si vous souhaitez optimiser les possibilité de votre PC.
Le boîtier se voit, il doit donc vous plaire sur un plan esthétique et c'est d'ailleurs un critère qui fait parfois monter les prix ! Vous devez également choisir sa taille en prenant en compte vos besoins d'évolution et la place qu'il va occuper chez vous.
Mais le plus important reste qu'un boîtier se doit d'être bien ventilé, silencieux et pratique à monter/démonter. Pour cela, de nombreuses options sont à choisir, telles que le nombre de ventilateurs, les matériaux utilisés, etc.
Enfin, le boîtier doit être ergonomique, en vous donnant accès en façade aux ports que vous utilisez le plus souvent : USB (voir USB 3 si votre carte mère est compatible), FireWire ou encore eSATA.
Voilà qui met fin à ce court mais très important chapitre consacré au boîtier de l'ordinateur. N'oubliez pas qu'un bon boîtier peut vous apporter un grand confort au quotidien, tant au montage qu'à l'utilisation. Il n'est donc pas à négliger ! Cela dit, si votre budget est serré, je ne vous encouragerai pas à opter pour un boîtier haut de gamme pour autant.
Nous avons à présent fait le tour du boîtier et de son contenu, il ne manque plus grand-chose à notre configuration pour pouvoir passer au montage du tout, si ce n'est quelques périphériques externes, clavier et souris en tête.
Si les interfaces tactiles se font de plus en plus nombreuses entre nos mains, elles n'ont pas encore vraiment percé sur les ordinateurs de bureau. Des modèles d'écran tactiles existent et les systèmes d'exploitation récents les supportent nativement, mais rien ne remplacera jamais le clavier et la souris pour certain jeux, ou tout simplement pour taper du texte. Alors vous allez me dire qu'il ne faut jamais dire jamais et qu'on ne sait pas de quoi sera fait l'avenir. Certes, mais le fait est qu'à l'heure actuelle, vous allez devoir passer par le choix de ces périphériques. ;)
De la même façon, il vous sera difficile de vous passer du son de votre ordinateur. Selon vos besoins, nous verrons donc quels haut-parleurs choisir et quelles sont les différences entre une enceinte de qualité et une enceinte d’entrée de gamme.
Enfin, nous irons un peu plus loin dans les périphériques externes, avec des outils spécialisés qui n’intéresseront certainement pas tout le monde : les tablettes graphiques, les gamepads et joysticks, et enfin les webcams.
Je ne vous apprendrai probablement rien en vous disant que le clavier sert à saisir différents caractères (lettres, chiffres, symboles) et ainsi à envoyer des commandes à l'unité centrale. Un clavier, c'est un clavier ! Mais saviez-vous qu'il en existait de nombreuses variantes ?
Disposition des touches
Selon le pays dans lequel vous vivez, la disposition des touches du clavier n'est pas forcément la même. En France, les claviers sont dits « azerty », en référence à l'ordre des touches de la première ligne de lettres. Au Québec, les claviers sont plutôt des claviers « qwerty ». Il existe même différentes variantes selon le pays. Un « QWERTY » américain n'est pas le même qu'un « QWERTY » québécois par exemple. Savez-vous d'où provient cette différence de clavier entre les pays ?
C'est en rapport avec la langue parlée, non ? Peut-être pour permettre de taper un texte plus rapidement ?
Cette différence provient bien des différentes langues parlées, mais le but n'est pas d'optimiser le temps de frappe. Au contraire, ces dispositions sont conçues pour ralentir l'utilisateur, pour qu'il tape moins vite ! :waw: Très étrange, à l'heure où l'information automatique recherche toujours à nous faire gagner du temps ! Pour comprendre, il faut revenir aux origines, non pas seulement de l'informatique, mais du clavier.
Les premiers claviers ont été conçus pour les machines à écrire. À l'époque, une logique implacable avait animé l'esprit de l'américain Christopher Latham Sholes : il avait placé les touches dans l'ordre… alphabétique. C'est vrai après tout, pourquoi aurait-il fait différemment ? Eh bien c'est à l'usage qu'il s'est rendu compte de son erreur : quand les utilisateurs ont appris à taper rapidement un texte, les mécanismes des machines à écrire se bloquaient. Ils tapaient tout simplement trop rapidement ! Il a donc fallu imaginer une disposition de touches plus complexe que l'ordre alphabétique, avec laquelle les utilisateurs étaient obligés de faire des gestes plus amples pour passer d'une touche à l'autre. Ainsi, les mécanismes avaient le temps de se repositionner correctement entre deux frappes. Le clavier « QWERTY » était né (Christopher Latham Sholes étant américain, c'est la langue anglaise qui a d'abord été étudiée). Les claviers « AZERTY » ont suivis pour les machines à écrire des francophones.
Aujourd'hui, cette limitation n'a plus lieu d'être, mais l'Histoire (et les habitudes) ont fait perdurer ces dispositions de touches. Cela dit, de nouveaux claviers visant cette fois à nous faire gagner du temps et à améliorer le confort d'utilisation ont depuis fait leur apparition. On peut citer parmi eux les claviers « Dvorak » (du nom de l'inventeur de la méthode utilisée pour placer les touches de façon optimale selon la langue) ou une variante adaptée au français : le « bépo ».
Type de clavier
Claviers classiques
Au fil des années, la disposition générale des touches a perduré, mais plusieurs types de clavier se sont succédés. Les premiers claviers « externes » (non intégré à l'ordinateur comme c'était le cas sur les premiers PC) étaient de type PC/XT et possédaient 83 touches. Ils ont été remplacés par les claviers PC/AT, comportant eux 84 touches. L'intérêt des claviers PC/AT ne résidait pas simplement dans l'ajout d'une touche, mais aussi dans la forme et le placement des touches. Par exemple, les touches Majuscule et Entrer ont été agrandies afin d'améliorer le confort d'utilisation.
Sont ensuite apparus les claviers étendus, se rapprochant bien plus de nos claviers actuels. Les touches F1 à F12 ont par exemple été placées en haut du clavier. Mais l'innovation la plus marquante de ce type de claviers est la présence des quatre flèches directionnelles (←, →, ↓ et ↑), aujourd'hui incontournables.
Avec l'avènement du système d'exploitation Windows, des claviers qui lui sont spécialement adaptés se sont fortement répandus. On les reconnaît facilement par la présence de trois nouvelles touches : deux touches « Windows » () et une touche « Application » ().
Claviers spéciaux
Outre ces types de claviers « classiques », on trouve des claviers spéciaux, dédiés à une utilisation bien particulière. Certains claviers possèdent par exemple un trackball permettant d'utiliser l'ordinateur sans souris, bien installé au fond du canapé ou encore des boutons dédiés aux fonctionnalités multimédias (lecture, pause, avance rapide, etc.).
Les joueurs se tourneront quant à eux vers des claviers haut-de-gamme, bien souvent rétro-éclairées et pourvus de touches supplémentaires programmables. On trouve même des claviers comportant un écran LCD (parfois tactile) ! A vous de voir si le prix en vaut la peine. ;)
Dans les caractéristiques des claviers, vous croiserez régulièrement le terme « polling ». Il s'agit de la fréquence à laquelle sont envoyées les informations du clavier vers l'ordinateur. Il est bien souvent de 1000 Hz pour les claviers pour joueurs.
Certains claviers sont dits « ergonomiques » car leur forme est plus adaptée à la position des bras et des mains :
Ces claviers ont des blocs de touches séparés et orientés, permettant aux mains de rester dans l'alignement des bras (voir à gauche ci-dessus). Si vous avez devant vous un clavier classique, observez la position de vos bras lorsque vous tapez du texte : ils sont en « V », car vos épaules sont plus larges que votre clavier. Les touches y étant alignées parallèlement à vos épaules, vos poignets doivent être « cassés » pour pouvoir appuyer sur les touches. Ainsi, les mains ne sont plus alignées avec les bras. Si, si, essayez, vous verrez. ;) Sur le long terme, cela peut poser des problèmes irréversibles au niveau des articulations.
Dans la même idée, ces claviers sont inclinés de façon inverse par rapport aux claviers classiques, ils penchent vers l'avant : la partie devant soi est plus haute que celle du côté de l'écran (voir l'image de droite ci-dessus).
Utiliser ce type de claviers demande un temps d'adaptation non-négligeable, mais le confort apporté est tel qu'il est bien souvent difficile de repasser à un clavier classique après coup. ^^
Un autre point d'ergonomie souvent négligé est la gêne procurée par la présence d'un pavé numérique sur la droite du clavier. Si vous êtes droitier, cela vous oblige à placer la souris plus loin que nécessaire sur la droite. Vous êtes ainsi amené à tendre le bras et casser votre poignet (là encore) pour utiliser la souris. Pour remédier à cela, vous pouvez choisir un clavier sans pavé numérique et vous en procurer un séparé, que vous brancherez en USB ou sans fil :
Ces éléments sont également utiles pour les ordinateurs portables, ne disposant souvent pas de pavé numérique intégré.
Certains modèles possèdent un petit écran, permettant d’en faire des calculatrices même lorsque l’ordinateur est éteint.
Connectique
Les vieux claviers se connectaient sur un port PS2, mais l'immense majorité des claviers actuels utilisent un port USB. La norme (USB 1 ou USB 2) n'est pas très importante au vu de la très faible quantité d'information transitant entre l'ordinateur et le clavier.
Si les fils vous gênent, vous pouvez opter pour un clavier se connectant en infra-rouge ou par ondes radio (Bluetooth ou autres).
Mais il y a un revers à la médaille : la relative perte de réactivité de ces claviers. Celle-ci est totalement négligeable pour une utilisation « bureautique », mais les joueurs chevronnés ne manqueront pas de l'utiliser comme excuse en cas de défaite. ;)
Je suis sûr que vous n'êtes pas dans le même cas que Jacques Chirac, qui lors de l'inauguration de la bibliothèque François-Mitterrand en 1995 s'était approché d'un étrange objet en demandant : « La souris, qu'est-ce que c'est ? ». Bref, vous savez ce qu'est une souris et vous en avez tous déjà utilisé une. Cela dit à l'heure du choix, il y a quelques petites choses à savoir à propos du « mulot ».
La souris a été inventée en 1963 par Douglas Engelbart, dans le but d'apporter une solution d'interface homme-machine. Il donne au brevet de son invention le nom somme toute très poétique de « X-Y position indicator for a display system » (traduisez « Indicateur de position X-Y pour un système d'affichage »). Le nom « souris » n'est apparu que quelques années plus tard dans une publication scientifique (il n'est donc pas breveté, ce qui peut faire sourire à l'heure où une guerre des brevets fait rage chez les constructeurs de matériel informatique). Le brevet de la souris n'a d'ailleurs été vendu qu'une bouchée de pain au MIT.
Différents types de capteur
Très vite, un dispositif de capteur de mouvement s'est imposé : celui d'une boule située sous la souris, qui entraîne deux rouleaux correspondant aux axes X et Y :
Si ce type de souris a perduré pendant de nombreuses années, on ne le croise presque plus aujourd'hui. Et c'est tant mieux, car la boule et les rouleaux avaient une fâcheuses tendance à accumuler de la poussière, ce qui imposait un entretien régulier de ces derniers.
Aujourd'hui, nos souris sont « optiques » et non plus mécaniques. Le principe général de fonctionnement est le suivant : un capteur acquiert les images du support sur lequel glisse la souris et s'en sert pour déterminer le mouvement effectué. Ce sont les aspérités de la surface qui permettent à la souris de se repérer :
Sans ces aspérités (sur une surface parfaitement lisse par exemple), la souris ne peut pas se rendre compte qu'elle a été déplacée. De la même façon, une surface réfléchissante fera perdre la boule à votre souris optique. :-°
Plusieurs technologies coexistent, à commencer par la plus ancienne d’entre elles : la souris à LED. Selon les constructeurs, elle a été remplacée par un laser ou par un rayon infrarouge, ce qui améliore la détection des aspérités.
Dans le chapitre traitant du choix de l'écran, nous avons parlé de résolution pour définir la « densité de pixels sur une surface donnée». On retrouve cette notion de résolution dans les caractéristiques des souris optiques car elle définit l'image de la surface analysée par la souris. Plus elle est élevée, plus les aspérités seront facilement « visibles » par la souris, assurant donc une meilleure précision.
Une résolution de 800 ppp est un minimum pour une utilisation « bureautique ». Un joueur aura par contre besoin d'une souris d'au minimum 1800 ou 2000 ppp, mais on en trouve des encore plus précis, pouvant monter à 3500, 5000 ou même 6000 ppp. Comme d'habitude, il est bon de se poser la question du réel intérêt de la chose, si ce n'est une course à l'argument commercial entre les constructeurs.
Avec ou sans boutons ?
Excepté chez Apple, où les souris n'en ont longtemps comporté qu'un seul, les premières générations de souris comportaient deux ou trois boutons. Le troisième bouton a aujourd'hui été remplacé par une molette permettant un défilement vertical, voir horizontal pour certaines, pouvant également servir de bouton. Chez Logitech, certains modèles permettent une utilisation crantée de la molette, ce qui améliore la précision mais peut s'avérer désagréable pour faire défiler une page Web.
Certaines souris sont dotées de boutons supplémentaires comme par exemple des boutons de choix de la résolution ou encore les boutons « Suivant » et « Précédent » d'un navigateur Web, très utiles si vous surfez beaucoup,
Comme pour les claviers, on trouve des modèles de souris à boutons programmables.
Pour les professionnels d'imagerie 3D, des souris tout à fait… spéciales existent. À ce niveau, il devient presque difficile de classer ces périphériques dans la catégorie « souris ». ^^ Jugez plutôt :
Certaines personnes plutôt habituées aux ordinateurs portables préfèrent parfois utiliser un pavé tactile qu’une souris. Il est tout à fait envisageable de s’en procurer un pour ordinateur fixe, que l’on branchera alors via un port USB (certains modèles sont également sans fil) :
Enfin, si vous êtes allergiques aux boutons, quelques constructeurs proposent des souris tactiles, qui sont finalement un parfait mélange entre le pavé tactile et la souris classique :
Connectique
Côté connectique, il n'y a pas grand-chose de plus à dire sur la souris qui n'ait déjà été dit pour le clavier. Les anciennes souris utilisaient un port PS2 mais sont depuis passées à l'USB. Pour les technologies sans fil, le confort d'utilisation est compensé par une réactivité moins bonne qu'avec une souris filaire. Là encore, ce sont surtout les joueurs ou les graphistes qui seront à cheval sur ce critère. Très peu de souris sans fil sont donc adaptées pour jouer (ou alors elles sont bien plus chères).
Longtemps réservées aux professionnels, les tablettes graphiques sont désormais accessibles au grand public. Il ne s'agit pas simplement de remplacer la souris par un stylet, même si ce simple fait présente déjà un indéniable intérêt pour le dessin. Non, les tablettes graphiques ont d’autres atouts dans leur sac.
Principe de fonctionnement d'une tablette classique
Tout d’abord, voilà à quoi ressemblent une tablette et son stylet :
La tablette se connecte au PC via un simple port USB (ou bien sans-fil). Sa surface « utile » (là où le stylet est utilisable) a des proportions basées sur les standards de taille des feuille de papier (A4, A5, A6).
Le comportement d'une tablette est tout à fait différent de celui d'une souris ou même d'un pavé tactile d'ordinateur portable. Si votre souris arrive en bout de course sur son tapis, vous pouvez la lever et la repositionner au centre de ce dernier pour continuer votre geste. Pendant ce temps, à l'écran, le curseur ne bouge pas. Avec une tablette, ce cas de figure ne peut pas se produire car la position du stylet sur la tablette représente la position du curseur à l'écran. Si votre stylet se trouve dans le coin inférieur gauche de la surface utile par exemple, alors le curseur est sur ce même coin au niveau de l'écran. On dit que la tablette offre un mouvement absolu du curseur, par opposition au mouvement relatif obtenu avec une souris ou un pavé tactile.
Ce comportement peut poser problème quand les dimensions et la taille de la tablette sont très différentes de celles de l'écran. L'idée est donc de se procurer une tablette la plus semblable possible à l'écran. Mais vous vous en doutez, plus la tablette est grande, plus elle est chère… Évidemment.
L'autre atout majeur d'une tablette graphique par rapport à une souris est la possibilité de fournir plus d'informations que la simple position du curseur. Je pense notamment à la force avec laquelle vous tracez un trait dans un logiciel de dessin : plus vous appuyez fort et plus le trait est épais. Il est tout à fait impossible d'indiquer cela au logiciel avec une souris classique. La tablette est donc sensible à ce paramètre, ainsi qu'à l'inclinaison du crayon par rapport à la tablette et bien d'autres choses encore. Certains stylets disposent même d'un capteur supplémentaire à son autre extrémité afin de simuler la gomme se trouvant en haut des crayons à papiers.
Tout est donc fait pour que vous ayez l'impression de vous servir d'un véritable crayon ! Tout, sauf le fait que vous devez regarder l'écran et non votre main pour voir ce que vous faites. L'idéal serait que la tablette soit elle-même un écran…
Tablette LCD
De par leur prix élevé, les tablettes graphiques LCD restent à destination des professionnels. Cette fois, vous n’avez plus besoin de regarder l’écran pour voir ce que vous faites mais bel et bien votre main.
Attention à ne pas confondre ces tablettes graphiques avec les tablettes de type iPad ou Galaxy Tab. Ici, la tablette ne comporte pas de système d’exploitation. Elle est d’ailleurs reconnue comme un écran supplémentaire lorsqu’elle est branchée à l’ordinateur. De ce fait, elle doit être connectée à l’ordinateur à l’aide d’un port DVI ou VGA. En outre, elle nécessite bien souvent une alimentation électrique séparée, contrairement aux tablettes graphiques classiques.
Donnons à présent de la voix à notre ordinateur ! Certains écrans intègrent de petites enceintes mais ce n’est pas systématique et la qualité de ces dernières est rarement au rendez-vous. Pour profiter pleinement des capacités multimédia de votre machine il vous faudra donc vous procurer des haut-parleurs dignes de ce nom, surtout si votre PC doit faire office de Home Cinema ! Alors quelles sont les caractéristiques essentielles sur lesquelles focaliser votre attention ? Voyons cela.
Nombre de canaux et woofer
Tout d’abord, il faut définir le nombre de canaux dont vous disposerez. Autrement dit, le nombre d’enceintes de votre installation, chacune disposant de sa propre voie sonore. Vous devrez également choisir la présence ou non d’un woofer (ou caisson de basse). Ce dernier permet de reproduire les sons graves (basses fréquences), qu’on appelle communément « les basses ». C’est précisément le « boom-boom » dont vous a parlé votre voisin la dernière fois qu’il est venu râler parce que vous faisiez trop de bruit. L’autre nom du woofer n’est d’ailleurs autre que « boomer ». :-° Vous croiserez peut-être le terme LFE, qui désigne le canal audio destiné au woofer.
Ces deux paramètres se présentent sous la forme de deux chiffres séparés par un point : x.y :
x : Nombre de canaux, donc nombre d’enceintes.
y : Nombre de woofers, généralement 0 ou 1 (mais on peut monter à 2 dans les configurations haut de gamme).
Les configurations les plus courantes sont le 2.0 (stéréo), le 2.1 (stéréo et woofer) et le 5.1 pour le Home Cinema. Vous trouverez également du 6.1 voire du 7.1 dans le haut de gamme. Plus rare, on peut monter jusqu’au 7.2 voir au 12.4, mais ces configurations ne sont pas disponibles dans le commerce.
Petite précision amusante : le woofer peut être positionné où bon vous semble dans la pièce. En effet, l’oreille humaine ne sait pas reconnaître la provenance des sons graves. Cela dit, il est tout de même conseillé de le placer devant soit, pas totalement au milieu (légèrement décalé sur la gauche ou sur la droite) et de le mettre à même le sol afin de profiter des vibrations qu’il procure. C’est le voisin qui va être content ! ;)
Caractéristiques techniques
Puissance
La puissance d’un haut-parleur est directement liée à la quantité de décibels pouvant être émis. Ainsi, plus un haut-parleur est puissant, plus le son émis pourra être « fort ». Évidemment, une installation sonore dispose d’un contrôle du volume. La puissance indiquée est donc la puissance maximale que le haut-parleur pourra supporter.
La puissance est donnée en Watt RMS, ce qui correspond à la puissance efficace, seule mesure de puissance significative lorsque l’on parle d’acoustique.
Il faut être vigilant à la façon dont est présentée la puissance par les constructeurs. Bien souvent, on parlera de plusieurs puissances :
Puissance par satellite : puissance de chacun des haut-parleurs de l’installation.
Puissance voie centrale : puissance du haut-parleur central (pour les configuration 5.1).
Puissance du woofer : puissance du woofer.
Puissance totale : puissance de l’ensemble de l’installation.
Par exemple, une configuration 2.1 avec une puissance par satellite de 66 W RMS et une puissance du woofer de 68 W RMS aura une puissance totale de 2*66 + 68 = 200 W RMS. Ainsi, si vous désirez avoir énormément de basses dans votre installation, il vous faudra privilégier un lot de haut-parleurs donc la puissance du woofer est importante.
Rapport signal sur bruit
Le rapport signal sur bruit s’exprime lui aussi en décibels mais attention, il ne définit pas la puissance sonore de votre installation ! Pour cela, vous avez suivi, c’est la puissance RMS qui est à prendre en considération. Le rapport signal sur bruit représente la dégradation du son liée aux parasites présents dans l’installation.
Les parasites sont inévitables dans une installation électrique, le tout est de faire en sorte qu’ils se fassent le moins ressentir sur le résultat final (ici la qualité du son). Cela dépend notamment de la qualité des composants électriques des haut-parleurs. Tout comme dans un bloc d'alimentation, si le constructeur a choisi de faire quelques économies en utilisant des composants de mauvaise qualité, alors la qualité du produit final en pâtira.
Bande passante
La bande passante est la bande de fréquences que peuvent fournir les haut-parleurs. Les fréquences basses correspondent aux sons graves, les fréquences hautes aux sons aigus. La bande passante est donc définie par une borne basse et une borne haute. Plus la borne basse est faible, meilleurs seront les sons graves. Plus la borne haute est élevée, meilleurs seront les sons aigus.
Connectique et alimentation
La quasi-totalité des haut-parleurs se branchent à la carte son via une prise Jack 3,5 mm. C’est la prise « casque » classique que l’on retrouve sur n’importe quel baladeur.
Selon la puissance nécessaire à votre installation, l’alimentation électrique ne sera pas faite de la même manière. Pour les petits haut-parleurs stéréo, une alimentation via port USB (attention, on parle bien de l’alimentation électrique là, pas du transfert de données) peut suffire. En revanche, pour les plus grosses configurations, une alimentation séparée peut être nécessaire.
Casques et micro
Si votre voisin est vraiment trop regardant quant à sa tranquillité, il vous faudra peut-être opter pour un casque plutôt que des haut-parleurs. On retrouve bon nombre de paramètres similaires, à commencer par le type : Stéréo, 5.1 ou 7.1.
La forme du casque dépend de vos propres goûts. On trouves des casques « tour de tête », « tour de cou » ou bien « compact » :
Bien sûr, de par leur taille, les casques « compact » et « tour de cou » ne peuvent pas fournir le même confort qu'un casque « tour de tête ». Vous ne pourrez pas profiter du 5.1 ou 7.1 par exemple.
Si vous préférer les casques « tour de tête », vous avez alors le choix entre (amis des termes techniques-compliqués-pour-pas-grand-chose, bonjour !) circum-aural et supra-aural. La bonne nouvelle, c'est que vos plus ou moins lointains cours de latin vont enfin vous servir ! « aural » vient du latin « auris », qui veut dire « oreille ». « supra » signifie « supérieur » et « circum » est utilisé pour « autour ». Bref, un casque circum-aural est un casque dont les écouteurs englobent l'oreille, alors qu'un casque supra-aural a des écouteurs qui viennent s'appuyer sur l'oreille, sans toutefois l'entourer.
Bon, je sens que le latin vous est monté à la tête… Regardez l’image ci-dessus, le premier casque est circum-aural (l'oreille est englobée), alors que le second est supra-aural. C’est plus clair ? :p
Au niveau de la connectique, on utilisera là encore une prise Jack 3,5 mm. De plus en plus de casques-micros se connectent en USB ou proposent les deux à la fois (Jack 3,5 mm et USB). Si votre boîtier vous le permet, il est plus pratique d’avoir une entrée audio directement en façade, histoire de ne pas se contorsionner derrière sa tour à chaque branchement du casque.
Certains casques sont équipés d’un micro, très utile dans certains jeux ou pour discuter avec des proches via Internet. Cela dit, vous pouvez tout à fait vous procurer un micro séparément du casque. Dans ce cas, on retrouve principalement deux grandes familles de micros :
Les micros de type « bureautique » (dits aussi « informatique »), dont la qualité n’est pas extraordinaire mais néanmoins largement suffisante pour une utilisation standard.
Les micros « multimédias », plus performants mais aussi plus chers.
Nous arrivons à un point de ce chapitre qui intéressera particulièrement les joueurs. ;) Commençons « classique », avec les gamepads :
Ces manettes de jeux universelles permettent de jouer à pratiquement n’importe quel jeu. Parmi les détails intéressants à regarder avant l’achat, on peut citer la présence ou non d’un retour de force ainsi que la connectique, USB ou sans fil. Certains gamepads sont multiplateformes, ce qui vous permettra de les utiliser avec une console de salon (Xbox 360 ou PS2/3, mais pas les deux) en plus du PC.
Les fans de simulation de vols ne se contenteront pas longtemps d’un simple gamepad et se tourneront très vite vers un joystick, accompagné d’un accélérateur :
Les plus acharnés complèteront cet ensemble par un pédalier, voir un siège. Bref, il ne manquera plus que les ailes… Notons que certains joysticks sont également multiplateformes et à retour de force.
Enfin, un ensemble volant/pédalier ravira les fans de simulations de courses :
Finissons ce chapitre avec un périphérique désormais intégré à la majorité des ordinateurs portables : la webcam. Sur un PC fixe en revanche, il vous faudra en choisir une. Voyons justement les critères de choix importants.
Tout d’abord, même si cela n’apporte rien techniquement, la fixation de votre webcam est importante. Il n’y a rien de plus rageant qu’une webcam que l’on doit faire tenir en équilibre sur un support de fortune trouvé rapidement sur un bureau mal rangé… Au moindre courant d'air, elle tombe, et votre interlocuteur doit avoir le cœur bien accroché. :colere: Les webcams à fixation « universelle » sont censées pouvoir être posées n’importe où :
Seulement voilà, essayez de poser cette webcam « universelle » sur un écran LCD… Il existe donc des fixations spécialement conçues pour les écrans plats :
Ce détail pratique réglé, intéressons-nous à la qualité du capteur. Deux points sont à prendre en compte : le nombre de pixels et la définition maximale. Je ne reviens pas sur ces points, nous en avons parlé dans le chapitre consacré à l’écran. Attention tout de même à la résolution maximale qui peut être différente de la photo à la vidéo. La plupart du temps, une webcam est utilisé pour de la vidéo, se baser sur la résolution photo n’est donc peut-être pas le plus judicieux. :-°
Les webcams peuvent aussi êtres équipées d'un micro, voire deux sur certains modèles.
Les meilleures webcams sont autofocus et certaines sont même en HD. Reste à savoir si ces caractéristiques vous sont utiles pour l’usage que vous ferez de votre webcam, une simple session de chat vidéo de temps en temps ne les justifie peut-être pas.
Clavier : Les claviers standards actuels se distinguent principalement par leur ergonomie (sans parler de la disposition des touches, bien évidemmment). Si vous êtes joueur, la donne change car les critères de choix sont plus nombreux : touches rétro-éclairées, touches programmables, polling 1000 Hz, voire écran LCD intégré. Attention enfin aux claviers sans fil, dont la réactivité sera plus faible.
Souris : Tout comme pour les claviers, les souris standards conviendront très bien aux utilisateurs « bureautique ». Les souris à boule ayant quasiment disparu de la surface de la planète, il ne reste plus que des souris optiques aux capacités bien supérieures. Les joueurs se méfieront des souris sans fils et chercheront des souris avec un capteur de résolution 1800 ou 2000 ppp minimum. Enfin, des boutons supplémentaires (parfois programmables) peuvent être un plus.
Tablette graphique : Une tablette graphique, contrairement à une souris, est un dispositif de pointage absolu. Pour plus de confort, il faut donc que la surface utile de la tablette s'approche au plus près des dimensions et du format de l'écran. Les tablettes LCD, haut de gamme, permettent de visualiser directement sur la tablette ce qui est tracé.
Haut-parleurs : Choisir ses haut-parleurs, c'est d'abord choisir le nombre d'enceintes de son installation, ainsi que la présence ou non d'un woofer. Ainsi, vous opterez pour une installation 2.0 (stéréo simple), 2.1 (stéréo et woofer) ou 5.1 (cinq enceintes et woofer) pour le Home Cinéma. Il faudra porter une attention particulière à la puissance de l'installation totale mais aussi à celle de chacun des éléments (ainsi, choisir en fonction de votre préférence pour les basses ou les hautes fréquences).
Gamepads, Joysticks et volant : C'est avant tout le type de jeu qui dictera la manette à acheter (courses automobiles, simulateurs de vols, etc.). Si vous optez pour un gamepad, il peut-être intéressant d'en choisir un multiplateforme, utilisable sur votre console de salon. Dans tous les cas, les manettes à retour de force apporteront un petit plus à vos parties.
Webcam : Qualité du capteur et résolutions sont les premiers critères de choix d'une webcam. Attention également à la fixation de cette dernière.
Arrêtons-nous là pour le moment. L'idée n'est pas de décrire en détail tous les périphériques susceptibles de graviter autour de votre ordinateur. Nous avons vu les principaux, mais il y en a beaucoup d'autres ! Je pense par exemple aux télécommandes de HTPC ou à la reconnaissance vocale, mais aussi à des périphériques d'avenir tels que les appareils à détection de mouvement (le fameux Kinect de Microsoft en est un des premiers représentants). Imaginez un PC pouvant être totalement dirigé au doigt et à l’œil, un geste pour ouvrir un dossier, un autre pour le refermer, etc. Mais nous n'en sommes pas encore tout à fait là. ^^
Ce chapitre étant terminé, nous avons passé en revu tous les composants (et même un peu plus) nécessaires à l'achat d'un PC à assembler. Avant de passer au montage à proprement parler du PC, j'aimerai vous parler d'une dernière gamme de périphériques : les imprimantes et scanners.
Finissons cette première partie avec des éléments tout à fait optionnels mais ô combien pratiques : les imprimantes et les scanners. Nous ne détaillerons pas l’ensemble des types d’imprimantes existants mais simplement ceux destinés aux particuliers. Nous verrons les principes généraux de fonctionnement, avant de nous pencher sur les caractéristiques importantes.
Idem pour les scanners, nous resterons dans des gammes de prix abordables et des usages classiques. Nous aborderons pour terminer les imprimantes multifonctions.
Principes de fonctionnement d’une imprimante jet d’encre
Le principe de fonctionnement d’une imprimante jet d’encre est très simple, « tout est dans le nom » : de l’encre est projeté sur la feuille sous forme de petites gouttelettes d’encre. Si l’idée paraît simple, l’application l’est beaucoup moins quand on connaît la taille des gouttelettes, dont le volume est de l’ordre de quelques picolitres () !
Une tête d’impression est équipée de très nombreuses buses, chacune capables de projeter une goutte d’encre. Afin de garantir un rendu d’impression précis et constant, il est très important que le volume de ces gouttes soit lui aussi constant. Pour cela, la technique la plus répandue est l’utilisation d’un quartz piézo-électrique, dont la particularité est de pouvoir se déformer lorsqu’il est soumis à une impulsion électrique. En se déformant, il éjecte la goutte de la buse vers le papier. En fait, c’est comme une bouteille de ketchup, mais la pression de la main sur le flacon est remplacée par une impulsion électrique sur un quartz. :p
Principes de fonctionnement d’une imprimante laser
Imprimantes laser et jet d'encre n'ont absolument rien à voir. Tout d'abord, il n'est plus question de cartouches d'encre liquide mais de toner, également appelé « encre en poudre ». Par abus de langage, on appelle « toner » le consommable des imprimantes laser, même s'il s'agit en réalité de la poudre qui y est contenue.
L'imprimante est également constituée d'un laser (d'où son nom) et d'un tambour, qui sera utilisé pour déposer le toner sur le papier.
Afin de fixer le toner sur le papier, l'imprimante va utiliser le principe des charges électro-statiques, que nous avons déjà croisées dans ce tutoriel. Une charge peut être négative ou positive, deux charges identiques se repoussent, deux charges opposées s'attirent (comme un magnet sur une porte de frigo). Tout d'abord, le papier est chargé positivement, alors que le tambour est chargé négativement.
À l'aide d'un jeu de miroirs, le laser va charger le tambour positivement en certains endroits précis, correspondant aux points à imprimer. À cet instant, le tambour est alors chargé positivement en ces endroits et négativement partout ailleurs.
Le laser « écrit » en charges positives sur le tambour qui, lui, est chargé négativement. En rouge les éléments chargés négativement, en vert les éléments chargés positivement.
Le toner, chargé négativement, est alors présenté au tambour. Le tambour attire donc la poudre aux seuls endroits chargés positivement. En faisant rouler le tambour sur la feuille de papier, le toner y est déposé. Mieux, le papier étant chargé positivement, il attire à lui le toner. Le tour est joué, la feuille est imprimée !
Pour terminer, le papier est chauffé afin de faire fondre le toner, ce qui a pour effet de le fixer durablement sur le papier. Voilà pourquoi une feuille est chaude lorsqu'elle sort d'une imprimante laser ! Ce n'est pas le laser qui l'a chauffée, comme on aurait tendance à croire. ;)
Le principe est le même pour les imprimantes laser noir & blanc et couleur. Dans ce dernier cas, les toners cyan, magenta et jaune peuvent être appliqués en une seule passe (on parle d'imprimantes « tandem ») ou en quatre passes (imprimantes « carrousel »).
Des différences plus ou moins apparentes
Un fait saute aux yeux : une imprimante laser est plus chère qu'une jet d'encre, surtout s'il s'agit d'une imprimante laser couleur. Mais attention, on ne parle ici que du prix d'achat ! À y regarder de plus près, on remarque que les imprimantes laser peuvent être rentabilisées relativement vite en raison du prix des « consommables », c'est-à-dire des cartouches et toners. Les constructeurs utilisent en effet une petite arnaque bien connue : ils baissent le prix des imprimantes pour inciter à l'achat et font la plus grosse partie de leur marge sur les consommables. À ce petit jeu-là, les imprimantes laser ont un avantage certain car quand un lot de cartouches permet d'imprimer quelques centaines de pages tout au plus, un toner sera toujours d’aplomb au bout de quelques milliers d’impressions. :waw: En moyenne, l’impression d’une page revient trois fois moins chers avec une imprimante laser. La différence se fait sentir sur le long terme !
En parlant de long terme, il faut également garder à l’esprit que les têtes d’impression d’une imprimante jet d’encre ont tendance à s’encrasser. Cela est d’autant plus vrai si l’imprimante n’est pas utilisée pendant quelques mois : il reste toujours un petit peu d'encre qui risque de sécher dans les buses d'impressions. Ce problème n’existe pas (ou peu) avec les imprimantes lasers, ce qui leur confère une durée de vie généralement plus grande.
Cela dit les imprimantes jet d’encre n’ont pas que des vices cachés et offrent un bien meilleur rendu pour l’impression de photos. Les imprimantes laser sont plutôt limitées à ce niveau là et sont ainsi plus adaptées à l’impression de textes bruts. Tout dépend donc de votre consommation. Imprimez-vous plutôt des photos ou des textes ?
Enfin, les imprimantes laser surclassent largement les imprimantes jet d’encre en terme de vitesse d’impression. Cela étant, toutes les imprimantes d'une gamme ne sont pas forcément sur un pied d'égalité concernant la vitesse. Cette dernière est mesurée en ppm (à ne pas confondre avec le ppp de la résolution !).
Caractéristiques importantes d'une imprimante
Un certain nombre de caractéristiques importantes sont communes à toutes les imprimantes, laser ou jet d’encre. Ce qui suit va donc vous intéresser quel que soit votre choix.
Format de papier
Commençons par ce qu'il y a de plus « macro » : le format du papier que peut gérer l'imprimante. Le format le plus courant est le format A4, soit 21 sur 29,7 centimètres. C’est le format le plus répandu dans le Monde, à l’exception notable de l’Amérique du Nord (et donc du Québec) où le format de prédilection est le « US Letter » (8,5 sur 11 pouces). Dans les faits, les imprimantes sont compatibles d’un continent à l’autre. Vous n’aurez qu’à remplir le bac de papier avec le format qu’il vous plaira. ;)
Le format A3 (29,7 sur 42 centimètre) est le second format le plus répandu. Il est le « double » du format A4. Certaines imprimantes sont présentées comme « A3+ », ce qui leur permet d’imprimer en un format légèrement supérieur au format A3 standard.
Au-delà du format A3, on utilise plutôt des tables traçantes :
Mais ces tables sont surtout utilisées en milieu professionnel, nous n'en parlerons donc pas plus que ça.
Résolution
La notion de résolution que nous avons croisée dans plusieurs chapitres est à nouveau de la partie ! Pour l’écran, elle caractérisait une densité de pixels présents à l’écran. En terme d’impression il n’y a pas lieu de parler de pixel mais l’idée est la même : la résolution représente ici le nombre de points par unité de longueur. Elle est exprimée en ppp (ou dpi en anglais). Bien sûr, plus la résolution est grande, meilleure sera la qualité de l'impression. Cela est particulièrement important pour l'impression de photos.
Aujourd’hui, les meilleures imprimantes « grand public » atteignent une résolution de 9600 ppp. Notons que les résolutions des imprimantes laser noir & blanc sont souvent moins élevées (2400 ppp par exemple), ce qui n’est pas étonnant dans la mesure où elles ne sont pas destinées à faire de la photo.
Connectique
Une imprimante se branche généralement via un port USB. Les quantités de données n'étant pas énormes, il n’est pas important de regarder la norme USB (2 ou 3) utilisée. Mais de nos jours, de plus en plus d’imprimantes sont accessibles sans fil, en Bluetooth, en Wi-Fi ou même en Ethernet.
Il peut en effet être intéressant, même au sein d'un petit réseau domestique de quelques ordinateurs, de s'équiper d'une imprimante « réseau », branchée cette fois à votre routeur en Wi-Fi ou via un câble Ethernet. Ainsi, tous les ordinateurs de la maison pourront imprimer à n'importe quel moment. Cela dit, certaines NetBoxes permettent d'obtenir le même résultat en branchant l'imprimante en USB. Il n'est alors pas nécessaire que l'imprimante soit une imprimante « réseau ».
Les petits plus
Reste des caractéristiques de moindre importance, mais que l'on qualifiera de « petits plus », telle que la capacité d'imprimer en recto-verso de façon automatique. Évidemment, dans l'absolu, il est possible d'imprimer en recto-verso quelle que soit l'imprimante. Il suffit d'imprimer le recto, de retourner la feuille « à la main » et de lancer l'impression du verso. Cela dit, il est bien plus confortable de laisser faire cette petite manipulation automatiquement par l'imprimante. ^^
La présence d'un bac interne (tiroir) pouvant accueillir beaucoup de feuilles peut s'avérer pratique à l'usage. Les imprimantes compactes ne peuvent souvent recevoir que quelques dizaines de feuilles en attente d'impression.
Si vous souhaitez imprimer régulièrement vos photos numériques, vous pouvez choisir une imprimante dotée de lecteur de cartes mémoires ou bien équipée de la norme « PictBridge », permettant d'imprimer une photo directement en branchant votre APN.
Plus spécialisées, certaines imprimantes peuvent imprimer directement sur un support optique (CD, DVD ou Blu-ray spécialement prévus à cet effet). Il suffit de positionner le disque dans l'emplacement dédié sur l'imprimante :
Impression sur supports optiques
Enfin, certaines imprimantes sont particulièrement bruyantes. Ce n'est pas un critère de la plus haute importance, mais ça compte, surtout si vous aimez le calme.
Une imprimante sert à sortir sur papier un document numérique, un scanner fait tout à fait l'inverse. À partir d'un objet matériel (généralement une feuille de papier), il permet d'obtenir un document numérique. Je vous propose d'aborder le scanner de la même façon que l'imprimante, en commençant par le principe de fonctionnement, avant de passer aux caractéristiques importantes.
Principe du scanner
Les scanners les plus courants sont les scanners « à plat », accueillant le document à numériser sous leur capot :
Mais ce type de scanner n'est pas le seul existant. On trouve également des douchettes (lecteurs de codes barres) ou des scanners à défilement :
Les douchettes sont plutôt utilisées en milieu professionnel. Les scanners à défilement sont plus compact, ce qui peut s'avérer un atout précieux sur un petit bureau, mais ils ont le gros inconvénient de ne pas pouvoir scanner autre chose qu'une feuille. Impossible de numériser une carte d'identité ou un livre par exemple (certains ont essayé, ils ont eu des problèmes…).
Quel que soit le type de scanner, le principe est à peu près similaire. L'idée est de parcourir tout le document afin d'en faire une « photo » numérique. Pour ce faire, une puissante source lumineuse éclaire le document et un capteur récupère les rayons réfléchis. Selon la longueur d'onde du rayon, le scanner est alors capable de déduire la couleur en un point particulier du document.
Ce procédé est répété sur l’ensemble du document à numériser, de différentes façons selon le type de scanner :
avec un scanner à plat, la source lumineuse fait un passage sur tout le document ;
avec un scanner à défilement, c’est le document qui se déplace ;
enfin avec une douchette, le déplacement est manuel.
Caractéristiques
Résolution et interpolation
Passons à présent aux critères de choix d'un scanner. Le plus important d'entre eux est, là encore, la résolution. Elle définit le nombre de pixels par unité de surface des images produites par le scanner. Elle doit donc naturellement être la plus élevée possible. Une résolution de 2400 ppp est un minimum, mais elle peut monter jusqu'à 9600 ppp.
Mais il y a mieux. La résolution dont je parle ci-dessus est la résolution « optique » du scanner, c'est-à-dire la résolution d'image que peuvent produire les capteurs du scanner. Les scanners sont dotés d'un logiciel interne capable d'interpoler la résolution des images obtenues, afin de l'augmenter artificiellement. Concrètement, le scanner peut par exemple produire une image de résolution 2400 ppp puis la transformer en une image de résolution 4800 ppp.
Si la résolution augmente, cela signifie que l'image est constituée de davantage de pixels. Comment le scanner s'y prend-il pour produire les nouveaux pixels ? Il les invente ?
Exactement ! Le scanner invente les nouveaux pixels ! Il le fait en se basant sur les pixels déjà présents. Prenons un exemple avec une image de résolutions horizontale et verticale de 2 ppp (oui, c'est peu, mais c'est pour l'exemple ;) ). 2 ppp de résolution horizontale, cela signifie qu'horizontalement, sur une longueur d’un pouce, il y a de la place pour 2 pixels. Idem verticalement. Ainsi, en prenant un petit carré d'un pouce de côté au sein de notre image, celui-ci sera constitué de quatre pixels :
L'image ci-dessus a été créée par le scanner à partir d'un document numérisé. Mais le nombre trop faible de pixels ne permet pas de représenter convenablement la réalité.
L'interpolation à laquelle procède le scanner a pour but d'augmenter la résolution. Dans notre exemple, soyons fous, nous allons la doubler ! Il y aura donc maintenant quatre pixels horizontalement et verticalement (et non plus deux), soit seize pixels en tout. Mais alors quelle va-t-être la couleur des nouveaux pixels ainsi créés ?
Toute la difficulté réside dans la détermination des couleurs des nouveaux pixels. Le scanner les calcule en se basant sur les couleurs des pixels déjà présents. Il existe de nombreuses méthodes aux algorithmes parfois très poussés. Mais une possibilité serait de faire une sorte de « moyenne » des couleurs des pixels alentours. Par exemple, si le pixel à « colorer » se trouve entre un pixel blanc et un pixel vert, alors la couleur résultante du nouveau pixel sera un vert clair . Dans notre cas, les nouveaux pixels seront un savant mélange de rouge, vert, bleu et jaune, selon leur position :
L'image ainsi produite par le scanner a donc une meilleure résolution que ce que permet en théorie le matériel. Elle semble ainsi moins « pixelisée » que si aucune interpolation n'avait été faite et représente donc mieux la réalité.
Cette technique a toutefois ses limites, car si l'on pousse un peu trop l'interpolation, les pixels déduits n'auront plus grand rapport avec la réalité. De plus, le poids de l'image (en Mo) augmente avec sa résolution : plus il y a de pixels, plus il y a d'informations, plus l'image est lourde.
Profondeur de couleur
On l'a vu, une image numérique produite par le scanner est un ensemble de pixels. Une image est donc une liste de pixels, pour chacun desquels on connaît les deux informations suivantes :
la position du pixel au sein de l'image ;
la couleur du pixel.
Vous le savez, en informatique on utilise des « 0 » et des « 1 », les bits, pour stocker les informations. La couleur d'un pixel ne fait pas exception et est également codée sous forme de bits. On appelle profondeur de couleur le nombre de bits utilisés pour définir la couleur que peut prendre un pixel.
Si la profondeur de couleur est de 1, alors les couleurs sont codées sur un seul bit : 0 ou 1. En général, dans ces cas-là, 0 correspond au noir et 1 correspond au blanc. Une image de profondeur 1 est donc une image en noir et blanc.
Avec une profondeur de 2, les couleurs peuvent maintenant être codées sur deux bits chacune. On a ainsi :
00 : le noir ;
01 : le gris foncé ;
10 : le gris clair ;
11 : le blanc.
Avec une profondeur de 2, il y a donc 4 couleurs différentes possibles. La relation entre la profondeur p et le nombre de couleurs n est donnée par la simple formule suivante :
La profondeur de couleur définit donc indirectement le nombre de couleurs différentes que peut gérer le scanner.
Les scanners actuels gèrent des profondeurs de couleurs de 24, 36 ou 48 bits. Je vous laisse faire les calculs… ^^ Cela étant, quand on sait que l’œil humain est capable de discerner environ 2 millions de couleurs « seulement », on peut se poser la question du réel intérêt de disposer de couleurs. ;)
Reconnaissance de caractère
La ROC (ou OCR en anglais) consiste à produire un document informatisé à partir d'un document imprimé. Vous passez ainsi d'un format physique (une feuille de papier) à un format numérique (un fichier .txt), que vous pourrez alors utiliser dans votre logiciel de traitement de texte préféré. Cela peut s'avérer par exemple très utile pour récupérer un document dont vous avez perdu toutes les sauvegardes numériques et dont il ne vous reste plus qu'une version papier.
Tout le processus de reconnaissance des caractères se fait au niveau software, grâce à un logiciel dédié. Cela ne concerne donc pas directement les caractéristiques techniques du scanner. Néanmoins, certains scanners sont vendus avec un logiciel de ROC, ce qui en fait un point à prendre en compte à l'heure du choix.
Il est bien sûr possible d'acheter un tel logiciel à part, mais si votre besoin est précisément la numérisation des textes, il peut être intéressant (financièrement parlant) de faire un tir groupé. Notons cependant qu'il existe des logiciels libres (et gratuits) facilement accessibles sur Internet.
Comme pour les imprimantes…
Les critères de format, de vitesse et de connectique sont tout à fait similaires à ce dont nous avons déjà parlé du côté des imprimantes. Le format de scanner le plus répandu est le format A4, soit 21 sur 29,7 centimètres. Les scanners de plus grand format sont destinés à un usage professionnel.
De la même façon que pour la vitesse d’impression d’une imprimante, la vitesse d’acquisition d’un scanner se mesure en ppm. Elle dépend généralement de la résolution du scanner : plus celle-ci est élevée, plus le scanner mettra de temps à numériser une page. Cette caractéristique n'est cependant valable que pour les scanners à défilement.
Pour ce qui est de la connectique, l’USB, le Bluetooth et le Wi-Fi seront là encore les interfaces les plus courantes avec l’ordinateur. Enfin, certains rares (et chers) scanners peuvent être branchés en réseau.
Je n'ai plus rien à ajouter concernant les imprimantes et scanners en tant que tels, mais il reste une gamme d'appareils dont nous n'avons pas parlé : les « multifonctions ». Ils font office d'imprimante et de scanner bien sûr, mais pas seulement (nous en parlerons tout à l'heure). Je ne reviens pas sur les caractéristiques de ces deux fonctions, car ce sont les mêmes que pour des appareils dédiées.
Qui dit « plus de fonctions », dit en général « plus cher ». Ce n'est pas faux. Cela dit, les imprimantes jet d'encre monofonctions ne sont plus si avantageuses que cela en terme de prix si on les compare à des multifonctions d'entrée de gamme. L'encombrement n'est même plus un problème car certaines multifonctions s'avèrent très compactes. Maintenant, si vous refusez catégoriquement la présence d'un scanner chez vous (chacun ses principes…), alors pourquoi pas une monofonction, mais regardez au moins du côté des imprimantes laser ! Bref, j'essaie simplement de vous dire que les imprimantes jet d'encre monofonctions sont en fin de vie. ^^
Mais qui dit « plus de fonctions », dit également parfois « fonctions de moins bonne qualité ». Il est tentant de se payer un appareil tout-en-un, mais s'il se trouve être un piètre scanner et une imprimante médiocre, cela ne vaut peut-être pas le coup. Mais aucun problème puisque vous connaissez maintenant les caractéristiques importantes à regarder pour bien choisir. ;)
Un des avantages souvent apprécié chez les multifonctions, est la possibilité de scanner une feuille puis de l'imprimer aussitôt, sans même avoir besoin d'allumer l'ordinateur. Et scanner pour imprimer aussitôt… on appelle cela une photocopie ! Pensez-y.
Enfin, vous trouverez des multifonctions « 4 en 1 », incluant une fonction « fax » en plus de l'impression, du scanner et de la copie. Bien sûr, leur prix est plus élevé.
Le choix d'une imprimante et d'un scanner commence par le choix du type d'appareil : mono ou multifonctions. Ci-dessous, nous abordons chaque point séparément.
Imprimante : Tout d'abord, il faut choisir le type d'imprimante : jet d'encre ou laser. Le premier est moins cher à l'achat mais les consommables sont plus chers et sont à changer plus souvent. En contrepartie, une imprimante jet d'encre est bien meilleure pour l'impression de photos. Quel que soit le type choisi, résolution et vitesse d'impression sont les premiers critères de choix. Viennent ensuite le choix de la connectique et de la capacité ou non de s'intégrer à un réseau.
Scanner : Un bon scanner se démarque d'abord par une résolution élevée et une profondeur de couleur acceptable. Prenez garde en lisant les caractéristiques d'un scanner, à distinguer la résolution native de la résolution interpolée. La première est la résolution dont est véritablement capable le matériel. La seconde est déduite artificiellement. Il faut ensuite faire attention à la vitesse d'acquisition et à la connectique (avec ou sans fil, réseau ou non).
Multifonctions : Les caractéristiques importantes des imprimantes et scanners inclus dans les multifonctions sont les mêmes que pour les appareils dédiés. Prenez garde aux multifonctions qui trichent en jouant sur la qualité de chacune des fonctionnalités. Enfin, certaines multifonctions font également office de fax.
Nous en avons maintenant terminé avec les imprimantes et scanners. En fait, nous en avons terminé avec la première partie de ce tutoriel ! Vous devez maintenant pouvoir reconnaître les différents éléments pouvant se trouver à l'intérieur du boîtier ainsi que les périphériques pouvant s'y connecter. Cela étant, à l'heure du choix, il est fortement recommandé de lire un maximum de tests et comparatifs sur différents sites de hardware. Vous avez maintenant toutes les bases nécessaires pour les lire et les comprendre au mieux.
Dans la deuxième partie de ce tutoriel, nous allons passer à la pratique, avec le montage de l'ordinateur.
Vous êtes impatients de mettre les mains dans le cambouis ? Eh bien je vais vous faire patienter encore quelques instants, le temps de lire ce petit chapitre introductif sur l’assemblage de notre ordinateur. Maintenant que nous avons passé en revue l’ensemble des composants d’un ordinateur, vous savez de quoi il retourne précisément. C’est donc le moment pour moi de revenir sur l’intérêt même de monter soi-même son ordinateur. Nous parlerons ensuite des quelques outils indispensables et des précautions à prendre avant de commencer l’assemblage.
Je vous présenterai également la configuration qui va nous servir d’exemple dans le reste de ce tutoriel. En effet pour illustrer l’assemblage d’un ordinateur, nous nous sommes basés sur un cas pratique : le choix et l’assemblage de la configuration d'un joueur (dont nous tairons le nom bien entendu ;) ). Je vous expliquerai donc comment et pourquoi nous avons choisi tel ou tel composant. Cela constituera une petite étude de cas, afin de compléter ce que nous avons vu dans la partie précédente.
Si les « config' » pré-assemblées peuvent sembler plus pratiques de prime abord, il est souvent plus intéressant de choisir un à un ses composants et d’assembler le tout soi-même. Pourquoi donc ? Est-ce vraiment certain ? Eh bien je vais tâcher de vous répondre. ;)
Le prix, le choix
Premier argument en faveur de l’assemblage d’un ordinateur soi-même, et non des moindres : le prix. L’achat d’un ordinateur fait en général partie des « grosses » dépenses. Pouvoir le monter soi-même permet bien souvent de réaliser de belles économies. Même en prenant en considération les frais de port si l'on commande sur Internet, on peut bien souvent rester sous le prix d’un ordinateur pré-assemblé de configuration équivalente.
Imaginez que votre voisin vous demande des conseils pour l'achat d'un ordinateur. Il débute en informatique et veut principalement faire du Web. En lui montant sa configuration, vous pourrez choisir des composants adaptés. Vous allez me dire que vous pouvez très bien lui acheter un ordinateur pré-assemblé d’entrée de gamme pour un prix dérisoire. C’est vrai, mais la qualité des composants ne sera pas forcément au rendez-vous. De plus, il y aura forcément des composants non adaptés, comme le disque dur par exemple, souvent cent fois trop grand pour un utilisateur lambda. Les constructeurs aiment gonfler le torse en mettant en avant des capacités de stockage élevées, mais est-ce vraiment utile pour le voisin en question ?
Entendons-nous bien : vous ne réaliserez pas forcément d’économies en montant votre ordinateur vous-même ! Ce n’est pas automatique, les écarts de prix n'étant pas assez significatifs pour cela. En revanche, vous avez le choix d’acheter les composants qui vous correspondent. Si vous souhaitez par exemple vous équipez d’une bête de course prête à supporter les jeux les plus gourmands du moment et ceux à venir, vous pouvez très bien choisir des composants haut-de-gamme. L’addition sera salée, mais au moins vous l’aurez choisi et vous saurez dans quoi vous mettez votre argent. Et surtout, vous ne serez pas obligés de changer votre ordinateur dès qu'un nouveau jeu assez gourmand en ressources pointe le bout de son nez.
Vous aurez également le choix de vous procurer les composants dans divers magasins et non en un seul endroit. La concurrence est rude et permet d’obtenir des prix très intéressants pour chacun des composants, faisant ainsi baisser le prix de l’ensemble de la configuration. Au final, obtenir une configuration équivalente à un prix équivalent avec un ordinateur pré-assemblé relève du défi.
Enfin, les ordinateurs déjà montés sont généralement mal équilibrés. Vous pouvez par exemple avoir un CPU très performant et une quantité de RAM énorme, mais une carte graphique rachitique, alimentée par une alim' « no name ». Vous ne pourrez pas jouer dans de bonnes conditions, malgré les belles performances affichées par le constructeur.
La fausse difficulté
« Oui, mais monter un ordinateur, c’est compliqué, c’est pour les pros. » Voilà la phrase qu’on entendra souvent. En lisant les chapitres à venir, vous allez vous rendre compte que cette difficulté est en réalité toute relative. Bien sûr, il faut connaître quelques petites choses, mais rien d’insurmontable. Au contraire.
Le plus compliqué est sans doute de connaître les composants : à quoi servent-ils, comment les choisir ? La première partie du tutoriel était là pour ça. ;)
La maintenance
Quand l'ordinateur du voisin tombe en panne, quelle est bien souvent sa première réaction ? Il jette le tout aux ordures et en achète un nouveau. C’est dommage quand on sait que seule la carte graphique était en rade. En montant son ordinateur soi-même, on le connait, on sait quoi faire quand il tombe en panne. Monter son ordinateur soi-même, c’est bien souvent réparer son ordinateur soi-même.
Je vous parlais d'économies à l'instant, imaginez celles que vous réaliserez en changeant simplement une carte graphique plutôt que l'ensemble de l'ordinateur !
Sans parler de panne, un ordinateur monté par vos soins sera aussi bien plus évolutif. Vous saurez quel composant changer, pourquoi et comment le faire. Sa durée de vie sera considérablement allongée.
Et il faut bien dire : c’est chouette !
Je terminerai avec une petite note totalement subjective : monter un ordinateur, c’est quand même sacrément sympa ! Outre la fierté de se dire « c’est moi qui l’ai fait », une personne s’intéressant de près ou de loin à l’informatique apprécie généralement d'assembler les composants entre eux pour voir naître sa machine.
Avant de commencer l’assemblage, il est fortement conseillé de dégager le terrain. Préparez-vous une surface plane suffisamment grande pour accueillir le boîtier couché, les composants et les outils.
Enfin quand je dis « les outils », je m'avance peut-être un peu. Aujourd'hui, les systèmes dits « tool less » (« sans outils ») et « screw less » (« sans vis ») sont de plus en plus répandus. Vous n'aurez besoin, tout au plus, que d'un tournevis cruciforme. L'idéal serait qu'il soit aimanté, afin d'aller chercher les vis qui seront tombées au fin fond du boîtier. Si, si, ça arrivera forcément. ;)
Armez-vous également d'au moins un post-it (ou d'une feuille de papier). Vous verrez plus tard pourquoi…
Enfin, puisque tout problème avec l'électricité statique peut endommager certains composants, mieux vaut éviter les sols avec de la moquette, et se décharger en touchant un objet métallique avant de commencer le montage (la cage en acier du boîtier fera très bien l'affaire).
Comme je vous le disais en introduction, nous nous sommes basés sur un cas pratique pour illustrer cette partie du tutoriel : celui du choix et de l’assemblage d’une configuration de joueur.
Les besoins
Tout d'abord, il est important de bien définir les besoins de la personne bénéficiaire de l'ordinateur. Si c'est vous, ce sera plutôt simple. Si c'est pour quelqu'un d'autre, il faudra lui poser quelques questions. La plus importante d'entre elles est sans doute : pour quelle utilisation l'ordinateur va-t-il servir ?
Dans notre cas, les besoins sont les suivants :
Avant tout, il faut une configuration de joueur.
Les autres utilisations seront le surf, la bureautique, la lecture de vidéo de façon très occasionnelle et la lecture de musique.
Le système doit être réactif.
L’écran doit être généraliste : il sera utilisé aussi bien pour jouer que pour surfer.
Si possible, le tout doit être silencieux.
Il n'y aura pas d'overclocking.
Matériel déjà possédé : clavier, souris, haut-parleurs
Le budget se situe aux alentours de 1200 €.
Notre choix
En fonction de ces besoins, nous avons (ou plutôt CyberS@m a) établi la configuration ci-dessous. Les composants sont rangés dans l'ordre dans lequel ils ont été choisis (le processeur avant la carte mère par exemple). Nous avons tâché d'expliquer le choix de chaque composant.
Processeur : Cette config' étant avant tout destinée au jeu, nous avons choisi un INTEL Core i5 2500 qui, actuellement, est largement suffisant pour ce type d'utilisation.
Ventirad CPU : Un ventirad est fourni avec le CPU, mais afin d'avoir une config' plus silencieuse, nous avons ajouté un COOLER MASTER Hyper 212 Evo qui sera également plus performant (le CPU chauffera moins, ce qui est mieux pour sa longévité).
Carte mère : Le choix du CPU étant effectué, nous nous renseignons sur le socket compatible. Pour cela, rien de tel que de se rendre sur le site du constructeur. À la ligne « Sockets Supported », on trouve LGA1155.
Après une petite recherche rapide sur le Web, nous apprenons qu'un tel socket nécessite une carte mère dotée d'un chipset INTEL H67, P67 ou Z68. Le premier est surtout utile pour ceux qui veulent pouvoir utiliser l'IGP du CPU (le Processeur Graphique Intégré) et qui n'overclockeront pas. Le second est plutôt fait pour ceux qui ne comptent pas utiliser l'IGP mais veulent pouvoir overclocker. Enfin le troisième est le remplaçant du second. Pour résumer :
H67 : utilisation de l'IGP mais pas de possibilité d'overclocking.
P67 : pas d'utilisation de l'IGP mais overclocking possible.
Z68 : utilisation de l'IGP, possibilité d'overclocking et tout un tas d'autres avantages : Rapid Storage (combinaison d'un SSD avec un HDD), possibilité de combiner les cartes graphiques pour accroitre les performances (on parle de la technologie SLI pour nVIDIA, présente sur certaines cartes de moyenne et haut de gamme, et de la technologie CrossFire pour AMD, présente cette fois par défaut sur toutes les gammes de cartes mères) et Lucid Virtu (association de l'IGP avec le GPU).
Bref, le H67 est limité et le P67 étant petit à petit remplacé par le Z68, il n'a plus trop d'intérêt. Même si nous n'utiliserons pas toutes ses fonctionnalités (qui restent somme toute secondaires), notre budget nous permet de choisir une carte mère dotée d'un chipset Z68. Une ASUS P8Z68-V LX aurait été suffisante, mais le budget nous le permettant, nous avons préféré prendre une P8Z68-V/Gen 3 qui, du fait de sa compatibilité avec la future norme PCIe 3.0, devrait être plus évolutive.
Mémoire : Pour ce type d'utilisation, 4 Go de RAM auraient été suffisants. Mais le prix de la RAM étant très bas en ce moment, nous avons opté pour un kit de 2x4 Go histoire de voir venir. Aussi, de la PC3-10.600 aurait été suffisante mais la PC3-12.800 étant plus ou moins au même prix tout en offrant de meilleures performances, nous avons donc choisi cette fréquence. Enfin, afin de ne pas gêner le ventirad CPU, nous avons un modèle « Low Profile » (avec des radiateurs peu imposants).
Carte graphique : Nous avons opté pour une SAPPHIRE Radeon HD 6950/2Go v.3, qui permettra de jouer à la majorité des jeux actuels avec toutes les options graphiques poussées au maximum ou presque (dans certains jeux, il faudra peut-être baisser voir désactiver l'AntiAliasing et l'AnisotropicFiltering) en 1920x1080. De plus, ce modèle est transformable en AMD Radeon HD 6970 (je vous laisse chercher la manip' par vous-même ;) ).
Disque dur 1 (OS, softs et jeux) : Afin que l'ordinateur soit très réactif, nous avons choisi de prendre un SSD pour accueillir l'OS et les logiciels. Le SAMSUNG 128 Go Serie 830 n'est peut-être pas le plus performant (il fait tout de même parti des meilleurs) mais il est plutôt fiable.
Disque dur 2 (SWAP et données) : Pour seconder le SSD dont la capacité risque d'être un peu faible (les jeux prennent de plus en plus de place), nous avons choisi un SEAGATE 500Go Barracuda (ST500DM002). Avec son unique plateau d'1 To de densité, il sera performant et permettra d'y mettre le SWAP ainsi que les jeux ne pouvant pas rentrer sur le SSD (les moins utilisés).
Lecteur/graveur Blu-ray/CD/DVD : Un SONY/OPTIARC AD-7280S sera suffisant ici tout en étant assez silencieux.
Alimentation : La config' n'est pas destinée à être overclockée et selon la carte graphique choisie, un des calculateurs dont nous parlions dans le chapitre concerné nous pousse à choisir une OCZ ZS Serie de 550W.
Boîtier : Pas trop cher, bien conçu et plutôt silencieux, le FRACTAL DESIGN Core 3000 nous a semblé le plus intéressant ici.
Écran : Nous avons choisi un LG Flatron IPS236V qui est l'un des meilleurs rapports qualité/prix du moment et qui, avec sa dalle IPS de dernière génération, sera très bien pour tous les types d'utilisation.
Finalement, cela nous fait quelques cartons…
Parés ? Bien… Nous avons maintenant les outils et les composants, alors comme on dit : il n'y a plus qu'à ! Dans le prochain chapitre, nous commencerons l'assemblage de la configuration. Cet assemblage durera jusqu'au dernier chapitre de cette partie du tutoriel. Aussi, je vous conseille de la lire jusqu'au bout avant de commencer les premières manipulations !
Nous y voilà ! J’espère que ce petit chapitre introductif vous aura mis l’eau à la bouche, parce que ça y est, nous allons entrer dans le vif du sujet. Fini la théorie, place à la pratique ! « Enfin ! », diront certains. D’autres en revanche attendent ce moment avec une certaine appréhension, ce qui est tout à fait compréhensible. Surtout si c'est leur premier assemblage d'ordinateur. Dans tous les cas, nous allons prendre le temps d’expliquer en détails la démarche, pour que personne ne soit perdu.
Dans ce chapitre, nous allons travailler sur la carte mère. Nous y installerons le CPU et son ventirad, ainsi que la RAM. Enfin, nous fixerons le tout dans le boîtier.
Première chose à faire : sortir la carte mère de son carton et constater qu’elle est encore plus belle en vrai que sur les photos (si si, croyez-moi sur parole :p ). Pour éviter de rayer le bureau ou même d'abîmer la carte mère, nous la déposons sur le plastique de protection, bien à plat, sur un plan de travail bien dégagé :
Je suis sûr que vous avez bien suivi la partie précédente, vous devez donc reconnaître la majorité des éléments qui composent la carte mère. En particulier le socket, que l’on ouvre grâce au petit levier situé à sa droite (on le voit bien sur la photo ci-dessus).
Ouvrons justement le socket : nous allons sans plus attendre installer notre processeur.
Installation du CPU
Notre socket est ici de type LGA : le branchement avec le CPU se fait via de petits contacts métalliques. En retournant le processeur, on voit d’ailleurs très bien ces points de contacts :
On remarque également deux petites encoches, cerclées de rouge sur la photo ci-dessus. Ces encoches sont des détrompeurs qui indiquent dans quel sens positionner le CPU sur le socket. Prenez bien garde à respecter scrupuleusement ce sens ! Déposez le simplement, sans forcer.
Le CPU doit être installé de façon à être tout à fait parallèle au socket. Si ce n’est pas le cas, s’il est un peu « de travers », alors c’est qu’il est mal positionné. Retirez-le alors délicatement et retentez votre chance.
Autre méthode pour vérifier que votre CPU est bien en place : essayez de le faire bouger légèrement. Les détrompeurs doivent normalement vous en empêcher.
Il ne nous reste alors plus qu'à fermer le capot, avant de rabaisser le levier :
Le levier sert à verrouiller la fermeture du capot. Il faut légèrement forcer pour le rabaisser, mais une fois ceci effectué, le CPU est solidement fixé au socket.
Installation du ventirad
Passons à un élément extrêmement important : le ventirad ! Nous en avons parlé dans la première partie, le ventirad sert à refroidir le CPU. Sans lui, le CPU finirait par surchauffer et subir d’irrémédiables dommages. Les manipulations qui vont suivre sont donc tout à fait cruciales.
Badigeonnage de la pâte thermique
Le radiateur du ventirad permet le transfert thermique entre le CPU et l’air ambiant. CPU et ventirad doivent donc être en contact direct l’un avec l’autre. Mais cela n’est pas suffisant, ou du moins, pas optimal. Afin d’accompagner le transfert thermique, on applique sur le CPU une fine couche de pâte thermique.
La couche de pâte doit être bien fine et uniforme. Elle doit en outre recouvrir toute la surface du CPU. En passant, évitez de toucher la pâte avec les doigts, celle-ci contenant des substances chimiques pas forcément recommandables… Pour bien l’étaler, vous pouvez par exemple utiliser la technique dite « du post-it » (copyright CyberS@m) :
Une seringue de pâte thermique est fournie avec le CPU. Vous pouvez très bien l’utiliser (c’est d’ailleurs ce que nous avons fait ici), mais vous pouvez la remplacer par une pâte de meilleure qualité. En plus d’accroître la faculté de transfert thermique, une pâte de bonne qualité aura aussi le bon goût de s’étaler plus facilement.
Installation du ventirad
Nous pouvons maintenant fixer notre ventirad sur le CPU. Comme vous pouvez le voir sur l’image ci-dessous, il est bien composé de l’ensemble radiateur/ventilateur dont nous parlions dans la première partie du tutoriel :
Dans notre cas, la fixation du ventirad est assurée par une plaque située à l’arrière de la carte mère. Il nous faut donc retourner cette dernière afin de fixer la plaque :
Cette plaque est recouverte d’un isolant, afin d’empêcher le courant de passer de la carte mère au boîtier. Il est très important que la carte mère soit bien isolée électriquement du boîtier, en cas de court-circuit notamment. Nous reviendrons sur ce point tout à l’heure, lorsqu’il sera question de fixer la carte mère au boîtier.
On positionne ensuite le ventirad sur le CPU…
… puis on le fixe à l’aide de la croix réglable fournie, qui vient se positionner entre les caloducs :
Les vis de la croix peuvent ainsi être fixées à la plaque installées derrière la carte mère. Le ventirad est alors solidement harnaché au plus près du CPU ! :)
Nous nous occuperons du branchement de l'alimentation dans un chapitre à venir. Pour le moment, passons à la RAM.
Passons à l’installation des barrettes de mémoire vive. Cela peut très bien être fait avant l’installation du CPU et du ventirad, ça ne pose aucun soucis. D’ailleurs, si vous êtes attentifs vous aurez peut-être remarqué que les barrettes sont déjà présentes sur les photos ci-dessus. :-° Mais peu importe.
Pour savoir où les brancher, le mieux est de se référer au manuel de la carte mère afin d'être sûr de choisir les bon slots. Bien souvent, il faut choisir les slots qui sont de couleurs identiques, mais ce n'est pas une règle absolue.
Pour notre exemple, nous disposons de deux barrettes comme celle-ci :
On commence par ouvrir les ports des barrettes de RAM, à l’aide des loquets situés à leurs extrémités. Il peut y en avoir de part et d'autres ou d'un côté seulement, comme dans notre cas.
Il ne reste plus qu’à glisser les barrettes dans les ports. Les loquets se referment tout seul, comme des grands, ce qui signifie que les barrettes sont bien en place.
Comme vous pouvez le voir, ce n’est pas la partie la plus compliquée du montage. :p
Pour finir ce premier chapitre, nous allons à présent fixer la carte mère dans le boîtier. Avant toute chose, déballons donc le plus gros de tous nos cartons : celui dudit boîtier.
Préparation du boîtier
Pour commencer, nous couchons le boîtier sur le côté et enlevons le panneau latéral permettant d’accéder à l’intérieur de la bête. La majeure partie des éléments fournis avec le boîtier sont stockés à l’intérieur de celui-ci, pour des raisons évidentes de commodité de transport. Il faut donc bien veiller à tout retirer avant de commencer le montage.
Avec la carte mère est fournie une petite plaque métallique pour le BackPanel. Ne l'oubliez pas car nous allons en avoir besoin lors de la fixation de la carte mère.
Cette plaque vient se positionner sur les connecteurs externes de la carte mère :
N'oubliez donc pas de la placer sur la carte mère avant de continuer. Vous ne pourrez en effet plus l'insérer une fois la carte mère en place.
Installation de la carte mère
La carte mère doit être fixée au boîtier par l’intermédiaire d’entretoises (que nous avons également appelés « bitonios », mais ce terme n’est pas tout à fait officiel…).
Tout d’abord, nous vissons les entretoises dans le fond du boîtier :
Repérez leur emplacement en vous fiant aux trous sur la carte mère. Il n’y a en général pas de problème, les pas de vis présents sur le boîtier étant adaptés.
Une fois l’ensemble des entretoises vissées, nous déposons sur eux la carte mère. Les trous de la carte mère viennent se placer en face tout naturellement. Nous fixons alors la carte mère en la vissant aux entretoises :
Plus haut, je vous parlais de l’importance de l’isolation entre le boîtier et la carte mère. Eh bien c’est grâce aux entretoises que cela est assuré ! Dans notre cas, l’isolant de la plaque du ventirad est finalement inutile, car l’armature du boîtier présente un trou à cet emplacement, ce qui préserve de tout contact :
L'intérêt principal de ce trou est de pouvoir accéder facilement à la fixation du ventirad, que vous pourrez alors facilement détacher sans avoir à démonter la carte mère.
Toujours là ? Vous vous en êtes sorti ? Ce n’était pas si compliqué n’est-ce pas ? Notre carte mère, équipée du CPU, du ventirad et de la RAM est fixée au boîtier, voilà une bonne chose de faite ! Nous avons fait un petit bout de chemin, mais il est encore long avant de pouvoir démarrer la bête.
Dans le prochain chapitre, nous allons installer le reste des composants dans le boîtier.
Dans ce chapitre, nous allons installer les composants restants dans le boîtier : carte graphique (une très belle SAPPHIRE Radeon HD 6950 dans notre cas ;) ), bloc d'alimentation, lecteur/graveur, disque dur et SSD. Ça fait du monde, mais vous verrez que leur installation est assez rapide. D'autant que nous ne nous occuperons pas des branchements pour l'instant.
Dans le chapitre précédent, nous avons fixé la carte mère au boîtier. C’est maintenant le moment de brancher les différentes cartes filles que nous avons choisies pour notre configuration. Dans notre cas, pas de carte réseau ou autre carte son, tout cela étant déjà présent (et amplement suffisant) sur la carte mère. Nous nous concentrerons donc ici sur la reine des cartes filles, le composant le plus important d’une configuration de joueur : la carte graphique.
Pour commencer, il nous faut libérer les emplacements à l’arrière du boîtier, qui serviront à laisser paraître les connectiques offertes par notre carte fille. Pour savoir quel(s) cache(s) retirer, il n’y a pas trente-six solutions : il faut essayer ! :p Positionnez donc votre carte graphique en place sur son port PCI x16, sans la brancher, et observez simplement les emplacements dont vous avez besoin.
Il suffit alors de détacher les caches métalliques ainsi repérés. S’il le faut, faites levier avec un tournevis pour les faire sauter. Attention, ils sont parfois tranchants !
Il ne reste plus qu’à brancher notre carte graphique !
Enchaînons avec le bloc d’alimentation qui, pour mémoire, ressemble à une bonne vieille GameCube (désolé, mais ça m’y a toujours fait penser) :
Le bloc d’alimentation doit être placé en haut ou en bas du boîtier, tout dépend de ce dernier. Dans la grande majorité des cas, il se positionne à l’arrière (côté BackPanel).
Le plus important est de veiller à ce que le ventilateur du bloc d’alimentation (que l’on peut voir sur la photo ci-dessus) ne soit pas contre une surface sans grille d’aération. Dans notre cas, l’alim est positionnée en bas de la tour, ventilateur vers le bas. On remarque d’ailleurs bien la grille d’aération sur la photo ci-dessous :
Le bloc est alors fixé à l’aide de quatre vis situées à l’arrière du boîtier :
Encore une fois, nous nous occuperons de tous les câbles plus tard. :p
On avance, on avance ! Encore trois composants et nous seront au grand complet : les périphériques de stockage. Dans notre configuration, nous avons tout d’abord un SSD, qui mettra à disposition de l’OS et des programmes sa grande rapidité. Nous allons également mettre en place un disque dur, servant cette fois au stockage des données. Enfin, on ne pourra pas se passer du classique lecteur/graveur.
Disque dur et SSD
Disques durs et SSD s’installent exactement de la même façon. Dans notre cas, ils prennent place dans des tiroirs situés à l’avant de la tour. Ci-dessous, vous pouvez voir les six emplacements disponibles dans notre boîtier. Nous n’en utiliserons bien sûr que deux.
Le type de fixation peut varier du tout au tout d’un boîtier à l’autre. La plupart du temps, il ne suffit que de quelques vis, plus ou moins facilement accessibles. Parfois, il n'y a même pas besoin de vis !
Attention à la manière dont vous placez le (ou les) disque(s) et le SSD. Tout d’abord, prenez garde à ce que leur position n’entrave pas le passage des câbles, que ce soit les leur ou ceux des autres composants. Dans notre cas, les tiroirs étant placés « à 90 degrés », cela ne pose pas trop de problème. Veillez ensuite à positionner au mieux les composants en fonction de leur échauffement. Même si un SSD chauffe bien moins qu’un disque dur classique, il est préférable de ne pas placer les deux sur des tiroirs juxtaposés. Laissez-leur de l’air ! Pour la même raison, on préférera positionner le composant qui chauffe le plus (ici le disque dur) plus près des ventilateurs de façade.
Après avoir retiré les tiroirs de leur emplacement, on y visse les périphériques. Ceux-ci sont en effet munis de pas de vis qui s’alignent parfaitement avec les trous présents sur les tiroirs. Pour les SSD, qui sont au format 2,5", il est parfois nécessaire d’utiliser un adaptateur afin de les installer dans les emplacements 3,5". Ce type d’adaptateur est bien souvent fourni avec le boîtier, mais vous pouvez également vous en procurer à l’unité.
Il ne reste plus qu’à remettre les tiroirs à leur place et le tour est joué. :)
Lecteur/Graveur
La manipulation n’est pas plus compliquée pour le lecteur/graveur. Cette fois, on le place en façade (c’est mieux pour insérer un CD, croyez-moi) :
Ce n'est pas le cas ici, mais de plus en plus de boîtiers sont équipés de systèmes screwless (sans vis) pour les baies 5,25". On voit ici que c'aurait été un petit plus bienvenu.
Une fois le lecteur en place, il suffit généralement d’une vis de chaque côté pour le maintenir. Parfois, il faut monter au préalable des rails sur le lecteur lui-même afin de pouvoir l’insérer dans le boîtier.
Et voilà, tous les composants sont en place ! Eh oui, déjà ! Mais nous n’en avons pas terminé pour autant… En particulier, nous n'avons branché aucun câble ! Je vous réservais ça pour le prochain chapitre. ;)
Nous voilà arrivés au chapitre le plus délicat de cette partie : les branchements. Je vous rassure tout de suite, il n’y a rien de bien compliqué. Il faut simplement être exhaustif et faire preuve d’un tout petit peu de rigueur. Le plus gros risque serait de brancher un composant avec le mauvais câble, risquant ainsi une surtension ou tout autre effet désastreux sur la configuration. Mais ce risque est presque entièrement levé, tous les connecteurs étant dotés de détrompeurs. Il vous est dès lors impossible de brancher l’alim de la carte mère sur la carte graphique, ou même de brancher un composant dans le mauvais sens !
Cela dit, certains branchements très spécifiques ne pourront pas être devinés. C'est notamment le cas des branchements des éléments de façade. Nous verrons un exemple ici, mais vous devrez nécessairement l'adapter à votre configuration. Dans ces cas-là, vous n'avez pas le choix : il faut vous reporter au livret d'utilisation de votre carte mère. Je sais bien qu'on ne lit pas souvent les « modes d'emploi », mais ici c'est un passage obligé. Rassurez-vous, c'est en général bien expliqué.
Il n’y a pas d’ordre préétabli concernant les branchements (à part pour le raccordement électrique qui doit être fait en dernier, bien sûr). La seule règle à énoncer serait de privilégier le côté « pratique » des choses : il faut commencer par les câbles les moins accessibles, tant que la place est encore dégagée. Ici, nous commençons par brancher les éléments de la façade du boîtier : les boutons et connecteurs du panneau frontal dans un premier temps, puis l'alimentation des ventilateurs.
Les boutons et connecteurs de la façade
Branchons tout ce petit monde
Le panneau frontal du boîtier contient quelques éléments à raccorder à la carte mère. Sur le nôtre, nous trouvons un bouton d'alimentation, un bouton de remise à zéro, quelques ports USB, une diode et les prises casque et micro.
Il est tout naturel que ces éléments soient fonctionnels quand on achète un PC tout fait, mais dans le cas d'un assemblage, il faut bien les relier à la carte mère d’une façon ou d’une autre. Ils sont pour cela équipés de petits connecteurs de ce type :
Sur ces connecteurs sont marqués les fonctions de chacun des câbles. Dans notre cas, nous trouvons :
« POWER SW » et « RESET SW » : pour les boutons d'alimentation et de remise à zéro.
« POWER LED - », « POWER LED + » : pour la diode de l'alimentation.
« H.D.D. LED » : pour la diode d'activité du disque dur.
Ces connecteurs peuvent être branchés directement sur la carte mère, mais ce n’est pas conseillé. Préférez, s’il est fourni, l’utilisation d’un petit bloc faisant l'intermédiaire entre ces câbles et la carte mère. On branche tout sur le bloc, puis on branche le bloc à la carte mère en une seule fois. C'est beaucoup plus commode ainsi.
Mais là encore, tout dépend de votre carte mère ! Comme je vous le disais en introduction, vous n’avez pas d’autres choix que de consulter sa notice d’utilisation pour ces types de branchements.
Branchons ensuite les connecteurs des ports USB et des prises audio de façade. Ceux-ci sont repérés par les mentions « HD AUDIO »/ »AC’ 97 » pour l’audio et « USB » pour… l’USB.
Pour les prises casque et micro j’ai donc deux possibilités : « AC’97 » et « HD AUDIO. Lequel dois-je choisir ?
Ces deux dénominations désignent le nom du codec utilisé pour gérer le son en entrée et en sortie. AC’97 est une norme plus ancienne, tendant à être remplacée par le HD AUDIO. La réponse à la question est donc toute trouvée : si votre carte mère gère le HD AUDIO, utilisez ce connecteur. Dans le cas contraire, vous ne pouvez que vous rabattre sur le AC’97.
Quoi qu’il en soit, branchez vos connecteurs dans les ports concernés de la carte mère :
Notez la couleur bleue des connecteurs USB 3. ;)
Premiers branchements, premiers encombrements !
Nous venons de brancher nos premiers câbles et nous rendons très vite compte que le boîtier sera bientôt plein de fils dans tous les sens ! Attention donc à la façon dont vous placez vos câbles dans le boîtier. Veillez à ce qu’ils gênent le moins possible la circulation de l’air et qu’ils n’empiètent pas trop sur les autres composants. L’idée est de conserver une configuration la plus propre possible. Pour cela, divers petites astuces existent, dépendant de votre boîtier. Dans notre cas, nous avons fait passer les câbles derrière la plaque qui accueille la carte mère :
Les câbles à gaine noir sur la photo ci-dessus (1) sont les câbles des boutons et connecteurs de la façade dont nous parlions plus tôt. Ils partent du haut du boîtier, passent derrière les tiroirs des disques durs/SSD, pour revenir par un petit trou de souris (2) située en bas du boîtier (le connecteur concerné sur la carte mère se trouvant dans cette zone). Les autres câbles (3), à gaines rouge et jaune notamment, sont des câbles d’alimentation dont nous parlerons tout à l’heure. Ils proviennent de l’alimentation (si si !) située en bas du boîtier et sont passés par le trou que vous apercevez en haut de la photo (4). C’est autant de câbles qui ne nous gêneront pas de l’autre côté ! :)
N’hésitez pas à prendre un peu de temps pour trouver la meilleure disposition possible pour vos câbles. Vous y verrez plus clair dans votre configuration et le refroidissement de l’ensemble en sera facilité.
Ventilateurs en façade
Avant de voir le branchement du ventirad du CPU dans quelques instants, nous allons pour le moment brancher le (ou les) ventilateurs de la façade du boîtier. Trouver les câbles concernés est très simple : ils partent des ventilateurs. C’est logique. En revanche, trouver la prise adéquate sur la carte mère est moins trivial. Là encore, la notice de la carte mère vous sera certainement nécessaire. Les prises des ventilateurs sont bien souvent accompagnées de la mention « FAN ».
Les éléments extérieurs étant branchés, passons aux composants internes !
Alimentation de la carte mère
La carte mère est alimentée via un connecteur ATX 24 broches. À priori, votre bloc d’alimentation ne doit en présenter qu’un seul, vous n’aurez donc pas de soucis pour le trouver.
Alimentation du CPU
Le CPU est quant à lui alimenté par un connecteur ATX 8 broches. Pour mémoire, voici à quoi ressemble ce connecteur et sa prise :
Là encore, il n’y a pas beaucoup de risque d’erreur, grâce notamment aux détrompeurs.
Et qui dit « CPU » dit aussi ventirad ! N’oublions pas ce dernier…
Alimentation du ventirad
Je vous disais tout à l’heure que les prises des ventilateurs étaient repérées par la mention « FAN ». Eh bien la prise du ventirad est généralement estampillée « CPU_FAN » ! :) Cette fois, le connecteur dispose de 4 broches, contre 3 pour un ventilateur simple.
Alimentation de la carte graphique
Notre carte graphique est puissante et par conséquent, elle est gourmande. Elle nécessite donc une alimentation dédiée, qui est assurée par les connecteurs PCIe 6 pins :
Toujours à l’intérieur du boîtier, nous allons maintenant brancher les lecteur/graveur, disque dur et SSD. Dans les trois cas, la connectique de prédilection est le SATA. Les disques durs en IDE ont quasiment disparu, nous n’en parlerons donc pas.
Il faut distinguer les connecteurs SATA d’alimentation, plus larges, des connecteurs SATA de données. Les premiers sont fournis par le bloc d’alimentation alors que les seconds sont à brancher sur la carte mère.
Et voilà, tout est branché. Votre tour est maintenant complète, tout comme si vous l’aviez achetée pré-assemblée. :)
Le branchement des câbles externes ne devraient pas trop vous poser de soucis, dans le sens où vous l’avez très certainement déjà fait avec un ordinateur « classique ». Il vous faut brancher la tour à l’écran, bien sûr, à l’aide d’un câble DVI ou HDMI. Les périphériques de saisie usuels comme le clavier et la souris seront généralement branchés en USB. Enfin, il ne reste plus qu’à brancher la tour et l’écran au secteur électrique.
Nous arrivons tout doucement au bout de notre assemblage. Cette fois, les branchements étant faits, l'ordinateur devrait être fonctionnel. Du moins, au niveau du matériel. Pour ce qui est du logiciel, nous allons y revenir dans le prochain chapitre. Nous allons également faire une petite série de vérifications avant d'effectuer le premier démarrage.
Nous y voilà ! Nos composants que nous avons mis tant de temps à choisir, dont nous avons attendu impatiemment la livraison et que nous avons assemblé avec amour forment enfin un tout prêt à être utilisé. C'est beau, c'est émouvant ! Mais ce n'est pas tout à fait fini… Il manque un élément essentiel à notre configuration : l'OS.
Vous le savez, l'OS est la partie software du PC. Il fait le lien entre le matériel (matériel que vous devez bien connaître maintenant ;) ) et les logiciels que nous utilisons. Schématiquement, on aurait donc :
Il existe un très grand nombre d'OS mais les deux plus répandus sont certainement Windows et GNU/Linux. Le cas de Mac OS X est un peu à part, dans la mesure où Apple n'autorise l'installation de l'OS que sur ses propres machines, avec un matériel qu'ils maîtrisent de bout en bout. Bref, ça ne nous intéresse pas (ou peu) dans le cas où nous montons nous-même notre ordinateur.
Dans ce chapitre, nous allons voir les quelques manipulations à effectuer pour installer un OS sur notre PC flambant neuf. Mais avant cela, un dernier petit tour du propriétaire s'impose afin de s'assurer que tout est en ordre.
Démarrer (ou « boot » en anglais) l'ordinateur implique de lui envoyer le courant électrique fourni par le bloc d'alimentation. Jouer avec l'électricité n'est jamais une chose à prendre à la légère ! C'est pourquoi il est important de prendre quelques minutes pour s'assurer que tout est en ordre. Je vous propose donc une petite check-list à suivre avant d'allumer le PC pour la première fois :
La carte mère est-elle bien fixée ? Je rappelle qu'elle ne doit pas entrer en contact avec le boîtier, sauf via l'intermédiaire de composants isolants comme les entretoises ou l'arrière de la fixation du ventirad.
La carte mère est-elle bien alimentée électriquement ?
La RAM est-elle correctement branchée ? Les loquets doivent être bien refermés.
N'avez-vous pas oublié d'apposer la pâte thermique sur le CPU ?
Le CPU est-il bien alimenté électriquement ?
Le ventirad est-il bien fixé au CPU ?
Le ventirad est-il bien alimenté électriquement ?
La carte graphique est-elle bien branchée dans son port PCI x16 ?
La carte graphique est-elle bien alimentée électriquement ?
Le bloc d'alimentation est-il bien fixé au boîtier ?
Le ventilateur du bloc d'alimentation est-il bien positionné vers une grille d'aération ?
Les disques durs/SSD sont-ils bien fixés ?
Les connecteurs SATA d'alimentation des disques durs/SSD/lecteurs optiques sont-ils bien branchés ?
Les connecteurs SATA de données des disques durs/SSD/lecteurs optiques sont-ils bien branchés ?
Les boutons, diodes et connecteurs de façade sont-ils bien branchés à la carte mère ?
Les ventilateurs du boîtiers sont-ils bien alimentés électriquement ?
Les périphériques de saisie et l'écran sont-ils bien branchés à la tour ?
L'aération globale du boîtier est-elle satisfaisante ? Veillez en particulier à ce que les câbles n'encombrent pas trop le boîtier.
Avant de démarrer le PC, veillez à ce que le boîtier soit correctement fermé.
Enfin, avez-vous pensé à lire cette liste jusqu'au bout ?
Ça en fait des choses à vérifier ! Encore une fois, prenez votre temps, rien ne presse. ;)
Si d'aventure votre ordinateur venait à émettre un son strident au démarrage… Don't panic ! Éteignez-le et vérifiez simplement vos branchements. Il vous signale juste que quelque chose est mal branché ou mal enclenché.
Lorsque l’ordinateur est démarré, une impulsion électrique est envoyée à la carte mère, lançant ainsi la séquence d’initialisation du PC. Par l’intermédiaire du programme qu’elle contient, le BIOS, la carte mère initialise et vérifie le bon fonctionnement des composants avant de rechercher une séquence d’amorçage afin de lancer le système d’exploitation. Mais où se trouve cette fameuse séquence d’amorçage ? Telle est la question que la carte mère se pose lors du démarrage. Problème : elle n’en sait absolument rien a priori. Le seul moyen qu’elle a de déterminer l’emplacement de la séquence d’amorçage est de chercher partout où elle pourrait bien se trouver : disques durs, disques optiques, clés USB, emplacements réseau, etc. Une fois que la carte mère a mis la main sur une séquence d’amorçage, elle s’en sert pour passer le relais au système en question.
La carte mère est bête et disciplinée : elle cherche là où on lui dit de chercher, dans l’ordre qu’on lui a indiqué : c’est ce qu’on appelle communément l’ordre de boot. Cet ordre est déterminant car la carte mère s’arrêtera de chercher une séquence d’amorçage dès qu’elle en aura trouvé une. Imaginons par exemple que la carte mère soit paramétrée pour rechercher une séquence d’amorçage dans l’ordre suivant :
sur le disque dur ;
sur une clé USB ;
sur un disque optique.
Que va-t-il se passer dans notre cas ? Le disque dur sort du carton, est vide, la carte mère n’y trouve donc rien. Admettons qu’une clé USB contenant une séquence d’amorçage ait été insérée : la carte mère bootera alors dessus. Quid du disque optique ? Eh bien rien du tout, même s’il contenait aussi une séquence d’amorçage, celui-ci se trouvant après la clé USB dans l’ordre de boot.
L’installation d’un OS peut être faite principalement par deux méthodes : à l’aide d’une clé USB ou à l’aide d’un disque optique (CD ou DVD). Dans les deux cas, le support contient le nécessaire à l’installation du système. Lors de l’installation, on choisira alors le disque dur principal comme réceptacle du système. Lors du boot suivant, le disque dur sera dotée d’une séquence d’amorçage et sera donc utilisé, pour peu qu’il ait la priorité dans l’ordre de boot.
Quelle que soit la méthode utilisée, il va donc nous falloir paramétrer l’ordre de boot, ce qui se fait dans le menu du BIOS.
BIOS traditionnel ou BIOS UEFI ?
L’ordre de boot est une caractéristique de la carte mère, cela se paramètre donc au niveau de son BIOS. Pour y entrer, il faut généralement appuyer sur une touche indiquée à l’écran (Echap, F10, F12 ou autre). Cela doit être fait avant que la carte mère n’ait trouvé une séquence d’amorçage, donc au tout début du démarrage de l’ordinateur.
Selon votre carte mère, vous arrivez alors sur une interface plus ou moins austère. Traditionnellement, le menu du BIOS fonctionne en mode « 16 bits » et ne peut être dirigé qu’au clavier :
On voit par exemple sur l’image ci-dessus que l’ordre de boot est défini de façon à ce que la séquence d’amorçage soit recherchée sur un périphérique amovible, puis sur le disque dur, puis sur un disque optique et enfin sur le réseau.
Les cartes mères plus récentes disposent d’un BIOS UEFI, dont l’interface graphique est bien plus agréable :
Un des autres avantages notables de l’UEFI est la possibilité de contrôler l’interface à la souris. Pour changer l’ordre de boot, il suffit alors de glisser-déposer les périphériques sur le schéma de boot. On retrouve également sur cette interface bon nombre d’informations sur le système : température, vitesse des ventilateurs, tensions aux bornes des composants, etc.
Si vous achetez votre OS dans le commerce ou que vous gravez sur CD/DVD une image ISO téléchargée, l’installation du système se fera en bootant sur le support optique. Après avoir changé l’ordre de boot pour que le lecteur optique soit le premier périphérique à contenir une séquence d’amorçage, insérer le CD (ou le DVD) et redémarrer le PC. Vous booterez alors dessus afin de commencer l’installation.
Je vous invite à consulter ce tutoriel si vous souhaitez graver un CD/DVD à partir d’une image ISO.
Une procédure détaillée sur l’installation de Windows 7 est disponible à cet endroit. Si vous souhaitez plutôt installer une distribution GNU/Linux, vous pouvez suivre le tutoriel de M@teo21. Il y explique comment récupérer et graver l’image ISO puis détaille l’installation de l’OS. Enfin, si vous êtes tentés par un OS de type UNIX, vous serez comblé par le tutoriel de Brice Errandonea.
Nous devons le merveilleux titre de cette sous-partie à notre cher John-John. :p Ce qu’il a voulu dire par le poétique « ça roxe du poney ! », c’est tout simplement qu’il est beaucoup plus efficace de procéder à l’installation de votre OS avec une clé USB qu’avec un disque optique.
Rappelez-vous le chapitre sur les disques durs et SSD. Je vous avais dit que les SSD étaient des périphériques à mémoire Flash très performantes et que les disques durs étaient au contraire très lents du fait de leur partie mécanique. Le principe est exactement le même ici : les temps d’accès d’une clé USB sont bien plus rapides que ceux d’un lecteur optique, dont la lentille doit se déplacer grâce à un système mécanique. L’installation de votre OS sera donc beaucoup plus rapide en utilisant une clé USB. Si vous avez le choix, je vous conseille vivement d’utiliser cette solution !
Ok, donc il suffit de mettre une image ISO sur une clé USB, de changer l’ordre de boot et de redémarrer l’ordinateur pour commencer l’installation ?
Presque. Il faut effectuer une petite manipulation supplémentaire pour que la clé USB soit bootable. Pour cela, vous pourrez utilisez un petit logiciel tel que :
LinuxLive USB Creator pour une image ISO GNU/Linux. pour une image ISO GNU/Linux.
Ces logiciels fonctionnent à peu près tous de la même manière : vous aurez à choisir la clé USB de destination, l’image ISO et quelques petites options, avant de lancer la création automatique de la clé.
Le reste de la procédure est le même que celle des liens donnés plus tôt.
Je vous laisse le soin d'installer l'OS de votre choix. Vous pouvez vous baser, si besoin, sur les tutoriels cités plus haut. Quoi qu'il en soit, l'assemblage du PC est terminé !
Ce tutoriel touche à sa fin, merci de nous avoir lu ! Vous devriez maintenant être en mesure de reconnaitre, choisir et assembler les différents composants d'un ordinateur.
Les composants de PC évoluent très rapidement. Aussi, même si avec ce tutoriel vous devriez pouvoir avoir une idée plus précise de comment les choisir, il n'y a pas de miracle : la meilleure solution pour faire votre choix est de lire un maximum de tests et comparatifs sur différents sites ou magazines de hardware.
Nous souhaiterions remercier les personnes suivantes :
John-John, éditeur émérite et photographe hors pair ;
radvador, qui nous a permis de faire la majorité des photos du tutoriel ;
toutes les personnes ayant critiqué le tutoriel, nous permettant ainsi de l'améliorer.
N'hésitez pas à nous laisser un petit commentaire, positif comme négatif. ;)