Les systèmes de traitement du signal font depuis quelques décennies la distinction entre analogique et numérique, avec une évolution de plus en plus généralisée de l'un vers l'autre. S'il a existé des calculateurs analogiques, le fondement de l'informatique est bel et bien le traitement numérique, d'où l'intérêt de se pencher un peu sur ces notions.
Analogique
Le terme analogique désigne le fait de représenter une grandeur physique par une autre (par ex. un thermomètre permet de représenter la température par une hauteur de mercure dans un tube). En traitement du signal électronique, on représentera les grandeurs physiques à traiter par un courant électrique dont l'intensité ou la tension sera liée à la valeur physique représentée par une loi calculable, appelée fonction de transfert.
Les signaux ainsi obtenus permettent de représenter l'évolution continue des valeurs prises par la grandeur physique en fonction du temps (on entend par continu, le fait qu'entre 2 valeurs quelconques existent une infinité de valeurs), comme le figure la courbe noire dans le schéma ci-dessous.

Numérique
Le terme numérique (on dit aussi digital : anglicisme provenant du mot digit qui signifie chiffre
en anglais) désigne le fait de substituer à un signal continu, une représentation sous la forme de valeurs distinctes prises à intervalles de temps réguliers, comme l'illustrent les piles de rectangles bleus sur le schéma ci-dessus. Cela met en évidence deux caractéristiques fondamentales des signaux numériques :
- la quantification : les valeurs représentées sont discrètes, c'est-à-dire prises dans une collection finie de valeurs, arrondies à un multiple du pas de quantification (la hauteur d'un rectangle bleu sur le schéma ci-dessus), ce qui les rend faciles à coder en binaire pour être manipulées dans un ordinateur ; plus le pas de quantification est petit devant l'amplitude de variation du signal, plus la représentation sera fidèle à la réalité, mais aussi plus le nombre de bits nécessaire au codage sera élevé, donc plus grand sera le volume d'informations numériques généré ;
- l'échantillonnage : les valeurs sont prises à intervalles de temps réguliers (la largeur d'un rectangle bleu sur le schéma ci-dessus), et on désigne la durée fixe des ces intervalles par le terme de période d'échantillonnage (on parle aussi de fréquence d'échantillonnage pour désigner la cadence de prise de mesure), pendant laquelle on considérera que la grandeur physique n'évolue pas ; plus la période d'échantillonnage est petite (ou plus la fréquence d'échantillonnage est grande), plus la représentation sera fidèle à la réalité, mais aussi plus grand sera le nombre de valeurs successives (on les dénomme échantillons), donc plus grand sera le volume d'informations numériques généré ; à l'opposé, si la période d'échantillonnage est trop grande, on risque de
louper
des évolutions pertinentes de la grandeur observée (la théorie du traitement du signal dit que l'on perd les fréquences supérieures à la moitié de la fréquence d'échantillonnage).
Petite application numérique, issue du monde de l'instrumentation technique :
- un capteur de température délivre un signal électrique dont la tension varie entre 0 et 5V pour une température variant entre -30 et +70°C ; en numérisant ce courant de façon à le coder sur 8 bits, on pourra représenter des valeurs de température avec une résolution d'un peu mieux qu'un demi degré (0,390625°C très exactement) ;
- si on numérise ce signal à une fréquence de 0,1 Hz (soit une mesure toutes les 10s), une journée de mesure représentera 8,5 Ko de données.
Une autre application, musicale cette fois :
- je dispose d'un enregistreur audio numérique qui permet d'acquérir des sons avec une fréquence d’échantillonnage est de 44,1 kHz et il numérise sur 16 bits en stéréophonie ;
- les sons peuvent donc être restitués jusqu'à 22 kHz, ce qui est largement suffisant eu égard aux capacités de l'oreille humaine ;
- 10 mn de musique enregistrée représentent 100 Mo de données.
