Le son numérique Note : Il n’est pas possible de traiter de manière approfondie un sujet comme le son numérique. Cette courte présentation n’a comme seule prétention que de vous donner un aperçu du plaisir à jouer avec le son numérique et d’en comprendre les différentes phases d’utilisation. Des manuels destinés au grand public sont en vente dans les grandes surfaces (Musique sur PC numérique pour les nuls qui, contrairement à sa destination contenue dans le titre, vous donnera toutes les informations sur le sujet). Consultez l’ouvrage avant de l’acheter.)
Programme : Informations sur le son Le son numérique et ses usages Conversion de CD audio en MP3 Conversion de disques vinyles en MP3
Explications sur le son : Le son est une énergie qui est, entre autre, captée par les oreilles P.ex.: la voix, la musique, … Le son consiste en vibrations ou ondes depuis un émetteur : p.ex.: les cordes vocales, un haut-parleur Ces vibrations se propagent dans les molécules d’air et ont besoin de ce support car le son ne peut pas voyager dans le vide
Explications sur le son : Un microphone convertit le signal de son dans un signal électrique Plusieurs microphones peuvent être passés par une table de mixage qui mélange les signaux pour le transfert sur un câble Parfois on envoie plusieurs signaux de sons simultanément Chaque signal est envoyé à un haut-parleur différent Ce qui donne l’effet stéréo Table de mixage
Explications sur le son : temps Un son peut être schématisé pour montrer l’amplitude du déplacement des molécules vibrantes Le volume du son est déterminé par l’amplitude la fréquence des vibrations La fréquence d’un signal du son à un moment donné est le nombre moyen de vibrations par seconde à ce point Mesuré en Hertz (Hz) Un son aiguë est un son d’une haute fréquence
Explications sur le son : Illustration : chute d’une pierre dans l’eau Temps (s) amplitude +A - A période Fréquence (= 3Hz) 1 s
Phénomènes sonores On considère généralement que la perception auditive humaine s’étale (dans le meilleur des cas) entre 20 Hz et 20 kHz. La fréquence est un paramètre essentiel des phénomènes sonores car c’est d’elle que dépend la hauteur du son perçue : Exemples : la fréquence de 20 kHz (= 20 000 périodes/s) est considérée comme la limite de la perception humaine dans l’extrême aigu, mais cette perception des fréquences élevées se dégrade avec l’âge et la fatigue auditive La fréquence de 20 Hz (= 20 périodes/s) est quant à elle considérée comme la limite inférieure des la perception humaine dans l’extrême grave Cette fourchette de fréquences définit donc la bande de fréquences ou bande passante utile d’un système de reproduction sonore de haute qualité qui doit s’efforcer de reproduire le plus linéairement possible Exemple : logiciel de synthèse vocale
Exemples : bandes passantes Système Bande passante (Hz) Téléphone 300 – 4 000 Radio AM 50 – 6 000 Radio FM 50 – 15 000 Magnétophone K7 40 – 15 000 CD audio et matériel professionnel 20 – 20 000
Signal sonore Signal original Les échantillons On représente fréquemment, de manière simplifiée, un signal sonore par une courbe sinusoïdale. En fait, une telle sinusoïde ne représenterait qu’un son dit « pur » défini par une seule fréquence : or, les sons audibles ne sont pas purs, ils sont complexes et constitués d’une combinaison de fréquences En effet, à la fréquence fondamentale qui définit la hauteur sonore viennent s’ajouter une série de signaux harmoniques Exemple : Appuyer la touche d’un piano correspondant au La3, nous obtenons un son complexe constitué par l’addition à la fréquence fondamentale (440 Hz) et à des amplitudes variables de fréquences dites harmoniques à des valeurs multiples (x2, x3, …) La Conférence Internationale de Londres en 1953 a fixé la hauteur absolue du La3 à 440 Hz, pour servir de base à l’accord des instruments (musiques ou sonores). Signal original Les échantillons Valeur d’amplitude
Oreille et cerveau humain Le nombre et l’amplitude des diverses fréquences harmoniques sont spécifiques à chaque source sonore et déterminent le timbre propre de cette source. Ce sont donc les harmoniques caractéristiques de chaque source qui permettent à l’oreille et au cerveau humains de distinguer et de reconnaître des sources sonores différentes : Le timbre d’une voix émettant à une fréquence fondamentale de 400 Hz sera perçu comme différent d’une autre voix émettant à la même fréquence. Le son d’une guitare ne sera pas confondu avec celui d’un piano, même si les deux instruments jouent la même séquence de notes musicales
De l’analogie au numérique Le son est une suite périodique de compressions et de dépressions du milieu dans lequel il se propage (l’air) Les divers organes de l’oreille externe, moyenne et interne captent ces vibrations périodiques de pression et les transforment en signaux bio-électriques qui sont ensuite transmis au cortex pour y être traités et perçus en tant que son (musique, parole, …) La représentation analogique du son consiste à passer d’une onde sonore à son image électrique. La représentation numérique du son nécessitera quant à elle la quantification des échantillons prélevés sur cette image.
Ondes simples & ondes complexes 1. Deux ondes d'amplitudes différentes 2. Deux ondes de fréquences différentes Exemple pris sur Internet Exemple pris sur Internet 3. Onde complexe = composition avec des ondes simples
Onde sonore
Echantillonnage : Onde sonore échantillonnage Quantification amplitude temps Onde sonore échantillonnage Quantification
De l’analogique au numérique
Compression du son La numérisation du son transforme un signal fragile et caractérisé par une variation continue en un signal numérique très stable fait d’une succession de 0 et 1 : copiable et transportable sans dégradation. Le signal numérique permet en fin de parcours de reconstituer et de restituer de manière propre l’onde sonore originale Tout irait donc pour le mieux si les suites de 0 et 1 dont sont constitués les documents sonores numériques n’étaient pas de taille à poser très vite de problèmes de stockage, surtout lorsqu’il s’agit d’enregistrements de haute qualité Exemple : une durée de 1 minute en qualité son stéréo sur CD-DA, échantillonnage à 44,1 kHz, quantification à 16 bits sur 2 voies, aura un volume : taux d’ échantillonnage x nbr. Bits codage x nbr. Secondes x nbr. voies = 44100 x 16 x 60 x 2 = 84672000 bits/min = ~ 10 M/min
L’oreille humaine détecte de sons jusqu’à 22 kHz La qualité de l’audio L’oreille humaine détecte de sons jusqu’à 22 kHz Quelques instruments de musique génèrent ces fréquences L’enregistrement de musique nécessite donc 44.000 échantillons par seconde P.ex.: Un CD-ROM code 2 sons différents (pour l’effet stéréo), et utilise 16 bits par échantillon et une fréquence d’échantillonnage de 44.100 Hz, nécessitant par seconde 16 * 2 * 44.100 bits = 1.411.200 bits = 1.4 Mbps Donc, une heure de musique nécessite 630 Mo !!!
Principe de compression de son Il existe 2 types de compression La compression non destructive (exemple pour les fichiers de données). La compression destructive qui, après reconstitution donne une « image » approchante de l’originale. Vous connaissez la compression utilisée en photo numérique. En musique ces 2 types de compression existent sous des appellations telles que : MP3, WAV, RA, OGG, AC3, DTS, AAC, M4A, AU, AIFF... connues aussi sous le nom de Codec (Codeur/Décodeur). Les raisons de ces différents codecs vient que chaque constructeur veut imposer le sien (Philips, Sony,…) Comme avec les DVD –/+ R ou, encore, et le BlueRay. Nous allons utiliser le plus connu : le MP3
Le succès de MP3 aujourd’hui vient des utilisateurs de l’Internet : Une chanson de 3 minutes sur un CD nécessite 32 Mo MP3 arrive à comprimer cette chanson en 3 Mo !! Un taux de compression d’environ 12:1 Des applications comme WinAmp décode le MP3 des lecteurs de MP3 sont également sur le marché voir Fnac-Mp3 Des logiciels de conversion de CD audio gratuits existent pour convertir presque tous les formats vers le MP3. Nous utiliserons CDEX et Audacity lors de la session pratique mais, d’ores et déjà nous allons en voir les principales fonctions.