Einführung in die Datenverarbeitung und Digitale Medienzurück zum Vorlesungsplan ----------------------------------------------- 7. Sound |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
(hier auch als .pdf Dokument zum Herunterladen und Ausdrucken)Digitalisierung Software Grundfunktionen der Audiobearbeitung (Sample-Editing) Datenübertragung und Speicherung / Internet / Komprimierung
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
BegriffeEin Ton ist eine Schwingung, die durch periodische Regelmäßigkeit eine definierbare Grundfrequenz - die Tonhöhe - hörbar werden läßt. Der Klang eines Tons hängt von den Anteilen weiterer Schwingungen innerhalb der Grundschwingung ab. Ein Geräusch - etwa einer Rassel - hat dagegen keine periodische Grundschwingung, die Luftdruckschwankungen verlaufen so unregelmäßig, daß keine Tonhöhe definierbar ist. Die Übergänge zwischen Ton und Geräusch sind fließend, denkt man daran, daß sich Konzertpauken sehr wohl stimmen lassen, obwohl sie als perkussive Instrumente bereits sehr diffuse Klangspektren erzeugen. Sound wird heute oft im 'Multimedia-Deutsch' für alles, was mit dem Audiobereich zu tun hat verwendet. Zum Teil geschieht das sicher aus Unkenntnis der Begriffe aus Akustik und Musik. Der Begriff Sound hat jedoch auch Vorteile, da er problematische Fragen der traditionellen Begriffe und Wissenschaftsdisziplinen ausblendet (Was ist Musik?!). Sprache ist danach ein geräuschhaftes=nichtperiodisches Klangereignis,
das durch seine definierten Frequenzgemische sprachliche Lautmuster enthält.
Im Gesang werden diese Lautmuster einer periodischen Schwingung aufmoduliert.
Beispiele für Schwingungen im Audiobereich Sinuswelle - Das 'Urbild' einer periodischen Schwingung, sie besitzt keine weiteren Frequenzanteile Rauschen - 'Schwingungschaos', das Gegenteil einer periodischen Schwingung
obertonreiche Schwingung - hier eine 'pulsbreitenmodulierte' Sägezahnschwingung, also ein Sägezahn, dessen Anlaufflanke verschoben und verkürzt wurde.
perkussiver Klang - hier ein metallisch klingender Synthesizerklang, dessen Tonhöhe noch deutlich wahrzunehmen ist. Eine weitere Erhöhung der Komplexität des Frequenzgemischs würde den Ton in ein Geräusch übergehen lassen.
DatentypenGrundsätzlich sind Daten im Audiobereich zeitkritisch, d.h. sie stellen Anforderungen an DV-Hard- und Software, die historisch gesehen atypisch für einen 'Rechner' sind. Bis heute sind damit Geschwindigkeits-, Bandbreiten- und Speicherprobleme verbunden, die von technischen und ökonomischen Rahmenbedingungen abhängen. AudiodatenAudiodaten bilden Luftdruckschwankungen ab. Da diese zunächst in elektrische Spannungsschwankungen umgesetzt werden, codieren sie präzise gesagt einen elektrischen Spannungsverlauf in den Parametern Amplitude/Zeit. Damit Audiodaten aufgenommen und wiedergegeben werden können, werden A(nalog)/D(igital)-Wandler bzw. D/A-Wandler benötigt. Diese werden i.d.Regel von der Soundkarte zur Verfügung gestellt. Der Datentyp ist vergleichbar mit: spezifische Fehler: Knackser, Rauschen, Dynamikprobleme
MIDI-Datenweitere Beispiele: MIDI-Daten sind Steuerungsdaten = Anweisungen zur Generierung von Klängen (auch Notation) Um MIDI-Daten zum Klingen zu bringen, wird ein entsprechender Klangerzeuger (Synthesizer) benötigt. >Soundkarte Dieser Datentyp ist vergleichbar mit: spezifische Probleme: mechanischer Rhythmus und Klang, Timingprobleme, Totalaussetzer
DigitalisierungAnaloge Audiosignale sind kontinuierliche Signale. Bei der Digitalisierung werden diese in eine regelmäßige Folge von diskreten Werten gewandelt. Hierzu wird die Amplitude des Signals in regelmäßigen Abständen abgetastet und den einzelnen Stichproben (=Samples) Werte aus einer begrenzten Wertemenge zugeordnet (Quantisierung). Dabei wird ein Raster verwendet, dass die möglichen Werte bestimmt. Die Abtastfrequenz (=Abtastrate, Abtastfrequenz, Samplefrequenz, Samplerate; in Hz oder kHz angegeben) bestimmt, wie oft das Signal pro Sekunde abgetastet wird. Die Auflösung (=Quantisierung; in bit angegeben) legt die mögliche Wertemenge pro Sample fest. Die Digitalisierung von Audiodaten erfordert eine A/D- (und natürlich am Ende des Prozesses eine D/A) Wandlung. Beim Wintel PC macht dies die 'Soundkarte', Apple-Rechner verfügen als 'Multimedia'-Pioniere bereits seit längerer Zeit über eingebaute und ins Betriebssystem integrierte Wandlerhardware. Der zur Zeit allgemein verfügbare 'Standard' für die Audiohardware ist eine Digitalisierung in 'Zeitscheiben' von 44,1 kHz und einer 'Lautstärkerasterung' von 16 bit.
Jeder dieser Balken visualisiert einen diskreten Meßwert (ein Sample in der technischen Definition). Die gezackte Begrenzungslinie entspricht in Annäherung dem kontinuierlichen Verlauf der Welle.
Funktionselemente der HardwareSoundkarten oder entsprechende Baugruppen bei integrierten Systemen ermöglichen die Ein- und Ausgabe von Audio- und MIDI-Daten. Das folgende Bild gibt einen rudimentären Eindruck der Anschlüsse und Signalwege einer üblichen Soundkarte.
AussteuerungEine möglichst gute Aussteuerung des Aufnahmepegels ist die Voraussetzung für eine rauscharme und dynamikreiche A/D Wandlung. Anders als bei analogen Aufnahmeverfahren, für die diese Regel ebenfalls gilt, gibt es allerdings bei der Digitalisierung keinen Grenzbereich, sondern eine genau definierte obere Pegelgrenze, bei deren Überschreiten keine Abbildung der Wellenform mehr möglich ist. Es wird solange nur ein Wert (der Höchstwert) gemessen, wie der zulässige Pegel überschritten wird. Resultat ist eine 'gekappte' Welle, die sich einer Rechteckschwingung annähert und mit dem Original kaum noch etwas gemeinsam hat.
AliasingBeim Digitalisieren können Frequenzen entstehen, die im Original nicht vorhanden sind. Diese Artefakte oder 'Aliasfrequenzen' des Digitalisierungsvorgangs sind Ergebnisse einer unzureichenden Abtastfrequenz. Auch hier gilt - wie bei jedem Wellenphänomen und beim Bild bereits besprochen - das Nyquist/Shannon-Theorem: Die Abtastrate muß mindestens das Doppelte der zu digitalisierenden Frequenz betragen.
Da in Audiosignalen immer - ob gewünscht oder nicht - hochfrequente Anteile vorhanden sind, die jede Datenrate und Speicherkapazität sprengen würden, gibt es nur zwei Lösungswege für dieses Problem (i.d.R. kombiniert angewandt): Filterung - im Audiosignal werden alle Frequenzen über der beabsichtigten halben Digitalisierungsfrequenz herausgefiltert. Es ist allerdings mit vertretbarem Aufwand nicht möglich, auf analogem Wege alle Frequenzen zu entfernen, sie werden lediglich gedämpft ('Q-Faktor', 'Dämpfungsfaktor', 'Flankensteilheit' des Filters). Oversampling - das Signal wird mit einem Vielfachen (z.B. 64fach) der Abtastfrequenz abgetastet, um Aliasing zu vermeiden. Auf digitalem Weg werden dann die hohen Frequenzen herausgerechnet. Oft wird die Kombination beider Verfahren angewendet.
Dynamik - Signal/RauschabstandDie Dynamik eines Signals bezeichnet den Umfang seiner Lautstärkeunterschiede oder einfacher gesagt, sie bestimmt, wie weit sich ein Pianissimo und ein Fortissimo unterscheiden. Um die Nuancen eines Konzerts für Violine und Orchester wiederzugeben, ist eine wesentlich größere Dynamik erforderlich als etwa für eine Nachrichtensendung. Manchmal ist eine große Dynamik sogar unerwünscht, etwa in Werbeclips, die sich durch einen gleichbleibend hohen Pegel aus dem Programmumfeld herausheben sollen. Gemäß den Eigenschaften des menschlichen Gehörs wird die Dynamik in der logarithmischen Einheit Dezibel angegeben. Der Dynamikumfang natürlicher Instrumente:
Um die Dynamik des Originalsignals beizubehalten, muß der Signal/Rauschabstand der Dynamik des Originalsignals mindestens entsprechen. Bei elektrischen und elektronischen Übertragungssystemen wird die technisch mögliche Dynamik als Systemdynamik bezeichnet. Sie ist als Differenz von Übersteuerungsgrenze und Rauschpegel definiert. Systemdynamik von analogen Übertragungssystemen:
SoftwareSample-Editoren Sequenzer Tools
Grundfunktionen der Audiobearbeitung (Sample-Editing)Je nach Ziel der Bearbeitung, etwa Aufbereitung einer Audiodatei für eine Multimedia-Anwendung oder musikalische Gestaltung von 'Rohmaterial', können verschiedene Abfolgen von Arbeitsschritten sinnvoll sein. Dennoch soll die Reihenfolge der hier genannten Verfahren eine Orientierung für die Folge in der Praxis geben.
NormalisierenDie Pegel jedes Meßpunktes werden gleichmäßig
soweit angehoben, bis die höchsten Pegel den voreingestellten Maximalwert
erreichen. Damit wird zwar prinzipiell keine Dynamik gewonnen, jedoch
Rauschen und Klangprobleme durch die bessere Ansteuerung von Peripheriegeräten
vermieden. Cut, Copy and PasteWie aus der Text- und Bildbearbeitung bekannt, kann im Wave-Editor Audiomaterial geschnitten werden: Cut: Ausschneiden Es sollte darauf geachtet werden, immer in den Nulldurchgängen zu schneiden, so daß keine Knackser entstehen. Bei Stereosignalen kann die Suche nach einem gemeinsamen Nulldurchgang beider Signale ein wenig kniffelig sein... LoopsDurch Wiederholen eines bestimmten Segments (oder auch des gesamten Materials) entsteht ein Loop. Dieser kann z.B. dazu benutzt werden, die quasistationäre (Sustain-)Phase eines Klanges zu verlängern oder um eine ständige Rhythmusspur (Drumloop) zu erzeugen. Bei Multimedia-Anwendungen kann so Speicherplatz gespart und die Performance verbessert werden. Filter / Equalizersind sowohl für die ästhetische Gestaltung wie auch für die einfache Aufbereitung von Daten wichtig. So kann etwa die Sprachverständlichkeit vor einem Resampling verbessert werden, oder es können störende Resonanzen des Aufnahmeraums oder der Mikrophonierung beseitigt werden. Kompressor / LimiterDer Kompressor macht - einfach gesagt - ein lautes Signal leiser und ein leises Signal lauter. Die Dynamik eines Signalverlaufs wird so 'zusammengedrückt'. Für Anwendungen mit niedrigerer Dynamik als die der Originalaufnahme bieten sich Kompressoren an, um das Feld der dynamischen Bandbreite zu kontrollieren. Auch vor der Verminderung der Bitrate (z.B. 16 bit nach 8 bit für Multimedia- oder für Internetanwendungen kann durch gezielte Kompression Klangqualität 'gerettet' werden. Die 'Lautheit' eines Signals in einem Umfeld läßt sich ebenfalls mit Kompressoren steuern. Stark komprimierte Signale können einen gleichbleibend hohen Pegel erhalten und heben sich so aus einem normalen dynamischen Umfeld heraus (>Werbung). Ein Limiter dient zur Begrenzung von Signalpegeln ab einer definierten Grenze, sodass Übersteuerungen und Überlastungen verhindert werden können. ResamplingDAT und CD, Multimedia und Internet haben ihre
eigenen anwendungsbezogenen Auflösungen, Samplingfrequenzen und Datenraten.
Mit Resamplen ist die Umwandlung der Samplingfrequenz bei gleichbleibender
Tonhöhe gemeint, also ein Rechenvorgang, der die vorhandenen Werte
auf einen neuen Wertebereich abbildet. Je nach Umwandlung kann dabei ein
komplexer Rechenvorgang notwendig werden. So ist ein Resampling von 44100
Hz auf 22050 Hz durch Wegfall jedes zweiten Wertes problemlos möglich,
eine Wandlung von 22050 Hz auf 48000 Hz erfordert dagegen die 2,176870748299fache
Wertemenge mit entsprechender Interpolation der Samplewerte. Neben dem
längeren Rechenvorgang kann außerdem Quantisierungsrauschen
entstehen. VerzögerungEine Zumischung des zeitverzögerten Originals erzeugt je nach Verzögerungszeit
folgende Effekte: DenoiserVerrauschte oder gestörte Aufnahmen lassen sich mit verschiedenen Verfahren verbessern. Ein Noise-Gate entfernt low-level Geräusche, ein 'echter' Denoiser nimmt ein Rauschmuster aus der Datei und senkt die entsprechenden Frequenzbänder ab. Fade Out / Fade InFür Multimedia-Anwendungen sind Ein- und Ausblenden als abschließendes Verfahren wichtige Gestaltungsmittel.
Datenübertragung und Speicherungfür Audiodaten richtet sich nach den allgemeinen Möglichkeiten für Speicherung auf Festplatten, CD-ROMS, Wechselmedien etc. und Netzübertragung (AppleTalk, Ethernet, SCSI). Dabei sind Hardware (Speicher- und Übertragungskapazität) und Software (Cacheorganisation und Protokolle) zu berücksichtigen. Die Datenrate, die dabei pro Sekunde und Kanal anfällt, entspricht der Sampleauflösung mal der Samplefrequenz. Beim üblichen Format (CD-Standard): Stereo, 44,1 kHz, 16 Bit ergeben sich: 2 x 44100 x 16 = 1.411.200 Bit/s oder 176.400 Byte/s oder 172,26 KByte/s. Übertragungsraten für andere Auflösungen und Samplefrequenzen (unkomprimiert):
DatenkomprimierungZur Senkung der erforderlichen Übertragungs-Bandbreite und Speicherkapazität werden verschiedene Verfahren der Datenreduktion bzw. -komprimierung verwendet. Zu unterscheiden ist zwischen der verlustfreien und verlustbehafteten Komprimierung. Die verlustfreie Komprimierung (z.B. ZIP, ARC), bei der die Originaldaten vollständig wiederhergestellt werden können, nutzt statistisch-informationstheoretische Redundanzen zur Minimierung des Datenaufkommens. Verlustbehaftete Komprimierung wertet die wahrnehmungsphysiologische und pychoakustische Relevanz von Signalen aus und entfernt irrelevante Anteile (etwa bei Verdeckungsphänomenen). Konsumergeräte (MiniDisc) und Internetanwendungen (Real Audio, MPEG) nutzen diese Variante der Komprimierung. Übertragungsraten (komprimiert): Typische Performance Daten von MPEG-1 Layer III
Faustregeln für den Bedarf an Speicherplatz: Pro Minute werden bei unkomprimierten Daten (Stereo,
44,1 kHz, 16 bit) ca. 10 MByte Speicherplatz benötigt, Audiodatenformate Unkomprimierte Formate: Komprimierte Formate / Internet:
Spitzfindigkeiten mit bits und Bytes: 1 Byte = 8 bit (ein 'Datenwort') Die Präfixe Kilo (K) und Mega (M), die im Normalgebrauch den Faktor 1.000 bzw. 1.000.000 bezeichnen, richten sich im Bereich der bits und Bytes nach den 2er-Potenzen des binären Systems. Dort gilt also: 1 kbit = 1000 bit (Ausnahme mit kleinem k)
LiteraturAckermann, Philipp: Computer und Musik. Eine Einführung in die digitale Klang- und Musikverarbeitung. Wien 1991 Stotz, Dieter: Computergestützte Audio- und Videotechnik. Multimediatechnik in der Anwendung. Berlin 1995 Zander, Horst: Das PC-Tonstudio. Von der Audioaufnahme und Verarbeitung mit dem PC bis zur Master-CD. Poing 1998
|
Universität Lüneburg - 1.12.2004 - Rolf Großmann