DE602005005640T2 - Mehrkanalige audiocodierung - Google Patents

Mehrkanalige audiocodierung Download PDF

Info

Publication number
DE602005005640T2
DE602005005640T2 DE602005005640T DE602005005640T DE602005005640T2 DE 602005005640 T2 DE602005005640 T2 DE 602005005640T2 DE 602005005640 T DE602005005640 T DE 602005005640T DE 602005005640 T DE602005005640 T DE 602005005640T DE 602005005640 T2 DE602005005640 T2 DE 602005005640T2
Authority
DE
Germany
Prior art keywords
channels
channel
audio
angle
subband
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE602005005640T
Other languages
English (en)
Other versions
DE602005005640D1 (de
Inventor
Mark Franklin San Francisco DAVIS
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dolby Laboratories Licensing Corp
Original Assignee
Dolby Laboratories Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby Laboratories Licensing Corp filed Critical Dolby Laboratories Licensing Corp
Publication of DE602005005640D1 publication Critical patent/DE602005005640D1/de
Application granted granted Critical
Publication of DE602005005640T2 publication Critical patent/DE602005005640T2/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/018Audio watermarking, i.e. embedding inaudible data in the audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • G10L19/025Detection of transients or attacks for time/frequency resolution switching
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/02Systems employing more than two channels, e.g. quadraphonic of the matrix type, i.e. in which input signals are combined algebraically, e.g. after having been phase shifted with respect to each other
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 

Description

  • Technisches Gebiet
  • Die Erfindung betrifft allgemein Audiosignalverarbeitung. Die Erfindung ist besonders nützlich für Audiosignalverarbeitung bei niedriger Übertragungsgeschwindigkeit und sehr niedriger Übertragungsgeschwindigkeit. Insbesondere betreffen Aspekte der Erfindung ein Codierverfahren und ein Decodierverfahren für Audiosignale, bei welchen eine Vielzahl von Audiokanälen durch einen monophonen("Mono"-)Mischaudiokanal und eine Hilfs-("Sidechain"-)Information dargestellt wird. Alternativ wird die Vielzahl von Audiokanälen durch eine Vielzahl von Audiokanälen und Sidechain-Informationen dargestellt. Die Erfindung ist durch die beigefügten Ansprüche definiert.
  • Stand der Technik
  • Beim digitalen Audio-Codier- und Decodiersystem AC-3 können Kanäle bei hohen Frequenzen selektiv kombiniert oder "gekoppelt" werden, wenn dem System die Bits ausgehen. Einzelheiten des Systems AC-3 sind nach dem Stand der Technik bekannt – siehe zum Beispiel: ATSC Standard A52/A: Digital Audio Compression Standard (AC-3), Revision A, Advanced Television Systems Committee, 20. August 2001. Das Dokument A/52A steht im World Wide Web unter http://www.atsc.org/standards.html zur Verfügung.
  • Die Frequenz, oberhalb welcher das System AC-3 auf Verlangen Kanäle kombiniert, wird als die "Kopplungsfrequenz" bezeichnet. Oberhalb der Kopplungsfrequenz werden die gekoppelten Kanäle zu einem "Kopplungskanal" oder Mischkanal kombiniert. Der Codierer erzeugt "Kopplungskoordinaten" (Amplituden-Skalierungsfaktoren) für jedes Teilband oberhalb der Kopplungsfrequenz in jedem Kanal. Die Kopplungskoordinaten geben das Verhältnis der ursprünglichen Energie jedes gekoppelten Kanal-Teilbands zur Energie des entsprechenden Teilbands im Mischkanal an. Unterhalb der Kopplungsfrequenz werden Kanäle diskret codiert. Die Phasenpolarität eines gekoppelten Kanal-Teilbands kann umgekehrt werden, bevor der Kanal mit einem oder mehreren anderen gekoppelten Kanälen kombiniert wird, um die Auslöschung phasenverschobener Signalkomponenten zu verringern. Der Mischkanal wird zusammen mit den Sidechain-Informationen, welche teilbandweise die Kopplungskoordinaten sowie die Angabe, ob die Phase des Kanals umgekehrt ist, enthalten, an den Decodierer gesendet. In der Praxis lagen die in handelsüblichen Ausführungsformen des Systems AC-3 verwendeten Kopplungsfrequenzen im Bereich von ungefähr 10 kHz bis ungefähr 3500 Hz. Die US-Patente 5,583,962 ; 5,633,981 , 5,727,119 , 5,909,664 und 6,021,386 enthalten Belehrungen, welche das Kombinieren mehrerer Audiokanäle zu einem Mischkanal und Hilfs- oder Sidechain-Informationen und die Rückgewinnung einer Annäherung an die ursprünglichen mehreren Kanäle daraus betreffen.
  • Verfahren gemäß dem Oberbegriff der Ansprüche 1 und 12 sind aus dem Dokument WO 03/090280 A1 bekannt, welches eine Codierung von N Eingangsaudiokanälen zu einem monophonen Audiosignal und einer Gruppe von räumlichen Parametern einschließlich eines Parameters, welcher ein Maß der Ähnlichkeit von Wellenformen der N Eingangsaudiokanäle, nämlich den Pegelunterschied zwischen Kanälen und wahlweise entweder den Zeitunterschied zwischen Kanälen oder den Phasenunterschied zwischen Kanälen, darstellt, beschreibt. Das monophone Audiosignal wird aus den N Eingangsaudiokanälen durch Summieren der N Eingangsaudiokanäle nach einer Phasenkorrektur entsprechend dem Zeitunterschied zwischen den Kanälen hergeleitet. Das entsprechende, in diesem Dokument offenbarte Decodierverfahren synthetisiert eine Kopie der N Eingangsaudiokanäle aus dem monophonen Audiosignal und den räumlichen Parametern.
  • Offenbarung der Erfindung
  • Aspekte der vorliegenden Erfindung können als Verbesserungen der "Kopplungsverfahren" des Codier- und Decodiersystems AC-3 und auch anderer Verfahren, bei welchen mehrere Audiokanäle entweder zu einem monophonen Mischsignal oder zu mehreren Audiokanälen zusammen mit zugehörigen Hilfsinformationen kombiniert werden und aus welchen mehrere Audiokanäle rekonstruiert werden, angesehen werden. Aspekte der vorliegenden Erfindung können auch als Verbesserungen von Verfahren zum Heruntermischen mehrerer Audiokanäle zu einem monophonen Audiosignal oder zu mehreren Audiokanälen und zum Dekorrelieren mehrerer aus einem monophonen Audiokanal oder aus mehreren Audiokanälen hergeleiteter Audiokanäle angesehen werden.
  • Aspekte der Erfindung können in einem N:1:N-Raum-Audio-Codierverfahren (wobei "N" die Anzahl von Audiokanälen ist) oder einem M:1:N-Raum-Audio-Codierverfahren (wobei "M" die Anzahl von codierten Audiokanälen und "N" die Anzahl von decodierten Audiokanäle ist) verwendet werden, welche die Kanalkopplung verbessern, indem sie unter anderem für verbesserte Phasenkompensation, Dekorrelationsmechanismen und signalabhängige variable Zeitkonstanten sorgen. Aspekte der vorliegenden Erfindung können auch in N:x:N- und M:x:N-Raum-Audio-Codierverfahren verwendet werden, wobei "x" gleich 1 oder größer als 1 sein kann. Zu den Zielen zählen die Verringerung von Kopplungsauslöschungsartefakten im Codierungsprozess durch Einstellen der relativen Phase zwischen den Kanälen vor dem Heruntermischen und Verbessern der räumlichen Wirkung des reproduzierten Signals durch Wiederherstellen der Phasenwinkel und der Maße an Dekorrelation im Decodierer. Aspekte der Erfindung sollten, wenn sie in praktischen Ausführungsformen verkörpert sind, kontinuierliche Kanalkopplung anstelle von Kanalkopplung auf Verlangen und niedrigere Kopplungsfrequenzen als zum Beispiel im System AC-3 berücksichtigen und dadurch die erforderliche Übertragungsgeschwindigkeit verringern.
  • Beschreibung der Zeichnungen
  • 1 ist ein idealisiertes Blockschaltbild, welches die Hauptfunktionen oder -einrichtungen einer Aspekte der vorliegenden Erfindung verkörpernden N:1-Codierungsanordnung zeigt.
  • 2 ist ein idealisiertes Blockschaltbild, welches die Hauptfunktionen oder -einrichtungen einer Aspekte der vorliegenden Erfindung verkörpernden 1:N-Decodierungsanordnung zeigt.
  • 3 zeigt ein Beispiel einer vereinfachten konzeptionellen Organisation von Bins und Teilbändern entlang einer (senkrechten) Frequenzachse und von Blocks und einem Rahmen entlang einer (waagerechten) Zeitachse. Die Figur ist nicht maßstabsgerecht.
  • 4 ist eine Mischform aus Ablaufdiagramm und Blockschaltbild, welche Funktionen einer Aspekte der vorliegenden Erfindung verkörpernden Codieranordnung ausführende Codierschritte oder -einrichtungen zeigt.
  • 5 ist eine Mischform aus Ablaufdiagramm und Blockschaltbild, welche Funktionen einer Aspekte der vorliegenden Erfindung verkörpernden Decodieranordnung ausführende Decodierschritte oder -einrichtungen zeigt.
  • 6 ist ein idealisiertes Blockschaltbild, welches die Hauptfunktionen oder -einrichtungen einer Aspekte der vorliegenden Erfindung verkörpernden ersten N:x-Codieranordnung zeigt.
  • 7 ist ein idealisiertes Blockschaltbild, welches die Hauptfunktionen oder -einrichtungen einer Aspekte der vorliegenden Erfindung verkörpernden x:M-Decodieranordnung zeigt.
  • 8 ist ein idealisiertes Blockschaltbild, welches die Hauptfunktionen oder -einrichtungen einer Aspekte der vorliegenden Erfindung verkörpernden ersten alternativen x:M-Decodieranordnung zeigt.
  • 9 ist ein idealisiertes Blockschaltbild, welches die Hauptfunktionen oder -einrichtungen einer Aspekte der vorliegenden Erfindung verkörpernden zweiten alternativen x:M-Decodieranordnung zeigt.
  • Beste Ausführungsweise der Erfindung
  • Grundlegender N:1-Codierer
  • 1 zeigt eine N:1-Codierfunktion oder -einrichtung, welche Aspekte der vorliegenden Erfindung verkörpert. Die Figur ist ein Beispiel einer Funktion oder Struktur, welche als ein Aspekte der Erfindung verkörpernder grundlegender Codierer arbeitet. Andere funktionelle oder strukturelle Anordnungen, welche Aspekte der Erfindung realisieren, können verwendet werden, einschließlich alternativer und/oder äquivalenter funktioneller oder struktureller Anordnungen wie unten beschrieben.
  • Zwei oder mehr Audio-Eingangskanäle werden auf den Codierer angewendet. Obwohl Aspekte der Erfindung im Prinzip durch analoge, digitale oder hybride analog-digitale Ausführungsformen realisiert werden können, sind die hierin offenbarten Beispiele digitale Ausführungsformen. Somit können die Eingangssignale Zeitabtastwerte sein, welche aus analogen Audiosignalen hergeleitet worden sein können. Die Zeitabtastwerte können als lineare Pulscodemodulations-(PCM-)Signale codiert werden. Jeder lineare PCM-Audio-Eingangskanal wird von einer Filterbankfunktion oder -einrichtung mit einem phasengleichen Ausgang und einem Quadraturausgang wie einer mit 512 Punkten gefensterten diskreten Vorwärts-Fourier-Transformation (DFT) (wie durch eine schnelle Fourier-Transformation (FFT) implementiert) verarbeitet. Die Filterbank kann als eine Zeitdomäne-in-Frequenzdomäne-Transformation angesehen werden.
  • 1 zeigt einen ersten PCM-Kanaleingang (Kanal "1"), angewendet auf eine Filterbankfunktion oder -einrichtung, "Filterbank" 2, und einen zweiten PCM-Kanaleingang (Kanal "n"), angewendet auf eine andere Filterbankfunktion oder -einrichtung, "Filterbank" 4. Es kann "n" Eingangskanäle geben, wobei "n" eine positive ganze Zahl gleich oder größer als zwei ist. Somit gibt es außerdem "n" Filterbänke, welche jeweils einen einzigen der "n" Eingangskanäle empfangen. Zur Vereinfachung der Darstellung zeigt 1 nur zwei Eingangskanäle, "1" und "n".
  • Wenn eine Filterbank durch eine FFT implementiert ist, werden Zeitdomänen-Eingangssignale in aufeinanderfolgende Blocks segmentiert und werden sie gewöhnlich in überlappenden Blocks verarbeitet. Die diskreten Frequenzausgänge (Transformationskoeffizienten) der FFT werden als Bins bezeichnet, welche jeweils einen komplexen Wert mit Real- und Imaginärteil entsprechend phasengleicher Komponente beziehungsweise Quadraturkomponente haben. Benachbarte Transformationsfächer können in Teilbänder, welche kritische Bandbreiten des menschlichen Gehörs annähern, gruppiert werden, und die meisten vom Codierer produzierten Sidechain-Informationen können, wie noch beschrieben werden wird, teilbandweise berechnet und übertragen werden, um Verarbeitungsressourcen zu minimieren und die Übertragungsgeschwindigkeit zu verringern. Mehrere aufeinanderfolgende Zeitdomänen-Blocks können in Rahmen gruppiert werden, wobei die einzelnen Blockwerte über jeden Rahmen gemittelt oder auf andere Weise kombiniert oder aufsummiert werden, um die Sidechain-Übertragungsgeschwindigkeit zu minimieren. In hierin beschriebenen Beispielen ist jede Filterbank durch eine FFT implementiert, werden benachbarte Transformationsfächer in Teilbänder gruppiert, werden Blocks in Rahmen gruppiert und werden Sidechain-Daten einmal pro Rahmen gesendet. Alternativ können Sidechain-Daten häufiger als einmal pro Rahmen (z. B. einmal pro Block) gesendet werden. Siehe zum Beispiel 3 und ihre Beschreibung im folgenden. Wie wohlbekannt ist, gibt es einen Kompromiss zwischen der Frequenz, bei welcher Sidechain-Informationen gesendet werden, und der erforderlichen Übertragungsgeschwindigkeit.
  • Eine geeignete praktische Implementierung von Aspekten der vorliegenden Erfindung kann Rahmen fester Länge von ungefähr 32 Millisekunden verwenden, wenn eine Abtastfrequenz von 48 kHz verwendet wird, wobei jeder Rahmen sechs Blocks in Intervallen von jeweils ungefähr 5,3 Millisekunden enthält (wobei zum Beispiel Blocks mit einer Dauer von ungefähr 10,6 Milli sekunden mit einer Überlappung von 50% verwendet werden). Jedoch sind weder solche zeitlichen Abstimmungen noch die Verwendung von Rahmen fester Länge noch deren Unterteilung in eine feste Anzahl von Blocks kritisch für das Realisieren von Aspekten der Erfindung, vorausgesetzt, dass die Informationen, welche hierin als rahmenweise gesendet beschrieben werden, nicht weniger häufig als ungefähr alle 40 Millisekunden gesendet werden. Rahmen können von willkürlicher Größe sein, und ihre Größe kann dynamisch schwanken. Variable Blocklängen können wie im oben erwähnten System AC-3 verwendet werden. Unter dieser Voraussetzung ist hierin von "Rahmen" und "Blocks" die Rede.
  • In der Praxis ist es, wenn das (die) Mono- oder Mehrkanal-Mischsignal(e), oder das (die) Mono- oder Mehrkanal-Mischsignal(e) und die diskreten niederfrequenten Kanäle, zum Beispiel durch einen wahrnehmungsgemäßen Codierer wie unten beschrieben codiert werden, günstig, die gleiche Rahmen- und Blockkonfiguration wie die im wahrnehmungsgemäßen Codierer verwendete zu verwenden. Überdies wäre es, wenn der Codierer variable Blocklängen verwendet, so dass es von Zeit zu Zeit eine Umschaltung von einer Blocklänge auf eine andere gibt, wünschenswert, wenn eine oder mehrere der Sidechain-Informationen wie hierin beschrieben bei Auftreten einer solchen Blockumschaltung aktualisiert werden. Um die Zunahme zusätzlicher Daten beim Aktualisieren der Sidechain-Informationen bei Auftreten einer solchen Umschaltung zu minimieren, kann die Frequenzauflösung der aktualisierten Sidechain-Informationen verringert werden.
  • 3 zeigt ein Beispiel einer vereinfachten konzeptionellen Organisation von Bins und Teilbändern entlang einer (senkrechten) Frequenzachse und von Blocks und einem Rahmen entlang einer (waagerechten) Zeitachse. Wenn Bins in Teilbänder unterteilt sind, welche kritische Bänder annähern, haben die Teilbänder niedrigster Frequenz die wenigsten Bins (z. B. eines) und nimmt die Anzahl von Bins pro Teilband mit steigender Frequenz zu.
  • Wie wiederum in 1 gezeigt, wird eine durch die jeweilige Filterbank jedes Kanals (in diesem Beispiel Filterbänke 2 und 4) produzierte Frequenzdomänen-Version jedes einzelnen der n Zeitdomänen-Eingangskanäle durch eine additive Kombinationsfunktion oder -einrichtung "Additiver Kombinator" 6 zu einem monophonen ("Mono"-)Mischaudiosignal zusammensummiert ("heruntergemischt").
  • Das Heruntermischen kann auf die gesamte Frequenzbandbreite der Eingangsaudiosignale angewendet werden oder kann optional auf Frequenzen oberhalb einer gegebenen "Kopplungsfrequenz" beschränkt werden, insofern als Artefakte des Heruntermischprozesses bei mittleren bis niedrigen Frequenzen besser hörbar werden können. In solchen Fällen können die Kanäle diskret unterhalb der Kopplungsfrequenz übermittelt werden. Diese Strategie kann wünschenswert sein, auch wenn Verarbeitungsartefakte kein Problem sind, insofern als durch Gruppieren von Transformationsfächern in Teilbänder in der Art kritischer Bänder (Größe annähernd proportional zur Frequenz) erstellte Teilbänder mittlerer/niedriger Frequenz dazu neigen, eine kleine Anzahl von Transformationsfächern bei niedrigen Frequenzen (ein Bin bei sehr niedrigen Frequenzen) zu haben und mit so wenigen oder weniger Bits, als erforderlich sind, um ein heruntergemischtes Mono-Audiosignal mit Sidechain-Informationen zu senden, direkt codiert werden können. Eine Kopplungs- oder Übergangsfrequenz von nur 4 kHz, 2300 Hz, 1000 Hz oder sogar am unteren Ende des Frequenzbands der auf den Codierer angewendeten Audiosignale kann für manche Anwendungen akzeptabel sein, besonders solche, bei welchen es auf seine sehr niedrige Übertragungsgeschwindigkeit ankommt. Andere Frequenzen können ein brauchbares Gleichgewicht zwischen Biteinsparungen und Akzeptanz durch den Zuhörer schaffen. Die Wahl einer bestimmten Kopplungsfrequenz ist nicht kritisch für die Erfindung. Die Kopplungsfrequenz kann variabel sein, und wenn sie variabel ist, kann sie zum Beispiel direkt oder indirekt von Eingangssignaleigenschaften abhängen.
  • Vor dem Heruntermischen besteht ein Aspekt der vorliegenden Erfindung darin, die Phasenwinkel-Synchronismen der Kanäle untereinander zu verbessern, um die Auslöschung phasenverschobener Signalkomponenten beim Kombinieren der Kanäle zu verringern und um einen verbesserten Mono-Mischkanal zu schaffen. Dies kann durch steuerbares Verschieben über die Zeit des "absoluten Winkels" einiger oder sämtlicher der Transformationsfächer in solche der Kanäle geschehen. Zum Beispiel können sämtliche der Audio oberhalb einer Kopplungsfrequenz darstellenden Transformationsfächer, welche somit ein in Betracht kommendes Frequenzband definieren, nach Bedarf in jedem Kanal oder, wenn ein Kanal als Referenz dient, in allen Kanälen außer dem Referenzkanal über die Zeit steuerbar verschoben werden.
  • Der "absolute Winkel" eines Bins kann als der Winkel der Betrags-und-Winkel-Darstellung jedes durch eine Filterbank produzierten komplexwertigen Transformationsbins angesehen werden. Steuerbares Verschieben der absoluten Winkel von Bins in einem Kanal erfolgt durch eine Winkeldrehungsfunktion oder -einrichtung ("Winkeldreher"). Winkeldreher 8 verarbeitet den Ausgang der Filterbank 2 vor seiner Anwendung auf die durch den additiven Kombinator 6 vorgenommene Heruntermischungs-Summierung, während Winkeldreher 10 den Ausgang der Filterbank 4 vor seiner Anwendung auf den additiven Kombinator 6 verarbeitet. Man wird erkennen, dass unter manchen Signalbedingungen für ein bestimmtes Transformationsfach über eine Zeitperiode keine Winkeldrehung erforderlich sein muss (in hierin beschriebenen Beispielen die Zeitperiode eines Rahmens). Unterhalb der Kopplungsfrequenz kann die Kanalinformation diskret codiert werden (in 1 nicht gezeigt).
  • Im Prinzip kann eine Verbesserung der Phasenwinkel-Synchronismen der Kanäle untereinander durch Verschieben der Phase jedes Transformationsbins oder Teilbands um seinen mit umgekehrtem Vorzeichen versehenen absoluten Phasenwinkel in jedem Block im gesamten in Betracht kommenden Frequenzband bewerkstelligt werden. Obwohl dies eine Auslöschung phasenverschobener Signalkomponenten im wesentlichen vermeidet, tendiert es dazu, Artefakte zu verursachen, welche hörbar sein können, besonders wenn das resultierende Mono-Mischsignal isoliert gehört wird. Somit ist es wünschenswert, das Prinzip der "geringsten Behandlung" zu verwenden, indem die absoluten Winkel von Bins in einem Kanal nur so weit verschoben werden, wie es notwendig ist, um die Auslöschung phasenverschobener Signalkomponenten im Heruntermischprozess zu minimieren und Zusammenbrüche des räumlichen Abbilds der durch den Decodierer wiederhergestellten Mehrkanal-Signale zu minimieren. Verfahren zum Bestimmen solcher Winkelverschiebungen sind unten beschrieben. Solche Verfahren umfassen Zeit- und Frequenzglättung sowie die Art und Weise, wie die Signalverarbeitung auf das Vorliegen einer Transienten reagiert.
  • Eine Energienormalisierung kann auch binweise im Codierer durchgeführt werden, um eine etwaige verbleibende Auslöschung phasenverschobener Signalkomponenten isolierter Bins weiter zu verringern, wie weiter unten beschrieben. Außerdem kann, wie weiter unten beschrieben, eine Energienormalisierung auch teilbandweise (im Decodierer) durchgeführt werden, um sicherzustellen, dass die Energie des Mono-Mischsignals gleich den Summen der Energien der beitragenden Kanäle ist.
  • Jeder Eingangskanal verfügt über eine mit ihm verknüpfte Audio-Analysefunktion oder -einrichtung ("Audio-Analysator") zum Erzeugen der Sidechain-Informationen für diesen Kanal und zum Steuern des auf den Kanal angewendeten Maßes an Winkeldrehung, bevor er auf die Heruntermischungs-Summierung 6 angewendet wird. Die Filterbank-Ausgänge der Kanäle 1 und n werden auf Audio-Analysator 12 beziehungsweise auf Audio-Analysator 14 angewendet. Audio-Analysator 12 erzeugt die Sidechain-Informationen für Kanal 1 und das Maß der Phasenwinkeldrehung für Kanal 1. Audio-Analysator 14 erzeugt die Sidechain-Informationen für Kanal n und das Maß der Winkeldrehung für Kanal n. Es versteht sich von selbst, dass unter hierin erwähnten "Winkeln" Phasenwinkel zu verstehen sind.
  • Die durch einen Audio-Analysator für jeden Kanal erzeugten Sidechain-Informationen für jeden Kanal können enthalten:
    einen Amplituden-Skalierungsfaktor ("Amplituden-SF"),
    einen Winkel-Steuerparameter,
    einen Dekorrelations-Skalierungsfaktor ("Dekorrelations-SF"),
    einen Transientenmerker und
    optional einen Interpolationsmerker.
  • Solche Sidechain-Informationen können als "räumliche Parameter" beschrieben werden, welche räumliche Eigenschaften der Kanäle und/oder Signaleigenschaften, welche für eine räumliche Verarbeitung von Bedeutung sein können, wie Transienten, anzeigen. In jedem Fall gelten die Sidechain-Informationen für ein einziges Teilband (außer dem Transientenmerker und dem Interpolationsmerker, von welchen jeder für alle Teilbänder in einem Kanal gilt) und können sie einmal pro Rahmen, wie in den unten beschriebenen Beispielen, oder bei Auftreten einer Blockumschaltung in einem zugehörigen Codierer aktualisiert werden. Weitere Einzelheiten der verschiedenen räumlichen Parameter sind unten dargelegt. Die Winkeldrehung für einen bestimmten Kanal im Codierer kann als der mit umgekehrter Polarität versehene Winkel-Steuerparameter, welcher einen Teil der Sidechain-Informationen bildet, angesehen werden.
  • Wenn ein Referenzkanal verwendet wird, muss dieser Kanal keinen Audio-Analysator erfordern oder kann er alternativ einen Audio-Analysator erfordern, welcher nur die Sidechain-Information "Amplituden-Skalierungsfaktor" erzeugt. Es ist nicht erforderlich, einen Amplituden-Skalierungsfaktor zu senden, wenn dieser Skalierungsfaktor mit ausreichender Genauigkeit durch einen Decodierer aus den Amplituden-Skalierungsfaktoren der anderen Nicht-Referenz-Kanäle abgeleitet werden kann. Es ist möglich, im Decodierer den ungefähren Wert des Amplituden-Skalierungsfaktors des Referenzkanals abzuleiten, wenn die Energienormalisierung im Codierer gewährleistet, dass sich die Skalierungsfaktoren über die Kanäle in jedem beliebigen Teilband im wesentlichen im Quadrat zu 1 summieren wie unten beschrieben. Der abgeleitete ungefähre Referenzkanal-Amplituden-Skalierungsfaktor-Wert kann infolge der relativ groben Quantisierung von Amplituden-Skalierungsfaktoren Fehler aufweisen, was Abbildverschiebungen im reproduzierten Mehrkanal-Audio zur Folge hat. Jedoch können solche Artefakte in einer Umgebung mit niedriger Übertragungsgeschwindigkeit eher akzeptabel sein als das Verwenden der Bits zum Senden des Amplituden-Skalierungsfaktors des Referenzkanals. Trotzdem kann es in manchen Fällen wünschenswert sein, einen Audio-Analysator für den Referenzkanal zu verwenden, welcher mindestens die Sidechain-Information "Amplituden-Skalierungsfaktor" erzeugt.
  • 1 zeigt als gestrichelte Linie einen optionalen Eingang für jeden Audio-Analysator vom PCM-Zeitdomänen-Eingang zum Audio-Analysator im Kanal. Dieser Eingang kann vom Audio-Analysator verwendet werden, um über eine Zeitperiode (in den hierin beschriebenen Beispielen die Periode eines Blocks oder Rahmens) eine Transiente zu erfassen und als Reaktion auf eine Transiente eine Transientenanzeige (z. B. einen 1-Bit-"Transientenmerker") zu erzeugen. Alternativ kann, wie unten in den Anmerkungen zu Schritt 408 in 4 beschrieben, eine Transiente in der Frequenzdomäne erfasst werden, in welchem Fall der Audio-Analysator keinen Zeitdomänen-Eingang zu empfangen braucht.
  • Das Mono-Mischaudiosignal und die Sidechain-Informationen für alle Kanäle (oder alle Kanäle außer dem Referenzkanal) können in einem bzw. einen Decodierprozess oder einer bzw. eine Decodiereinrichtung ("Decodierer") gespeichert, übertragen oder gespeichert und übertragen werden. Vor der Speicherung, Übertragung oder Speicherung und Übertragung können die verschiedenen Audiosignale und verschiedenen Sidechain-Informationen gemultiplext und in einen oder mehrere für das bzw. die Speicherungs-, Übertragungs- oder Speicherungs- und Übertragungsmedium oder -medien geeignete Bitströme gepackt werden. Das Mono-Mischaudio kann vor Speicherung, Übertragung oder Speicherung und Übertragung auf einen Codierprozess oder eine Codiereinrichtung, welcher bzw. welche die Übertragungsgeschwindigkeit verringert, wie zum Beispiel einen wahrnehmungsgemäßen Codierer, oder auf einen wahrnehmungsgemäßen Codierer und einen Entropiecodierer (z. B. einen arithmetischen oder Huffman-Codierer) (manchmal als "verlustfreier" Codierer bezeichnet) angewendet werden. Außerdem können, wie oben erwähnt, das Mono-Mischaudio und die zugehörigen Sidechain-Informationen aus mehreren Eingangskanälen nur für Audiofrequenzen oberhalb einer bestimmten Frequenz (einer "Kopplungsfrequenz") hergeleitet werden. In diesem Fall können die Audiofrequenzen unterhalb der Kopplungsfrequenz in jedem der mehreren Eingangskanäle als diskrete Kanäle gespeichert, übertragen oder gespeichert und übertragen werden oder können sie auf irgendeine andere Weise als die hierin beschriebene kombiniert oder verarbeitet werden. Solche diskreten oder anders kombinierten Kanäle können auch auf einen datenmindernden Codierprozess oder eine datenmindernde Codiereinrichtung wie zum Beispiel einen wahrnehmungsgemäßen Codierer oder einen wahrnehmungsgemäßen Codierer und einen Entropiecodierer angewendet werden. Das Mono-Mischaudio und das diskrete Mehrkanal-Audio können allesamt auf einen integrierten wahrnehmungsgemäßen oder wahrneh mungsgemäßen und Entropie-Codierprozess bzw. eine integrierte wahrnehmungsgemäße oder wahrnehmungsgemäße und Entropie-Codiereinrichtung angewendet werden.
  • Die bestimmte Art und Weise, auf welche die Sidechain-Informationen im Codierer-Bitstrom übertragen werden, ist nicht kritisch für die Erfindung. Wenn gewünscht, können die Sidechain-Informationen auf eine solche Art und Weise übertragen werden, dass der Bitstrom mit früheren Decodierern kompatibel ist (d. h. dass der Bitstrom rückwärtskompatibel ist). Viele geeignete Verfahren hierfür sind bekannt. Zum Beispiel erzeugen viele Codierer einen Bitstrom mit nicht verwendeten Bits oder Nullbits, welche vom Decodierer ignoriert werden. Ein Beispiel einer solchen Anordnung ist im US-Patent 6,807,528 B1 von Truman et al. mit dem Titel "Adding Data to a Compressed Data Frame", 19. Oktober 2004, dargelegt. Solche Bits können durch die Sidechain-Informationen ersetzt werden. Ein anderes Beispiel ist, dass die Sidechain-Informationen im Bitstrom des Codierers steganografisch codiert werden kann. Alternativ können die Sidechain-Informationen durch irgendein Verfahren, welches die Übertragung oder Speicherung solcher Informationen zusammen mit einem mit früheren Decodierern kompatiblen Mono/Stereo-Bitstrom gestattet, getrennt vom rückwärtskompatiblen Bitstrom gespeichert oder übertragen werden.
  • Grundlegender 1:N- und 1:M-Decodierer
  • 2 zeigt eine Aspekte der vorliegenden Erfindung verkörpernde Decodierfunktion oder -einrichtung ("Decodierer"). Die Figur ist ein Beispiel einer Funktion oder Struktur, welche als ein Aspekte der Erfindung verkörpernder grundlegender Decodierer arbeitet. Andere funktionelle oder strukturelle Anordnungen, welche Aspekte der Erfindung realisieren, können verwendet werden, einschließlich alternativer und/oder äquivalenter funktioneller oder struktureller Anordnungen wie unten beschrieben.
  • Der Decodierer empfängt das Mono-Mischaudiosignal und die Sidechain-Informationen für alle Kanäle oder alle Kanäle außer dem Referenzkanal. Wenn erforderlich, werden das Mischaudiosignal und die zugehörigen Sidechain-Informationen demultiplext, entpackt und/oder decodiert. Die Decodierung kann eine Tabellensuche verwenden. Das Ziel ist, aus den Mono-Mischaudiokanälen eine Vielzahl von einzelnen Audiokanälen herzuleiten, welche jeweilige der auf den Codierer in 1, welcher hierin beschriebenen Übertragungsgeschwindigkeitsverringerungsverfahren der vorliegenden Erfindung unterliegt, angewendeten Audiokanäle annähern.
  • Natürlich kann man sich entscheiden, nicht alle der auf den Codierer angewendeten Kanäle rückzugewinnen oder nur das monophone Mischsignal zu verwenden. Alternativ können Kanäle zusätzlich zu den auf den Codierer angewendeten Kanälen gemäß Aspekten der vorliegenden Erfindung durch Verwenden von Aspekten der in der internationalen Anmeldung PCT/US 02/03619, eingereicht am 7. Februar 2002, veröffentlicht am 15. August 2002, welche die Vereinigten Staaten benennt, und der daraus resultierenden nationalen Anmeldung S. N. 10/467,213 für die Vereinigten Staaten, eingereicht am 5. August 2003, und in der internationalen Anmeldung PCT/US03/24570, eingereicht am 6. August 2003, veröffentlicht am 4. März 2001 als WO 2004/019656 , welche die Vereinigten Staaten benennt, und der daraus resultierenden nationalen Anmeldung S. N. 10/522,515 für die Vereinigten Staaten, eingereicht am 27. Januar 2005, beschriebenen Erfindungen aus dem Ausgang eines Decodierers hergeleitet werden. Durch einen Aspekte der vorliegenden Erfindung realisierenden Decodierer rückgewonnene Kanäle sind besonders nützlich in Verbindung mit den Kanalmultiplikationsverfahren der erwähnten und einbezogenen Anmeldungen, insofern als die rückgewonnenen Kanäle nicht nur nützliche Amplitudenbeziehungen zwischen den Kanälen aufweisen, sondern auch nützliche Phasenbeziehungen zwischen den Kanälen aufweisen. Eine andere Alternative für die Kanalmultiplikation ist, zum Herleiten zusätzlicher Kanäle einen Matrixdecodierer zu verwenden. Die die Bewahrung von Amplituden und Phasen zwischen den Kanälen betreffenden Aspekte der vorliegenden Erfindung machen die Ausgangskanäle eines Aspekte der vorliegenden Erfindung verkörpernden Decodierers besonders geeignet zur Anwendung auf einen amplituden- und phasenempfindlichen Matrixdecodierer. Viele solche Matrixdecodierer verwenden Breitband-Steuerschaltungen, welche nur richtig funktionieren, wenn die auf sie angewendeten Signale über die gesamte Signalbandbreite stereo sind. Wenn die Aspekte der vorliegenden Erfindung in einem N:1:N-System verkörpert sind, in welchem N gleich 2 ist, können somit die zwei durch den Decodierer rückgewonnenen Kanäle auf einen 2:M-Aktivmatrix-Decodierer angewendet werden. Solche Kanäle können, wie oben erwähnt, diskrete Kanäle unterhalb einer Kopplungsfrequenz gewesen sein. Viele geeignete Aktivmatrix-Decodierer sind in der Fachwelt wohlbekannt, einschließlich zum Beispiel als "Pro Logic"- und "Pro Logic II"-Decodierer bekannter Matrix-Decodierer ("Pro Logic" ist ein Warenzeichen der Dolby Laboratories Licensing Corporation). Aspekte von Pro Logic-Decodierern sind in den US-Patenten 4,799,260 und 4,941,177 offenbart. Aspekte von Pro Logic II-Decodierern sind in der anhängigen US-Patentanmeldung S. N. 09/532,711 von Fosgate mit dem Titel "Method for Deriving at Least Three Audio Signals from Two Input Audio Signals", eingereicht am 22. März 2000 und veröffentlicht als WO 01/41504 am 7. Juni 2001, und in der anhängigen US-Patentanmeldung S. N. 10/362,786 von Fosgate et al mit dem Titel "Method for Apparatus for Audio Matrix Decoding", eingereicht am 25. Februar 2003 und veröffentlicht als US 2004/0125960 A1 am 1. Juli 2004, offenbart. Manche Aspekte der Funktionsweise von Dolby Pro Logic- und Pro Logic II-Decodierern sind zum Beispiel in auf der Website der Dolby Laboratories (www.dolby.com) verfügbaren Dokumenten erläutert: "Dolby Surround Pro Logic Decoder Principles of Operation" von Roger Dressler und "Mixing with Dolby Pro Logic II Technology" von Jim Hilson. Andere geeignete Aktivmatrix-Decodierer können die in einem bzw. einer oder mehreren der folgenden US-Patente und veröffentlichten internationalen Anmeldungen (welche alle die Vereinigten Staaten benennen) beschriebenen einschließen: 5,046,098; 5,274,740; 5,400,433; 5,625,696; 5,644,640; 5,504,819; 5,428,687; 5,172,415 und WO 02/19768 .
  • Wie wiederum in 2 gezeigt, wird der empfangene Mono-Mischaudiokanal auf eine Vielzahl von Signalpfaden angewendet, aus welchen ein jeweiliger der rückgewonnenen mehreren Audiokanäle hergeleitet wird. Jeder Kanalherleitungspfad enthält in beliebiger Reihenfolge eine Amplitudeneinstellungsfunktion oder -einrichtung ("Amplitudeneinsteller") und eine Winkeldrehungsfunktion oder -einrichtung ("Winkeldreher").
  • Die Amplitudeneinsteller wenden Verstärkungen oder Dämpfungen auf das Mono-Mischsignal an, so dass unter bestimmten Signalbedingungen die relativen Ausgangsbeträge (oder -energien) der daraus hergeleiteten Ausgangskanäle denjenigen der Kanäle am Eingang des Codierers gleichen.
  • Alternativ kann unter bestimmten Signalbedingungen, wenn "randomisierte" Winkelschwankungen auferlegt werden wie im folgenden beschrieben, ein steuerbares Maß an "randomisierten" Amplitudenschwankungen auch der Amplitude eines rückgewonnenen Kanals auferlegt werden, um seine Dekorrelation bezüglich anderen der rückgewonnenen Kanäle zu verbessern.
  • Die Winkeldreher wenden Phasendrehungen an, so dass unter bestimmten Signalbedingungen die relativen Phasenwinkel der aus dem Mono-Mischsignal hergeleiteten Ausgangskanäle denjenigen der Kanäle am Eingang des Codierers gleichen. Vorzugsweise wird unter bestimmten Signalbedingungen ein steuerbares Maß an "randomisierten" Winkelschwankungen auch dem Winkel eines rückgewonnenen Kanals auferlegt, um seine Dekorrelation bezüglich anderen der rückgewonnenen Kanäle zu verbessern.
  • Wie weiter unten erörtert, können "randomisierte" Winkelamplitudenschwankungen nicht nur pseudo-zufällige und echt zufällige Schwankungen, sondern auch deterministisch erzeugte Schwankungen, welche den Effekt haben, die Kreuzkorrelation zwischen Kanälen zu verringern, enthalten. Dies wird weiter unten in den Anmerkungen zu Schritt 505 in 5A erörtert.
  • Konzeptionell skalieren der Amplitudeneinsteller und der Winkeldreher für einen bestimmten Kanal die Mono-Mischaudio-DFT-Koeffizienten, um rekonstruierte Transformationsfach-Werte für den Kanal zu liefern.
  • Der Amplitudeneinsteller für jeden Kanal kann zumindest durch den rückgewonnenen Sidechain-Amplituden-Skalierungsfaktor für den bestimmten Kanal oder, im Fall des Referenzkanals, entweder vom rückgewonnenen Sidechain-Amplituden-Skalierungsfaktor für den Referenzkanal oder von einem aus den rückgewonnenen Sidechain-Amplituden-Skalierungsfaktoren der anderen Nicht-Referenz-Kanäle abgeleiteten Amplituden-Skalierungsfaktor gesteuert werden. Um die Dekorrelation der rückgewonnenen Kanäle zu verbessern, kann der Amplitudeneinsteller alternativ auch durch einen aus dem rückgewonnenen Sidechain-Dekorrelations-Skalierungsfaktor für einen bestimmten Kanal und dem rückgewonnenen Sidechain-Transientenmerker für den bestimmten Kanal hergeleiteten randomisierten Amplituden-Skalierungsfaktor-Parameter gesteuert werden.
  • Der Winkeldreher für jeden Kanal kann zumindest durch den rückgewonnenen Sidechain-Winkel-Steuerparameter gesteuert werden (in welchem Fall der Winkeldreher im Decodierer die durch den Winkeldreher im Codierer vorgenommene Winkeldrehung im wesentlichen rückgängig machen kann). Um die Dekorrelation der rückgewonnenen Kanäle zu verbessern, kann ein Winkeldreher auch durch einen aus dem rückgewonnenen Sidechain-Dekorrelations-Skalierungsfaktor für einen bestimmten Kanal und dem rückgewonnenen Sidechain-Transientenmerker für den bestimmten Kanal hergeleiteten randomisierten Winkel-Steuerparameter gesteuert werden. Der randomisierte Winkel-Steuerparameter für einen Kanal und, falls verwendet, der randomisierte Amplituden-Skalierungsfaktor für einen Kanal können durch eine steuerbare Dekorrelationsfunktion oder -einrichtung (einen "steuerbaren Dekorrelator") aus dem rückgewonnenen Dekorrelations-Skalierungsfaktor für den Kanal und dem rückgewonnenen Transientenmerker für den Kanal hergeleitet werden.
  • Im Beispiel in 2 wird das rückgewonnene Mono-Mischaudio auf einen ersten Kanal-Audio-Rückgewinnungspfad 22, welcher das Kanal-1-Audio herleitet, und auf einen zweiten Kanal-Audio-Rückgewinnungspfad 24, welcher das Kanal-n-Audio herleitet, angewendet. Audiopfad 22 enthält einen Amplitudeneinsteller 26, einen Winkeldreher 28 und, wenn ein PCM-Ausgang gewünscht wird, eine inverse Filterbankfunktion oder -einrichtung ("inverse Filterbank") 30. Entsprechend enthält Audiopfad 24 einen Amplitudeneinsteller 32, einen Winkeldreher 34 und, wenn ein PCM-Ausgang gewünscht wird, eine inverse Filterbankfunktion oder -einrichtung ("inverse Filterbank") 36. Wie im Fall von 1 sind zur Vereinfachung der Darstellung nur zwei Kanäle gezeigt, wobei es sich von selbst versteht, dass es mehr als zwei Kanäle geben kann.
  • Die rückgewonnenen Sidechain-Informationen für den ersten Kanal, Kanal 1, können einen Amplituden-Skalierungsfaktor, einen Winkel-Steuerparameter, einen Dekorrelations-Skalierungsfaktor, einen Transientenmerker und optional einen Interpolationsmerker enthalten, wie oben in Verbindung mit der Beschreibung eines grundlegenden Codierers angegeben. Der Amplituden-Skalierungsfaktor wird auf Amplitudeneinsteller 26 angewendet. Wenn der optionale Interpolationsmerker verwendet wird, kann ein optionaler Frequenzinterpolator oder eine optionale Frequenzinterpolationsfunktion ("Interpolator") 27 verwendet werden, um den Winkel-Steuerparameter über die Frequenz zu interpolieren (z. B. über die Bins in jedem Teilband eines Kanals). Eine solche Interpolation kann zum Beispiel eine lineare Interpolation der Fachwinkel zwischen den Mitten jedes Teilbands sein. Der Zustand des 1-Bit-Interpolationsmerkers wählt aus, ob Interpolation über die Frequenz verwendet wird oder nicht, wie weiter unten erläutert. Der Transientenmerker und der Dekorrelations-Skalierungsfaktor werden auf einen steuerbaren Dekorrelator 38 angewendet, welcher als Reaktion darauf einen randomisierten Winkel-Steuerparameter erzeugt. Der Zustand des 1-Bit-Transientenmerkers wählt einen aus zwei Mehrfachmodi der randomisierten Winkel-Dekorrelation aus, wie weiter unten erläutert. Der Winkel-Steuerparameter, welcher über die Frequenz interpoliert werden kann, wenn der Interpolationsmerker und der Interpolator verwendet werden, und der randomisierte Winkel-Steuerparameter werden durch einen additiven Kombinator oder eine additive Kombinationsfunktion 40 zusammensummiert, um ein Steuersignal für Winkeldreher 28 zu gewinnen. Alternativ kann der steuerbare Dekorrelator 38 auch, als Reaktion auf den Transientenmerker und den Dekorrelations-Skalierungsfaktor, einen randomisierten Amplituden-Skalierungsfaktor erzeugen, zusätzlich zum Erzeugen eines randomisierten Winkel-Steuerparameters. Der Amplituden-Skalierungsfaktor kann durch einen additiven Kombinator oder eine additive Kombinationsfunktion (nicht gezeigt) mit einem solchen randomisierten Amplituden-Skalierungsfaktor zusammensummiert werden, um das Steuersignal für den Amplitudeneinsteller 26 zu gewinnen.
  • Entsprechend können die rückgewonnenen Sidechain-Informationen für den zweiten Kanal, Kanal n, ebenfalls einen Amplituden-Skalierungsfaktor, einen Winkel-Steuerparameter, einen Dekorrelations-Skalierungsfaktor, einen Transientenmerker und optional einen Interpolationsmerker enthalten, wie oben in Verbindung mit der Beschreibung eines grundlegenden Codierers beschrieben. Der Amplituden-Skalierungsfaktor wird auf Amplitudeneinsteller 32 angewendet. Ein Frequenzinterpolator oder eine Frequenzinterpolationsfunktion ("Interpolator") 33 kann verwendet werden, um den Winkel-Steuerparameter über die Frequenz zu interpolieren. Wie bei Kanal 1 wählt der Zustand des 1-Bit-Interpolationsmerkers aus, ob eine Interpolation über die Frequenz verwendet wird oder nicht. Der Transientenmerker und der Dekorrelations-Skalierungsfaktor werden auf einen steuerbaren Dekorrelator 42 angewendet, welcher als Reaktion darauf einen randomisierten Winkel-Steuerparameter erzeugt. Wie bei Kanal 1 wählt der Zustand des 1-Bit-Transientenmerkers einen aus zwei Mehrfachmodi der randomisierten Winkel-Dekorrelation aus, wie weiter unten erläutert. Der Winkel-Steuerparameter und der randomisierte Winkel-Steuerparameter werden durch einen additiven Kombinator oder eine additive Kombinationsfunktion 44 zusammensummiert, um ein Steuersignal für Winkeldreher 34 zu gewinnen. Alternativ kann, wie oben in Verbindung mit Kanal 1 beschrieben, der steuerbare Dekorrelator 42 als Reaktion auf den Transientenmerker und den Dekorrelations-Skalierungsfaktor auch einen randomisierten Amplituden-Skalierungsfaktor erzeugen, zusätzlich zum Erzeugen eines randomisierten Winkel-Steuerparameters. Der Amplituden-Skalierungsfaktor und der randomisierte Amplituden-Skalierungsfaktor können durch einen additiven Kombinator oder eine additive Kombinationsfunktion (nicht gezeigt) zusammensummiert werden, um das Steuersignal für den Amplitudeneinsteller 32 zu liefern.
  • Obwohl ein Prozess oder eine Topologie wie soeben beschrieben das Verstehen erleichtert, können im wesentlichen die gleichen Ergebnisse mit alternativen Prozessen oder Topologien, welche die gleichen oder ähnliche Ergebnisse erreichen, erzielt werden. Zum Beispiel kann die Reihenfolge von Amplitudeneinsteller 26 (32) und Winkeldreher 28 (34) umgekehrt werden und/oder kann es mehr als einen Winkeldreher geben – einen, welcher auf den Winkel-Steuerparameter anspricht, und einen anderen, welcher auf den randomisierten Winkel-Steuerparameter anspricht. Der Winkeldreher kann auch als drei statt als eine oder zwei Funktionen oder Einrichtungen angesehen werden wie im unten beschriebenen Beispiel in 5. Wenn ein randomisierter Amplituden-Skalierungsfaktor verwendet wird, kann es mehr als einen Amplitudeneinsteller geben – einen, welcher auf den Amplituden-Skalierungsfaktor anspricht, und einen, welcher auf den randomisierten Amplituden-Skalierungsfaktor anspricht. Wegen der höheren Empfindlichkeit des menschlichen Gehörs für die Amplitude als für die Phase kann es, wenn ein randomisierter Amplituden-Skalierungsfaktor verwendet wird, wünschenswert sein, seinen Effekt im Verhältnis zum Effekt des randomisierten Winkel-Steuerparameters so zu skalieren, dass sein Effekt auf die Amplitude kleiner ist als der Effekt, welchen der randomisierte Winkel-Steuerparameter auf den Phasenwinkel hat. Als ein anderer alternativer Prozess oder eine andere alternative Topologie kann der Dekorrelations-Skalierungsfaktor verwendet werden, um das Verhältnis von randomisierten Phasenwinkel zu grundlegendem Phasenwinkel zu steuern (statt einen einen randomisierten Phasenwinkel darstellenden Parameter zu einem den grundlegenden Phasenwinkel darstellenden Parameter zu addieren) und, falls auch verwendet, das Verhältnis von randomisierter Amplitudenverschiebung zu grundlegender Amplitudenverschiebung zu steuern (statt einen eine randomisierte Amplitude darstellenden Skalierungsfaktor zu einem die grundlegende Amplitude darstellenden Skalierungsfaktor zu addieren) (d. h. in jedem Fall eine variable Überblendung).
  • Wenn ein Referenzkanal verwendet wird wie oben in Verbindung mit dem grundlegenden Codierer erörtert, können der Winkeldreher, der steuerbare Dekorrelator und der additive Kombinator für diesen Kanal weggelassen werden, insofern als die Sidechain-Informationen für den Referenzkanal nur den Amplituden-Skalierungsfaktor enthalten müssen (oder wenn die Sidechain-Informationen keinen Amplituden-Skalierungsfaktor für den Referenzkanal enthalten, kann er alternativ aus Amplituden-Skalierungsfaktoren der anderen Kanäle abgeleitet werden, wenn die Energienormalisierung im Codierer gewährleistet, dass sich die Skalierungsfaktoren über die Kanäle in einem Teilband im Quadrat zu 1 summieren). Ein Amplitudeneinsteller ist für den Referenzkanal vorgesehen, und er wird durch einen empfangenen oder hergeleiteten Amplituden-Skalierungsfaktor für den Referenzkanal gesteuert. Egal ob der Amplituden-Skalierungsfaktor des Referenzkanals aus der Sidechain hergeleitet oder im Decodierer abgeleitet wird, der rückgewonnene Referenzkanal ist eine amplitudenskalierte Version des Mono-Mischkanals. Er erfordert keine Winkeldrehung, weil er als die Referenz für die Drehungen der anderen Kanäle dient.
  • Obwohl das Einstellen der relativen Amplitude rückgewonnener Kanäle ein bescheidenes Maß an Dekorrelation bewirken kann, resultiert die Amplitudeneinstellung, wenn allein verwendet, mit hoher Wahrscheinlichkeit in einem reproduzierten Schallfeld, welchem es im wesentlichen an der Synthese des räumlichen Eindrucks oder des Abbilds für viele Signalbedingungen mangelt (z. B. einem "kollabierten" Schallfeld). Die Amplitudeneinstellung kann sich auf Pegelunterschiede von Ohr zu Ohr auswirken, welche nur eine der vom Gehör verwendeten psychoakustischen Richtungsandeutungen darstellen. Somit können gemäß Aspekten der Erfindung je nach Signalbedingungen bestimmte Winkeleinstellungsverfahren verwendet werden, um eine zusätzliche Dekorrelation zu bewerkstelligen. Tabelle 1 enthält zum Verstehen der mehreren Winkeleinstellungs-Dekorrelationsverfahren oder Betriebsmodi, welche gemäß Aspekten der Erfindung verwendet werden können, nützliche kurze Anmerkungen. Andere Dekorrelationsverfahren, wie unten in Verbindung mit den Beispielen in 8 und 9 beschrieben, können anstelle der oder zusätzlich zu den Verfahren der Tabelle 1 verwendet werden.
  • In der Praxis kann das Anwenden von Winkeldrehungen und Betragsänderungen zu zirkulärer Faltung führen (auch als zyklische oder periodische Faltung bekannt). Obwohl es gewöhnlich wünschenswert ist, zirkuläre Faltung zu vermeiden, werden aus zirkulärer Faltung resultierende unerwünschte hörbare Artefakte durch komplementäre Winkelverschiebung in einem Codierer und Decodierer ein wenig verringert. Außerdem können die Effekte zirkulärer Faltung in preisgünstigen Implementierungen von Aspekten der vorliegenden Erfindung hingenommen werden, besonders in denjenigen, in welchen das Heruntermischen auf mono oder mehrere Kanäle nur in einem Teil des Audiofrequenzbands erfolgt, wie zum Beispiel oberhalb von 1500 Hz (in welchem Fall die hörbaren Effekte zirkulärer Faltung minimal sind). Alternativ kann zirkuläre Faltung durch jedes beliebige geeignete Verfahren einschließlich zum Beispiel einer angemessenen Verwendung der Auffüllung mit Nullen vermieden oder minimiert werden. Eine Art und Weise, die Auffüllung mit Nullen zu verwenden, besteht darin, die vorgeschlagene Frequenzdomänen-Schwankung (welche Winkeldrehungen und Amplitudenskalierung darstellt) in die Zeitdomäne zu transformieren, sie zu fenstern (mit einem willkürlichen Fenster), sie mit Nullen aufzufüllen, dann in die Frequenzdomäne zurückzutransformieren und mit der Frequenzdomänen-Version des zu verarbeitenden Audio (das Audio braucht nicht gefenstert zu werden) zu multiplizieren. Tabelle 1 Winkeleinstellungs-Dekorrelationsverfahren
    Verfahren 1 Verfahren 2 Verfahren 3
    Signaltyp (typisches Beispiel) Spektral statische Quelle Komplexe kontinuierliche Signale Komplexe impulsförmige Signale (Transienten)
    Effekt auf Dekorrelation Dekorreliert niederfrequente und stationäre Signalkomponenten Dekorreliert nicht-impulsförmige komplexe Signalkomponenten Dekorreliert impulsförmige hochfrequente Signalkomponenten
    Effekt einer im Rahmen vorliegenden Transienten Funktioniert mit verkürzter Zeitkonstante Funktioniert nicht Funktioniert
    Was geschieht Verschiebt langsam (rahmenweise) den Fachwinkel in einem Kanal Addiert zum Winkel aus Verfahren 1 einen zeitlich unveränderlichen randomisierten Winkel binweise in einem Kanal Addiert zum Winkel aus Verfahren 1 einen schnellveränderlichen (blockweisen) randomisierten Winkel teilbandweise in einem Kanal
    Gesteuert durch oder skaliert durch Grundlegender Phasenwinkel wird durch Winkel-Steuerparameter gesteuert Maß des randomisierten Winkels wird direkt durch Dekorrelations-SF skaliert; gleiche Skalierung über Teilband, Skalierung mit jedem Rahmen aktualisiert Maß des randomisierten Winkels wird indirekt durch Dekorrelations-SF skaliert; gleiche Skalierung über Teilband, Skalierung mit jedem Rahmen aktualisiert
    Frequenzauflösung der Winkelverschiebung Teilband (gleicher oder interpolierter Verschiebungswert auf alle Bins in jedem Teilband angewendet) Bin (anderer randomisierter Verschiebungswert auf jedes Bin angewendet) Teilband (gleicher randomisierter Verschiebungswert auf alle Bins in jedem Teilband angewendet; anderer randomisierter Verschiebungswert auf jedes Teilband im Kanal angewendet)
    Zeitauflösung Rahmen (Verschiebungswerte mit jedem Rahmen aktualisiert) Randomisierte Verschiebungswerte bleiben gleich und ändern sich nicht Block (randomisierte Verschiebungswerte mit jedem Block aktualisiert)
  • Für Signale, welche im wesentlichen spektral statisch sind wie zum Beispiel ein Stimmpfeifenton, stellt ein erstes Verfahren ("Verfahren 1") den Winkel des empfangenen Mono-Mischsignals relativ zum Winkel jedes einzelnen der anderen rückgewonnenen Kanäle als einen Winkel ähnlich (abhängig von Frequenz- und Zeitgranularität sowie Quantisierung) dem ursprünglichen Winkel des Kanals relativ zu den anderen Kanälen am Eingang des Codierers wieder her. Insbesondere sind Phasenwinkel-Unterschiede nützlich, um die Dekorrelation niederfrequenter Signalkomponenten unterhalb von ungefähr 1500 Hz, wo das Gehör einzelnen Zyklen des Audiosignals folgt, zu bewerkstelligen. Vorzugsweise arbeitet Verfahren 1 unter allen Signalbedingungen, um eine grundlegende Winkelverschiebung zu bewerkstelligen.
  • Bei hochfrequenten Signalkomponenten oberhalb von ungefähr 1500 Hz folgt das Gehör nicht einzelnen Zyklen des Schalls, sondern spricht stattdessen auf Wellenform-Hüllkurven an (unter Zugrundelegung kritischer Bänder). Daher wird die Dekorrelation oberhalb von ungefähr 1500 Hz besser durch Unterschiede in den Signal-Hüllkurven als durch Phasenwinkel-Unterschiede bewerkstelligt. Das Anwenden von Phasenwinkelverschiebungen nur gemäß Verfahren 1 verändert die Hüllkurven von Signalen nicht ausreichend, um hochfrequente Signale zu dekorrelieren. Das zweite und das dritte Verfahren ("Verfahren 2" beziehungsweise "Verfahren 3") addieren unter bestimmten Signalbedingungen ein steuerbares Maß an randomisierten Winkelschwankungen zum durch Verfahren 1 bestimmten Winkel, wodurch sie ein steuerbares Maß an randomisierten Hüllkurven-Schwankungen bewirken, was die Dekorrelation verbessert.
  • Randomisierte Phasenwinkel-Änderungen sind eine wünschenswerte Art und Weise, randomisierte Veränderungen der Hüllkurven von Signalen zu bewirken. Eine bestimmte Hüllkurve resultiert aus der Wechselwirkung einer bestimmten Kombination von Amplituden und Phasen von Spektralkomponenten in einem Teilband. Obwohl das Ändern der Amplituden von Spektralkomponenten in einem Teilband die Hüllkurve verändert, sind große Amplitudenänderungen erforderlich, um eine merkliche Änderung der Hüllkurve zu erhalten, was unerwünscht ist, weil das menschliche Gehör für Schwankungen der Spektralamplitude empfindlich ist. Im Gegensatz dazu wirkt sich das Ändern der Phasenwinkel der Spektralkomponente stärker auf die Hüllkurve aus als das Ändern der Amplituden der Spektralkomponente – die Spektralkomponenten sind nicht mehr genauso angeordnet, so dass die Verstärkungen und Subtraktionen, welche die Hüllkurve definieren, zu verschiedenen Zeiten auftreten, wodurch die Hüllkurve verändert wird. Obwohl das menschliche Gehör eine gewisse Hüllkurvenempfindlichkeit aufweist, ist es relativ phasenunempfindlich, so dass die Gesamt-Tonqualität im wesentlichen gleich bleibt. Trotzdem kann bei manchen Signalbedingungen eine gewisse Randomisierung der Amplituden von Spektralkomponenten zusammen mit einer Randomisierung der Phasen von Spektralkomponenten eine verbesserte Randomisierung von Signal-Hüllkurven schaffen, vorausgesetzt, dass eine solche Amplituden-Randomisierung keine unerwünschten hörbaren Artefakte verursacht.
  • Vorzugsweise arbeitet ein steuerbares Maß oder Ausmaß des Verfahrens 2 oder des Verfahrens 3 unter bestimmten Signalbedingungen zusammen mit Verfahren 1. Der Transientenmerker wählt Verfahren 2 (keine Transiente im Rahmen oder Block vorhanden, je nachdem, ob der Transientenmerker im Rahmen- oder im Blocktakt gesendet wird) oder Verfahren 3 (Transiente im Rahmen oder Block vorhanden) aus. Somit gibt es mehrere Betriebsmodi, je nachdem, ob eine Transiente vorliegt oder nicht. Alternativ arbeitet unter bestimmten Signalbedingungen zusätzlich ein steuerbares Maß oder Ausmaß an Amplitudenrandomisierung auch zusammen mit der Amplitudenskalierung, welche danach strebt, die ursprüngliche Kanalamplitude wiederherzustellen.
  • Verfahren 2 eignet sich für komplexe kontinuierliche Signale, welche reich an Oberwellen sind wie massierte Orchesterviolinen. Verfahren 3 eignet sich für komplexe impulsförmige oder transiente Signale wie Applaus, Kastagnetten usw. (Verfahren 2 verschmiert Klatschen im Applaus zeitlich, weshalb es sich für solche Signale nicht eignet). Wie weiter unten erläutert, haben Verfahren 2 und Verfahren 3, um hörbare Artefakte zu minimieren, verschiedene Zeit- und Frequenzauflösungen zum Anwenden randomisierter Winkelschwankungen – Verfahren 2 wird ausgewählt, wenn keine Transiente vorliegt, wohingegen Verfahren 3 ausgewählt wird, wenn eine Transiente vorliegt.
  • Verfahren 1 verschiebt langsam (rahmenweise) den Fachwinkel in einem Kanal. Das Maß oder Ausmaß dieser grundlegenden Verschiebung wird durch den Winkel-Steuerparameter gesteuert (keine Verschiebung, wenn der Parameter null ist). Wie weiter unten erläutert, wird entweder der gleiche oder ein interpolierter Parameter auf alle Bins in jedem Teilband angewendet und wird der Parameter mit jedem Rahmen aktualisiert. Folglich kann jedes Teilband jedes Kanals eine Phasenverschiebung bezüglich anderer Kanäle aufweisen, wodurch bei niedrigen Frequenzen (unterhalb von ungefähr 1500 Hz) ein Maß an Dekorrelation geschaffen wird. Jedoch eignet sich Verfahren 1 von selbst nicht für ein transientes Signal wie Applaus. Bei solchen Signalbedingungen können die reproduzierten Kanäle einen störenden instabilen Kammfiltereffekt aufweisen. Im Fall von Applaus wird im wesentlichen keine Dekorrelation bewirkt, indem nur die relative Amplitude rückgewonnener Kanäle eingestellt wird, weil alle Kanäle dazu tendieren, über die Periode eines Rahmens die gleiche Amplitude aufzuweisen.
  • Verfahren 2 funktioniert, wenn keine Transiente vorliegt. Verfahren 2 addiert zur Winkelverschiebung aus Verfahren 1 eine randomisierte Winkelverschiebung, welche sich nicht mit der Zeit ändert, binweise (jedes Bin hat eine andere randomisierte Verschiebung) in einem Kanal und bewirkt dadurch, dass die Hüllkurven der Kanäle voneinander verschieden sind, wodurch die Dekorrelation komplexer Signale zwischen den Kanälen bewerkstelligt wird. Das Konstanthalten der randomisierten Phasenwinkel-Werte über die Zeit vermeidet Block- oder Rahmenartefakte, welche aus einer Veränderung von Bin-Phasenwinkeln von Block zu Block oder von Rahmen zu Rahmen resultieren können. Während dieses Verfahren, solange keine Transiente vorliegt, ein sehr nützliches Dekorrelationswerkzeug ist, kann es eine Transiente zeitlich verschmieren (was zur Folge hat, was häufig als "Vorrauschen" bezeichnet wird – das Verschmieren nach einer Transienten wird durch die Transiente maskiert). Das durch Verfahren 2 geschaffene Maß oder Ausmaß an zusätzlicher Verschiebung wird direkt durch den Dekorrelations-Skalierungsfaktor skaliert (es gibt keine zusätzliche Verschiebung, wenn der Skalierungsfaktor null ist). Idealerweise wird das Maß des gemäß Verfahren 2 zur grundlegenden Winkelverschiebung (aus Verfahren 1) addierten randomisierten Phasenwinkels durch den Dekorrelations-Skalierungsfaktor auf eine Weise gesteuert, welche hörbare Triller-Artefakte im Signal minimiert. Eine solche Minimierung von Triller-Artefakten im Signal resultiert aus der Art und Weise, auf welche der Dekorrelations-Skalierungs faktor hergeleitet wird, und der Anwendung einer geeigneten Zeitglättung wie unten beschrieben. Obwohl ein anderer zusätzlicher randomisierter Winkelverschiebungswert auf jedes Bin angewendet wird und dieser Verschiebungswert sich nicht ändert, wird die gleiche Skalierung über ein Teilband angewendet und wird die Skalierung mit jedem Rahmen aktualisiert.
  • Verfahren 3 funktioniert je nach der Geschwindigkeit, mit welcher der Transientenmerker gesendet wird, bei Vorliegen einer Transienten im Rahmen oder Block. Es verschiebt alle Bins in jedem Teilband in einem Kanal mit einem einzigen, für alle Bins im Teilband gleichen randomisierten Winkelwert von Block zu Block und bewirkt dadurch, dass nicht nur die Hüllkurven, sondern auch die Amplituden und Phasen der Signale in einem Kanal sich von Block zu Block bezüglich anderer Kanäle ändern. Diese Änderungen der Zeit- und Frequenzauflösung der Winkel-Randomisierung verringern Ähnlichkeiten stationärer Signale zwischen den Kanälen und bringen eine Dekorrelation der Kanäle im wesentlichen ohne Verursachen von "Vorrauschen"-Artefakten zuwege. Die Änderung der Frequenzauflösung der Winkel-Randomisierung von sehr fein (alle Bins in einem Kanal verschieden) in Verfahren 2 zu grob (alle Bins in einem Teilband gleich, aber jedes Teilband verschieden) in Verfahren 3 ist beim Minimieren von "Vorrauschen"-Artefakten besonders nützlich. Obwohl das Gehör bei hohen Frequenzen nicht direkt auf reine Winkeländerungen anspricht, wenn zwei oder mehr Kanäle sich auf ihrem Weg von den Lautsprechern zu einem Zuhörer akustisch mischen, können Phasenunterschiede Amplitudenänderungen (Kammfiltereffekte) bewirken, welche hörbar und unangenehm sein können, und diese werden durch Verfahren 3 aufgelöst. Die Impulseigenschaften des Signals minimieren Blocktakt-Artefakte, welche sonst auftreten könnten. Somit addiert Verfahren 3 zur Phasenverschiebung aus Verfahren 1 eine schnellveränderliche (blockweise) randomisierte Winkelverschiebung teilbandweise in einem Kanal. Das Maß oder Ausmaß an zusätzlicher Verschiebung wird, wie unten beschrieben, durch den Dekorrelations-Skalierungsfaktor indirekt skaliert (es gibt keine zusätzliche Verschiebung, wenn der Skalierungsfaktor null ist). Die gleiche Skalierung wird über ein Teilband angewendet, und die Skalierung wird mit jedem Rahmen aktualisiert.
  • Obwohl die Winkeleinstellungsverfahren als drei Verfahren beschrieben wurden, ist dies eine Frage der Semantik und können sie auch als zwei Verfahren beschrieben werden: (1) eine Kombination von Verfahren 1 und einem variablen Maß des Verfahrens 2, welches null sein kann, und (2) eine Kombination von Verfahren 1 und einem variablen Maß des Verfahrens 3, welches null sein kann. Zwecks einfacherer Darstellung werden die Verfahren so behandelt, als seien es drei Verfahren.
  • Aspekte der Mehrfachmodus-Dekorrelationsverfahren und Abänderungen davon können beim Bewerkstelligen einer Dekorrelation von wie durch Hochmischen aus einem oder mehreren Audiokanälen hergeleiteten Audiosignalen verwendet werden, selbst wenn solche Audiokanäle nicht aus einem Codierer gemäß Aspekten der vorliegenden Erfindung hergeleitet werden. Solche Anordnungen werden bei Anwendung auf einen Mono-Audiokanal manchmal als "Pseudo-Stereo"-Einrichtungen und -Funktionen bezeichnet. Jede beliebige geeignete Einrichtung oder Funktion (ein "Hochmischer") kann verwendet werden, um mehrere Signale aus einem Mono-Audiokanal oder aus mehreren Audiokanälen herzuleiten. Sobald solche mehreren Audiokanäle durch einen Hoch mischer hergeleitet sind, können einer oder mehrere davon bezüglich eines oder mehrerer der anderen hergeleiteten Audiosignale durch Anwenden der hierin beschriebenen Mehrfachmodus-Dekorrelationsverfahren dekorreliert werden. In einer solchen Anwendung kann jeder hergeleitete Audiokanal, auf welchen die Dekorrelationsverfahren angewendet werden, durch Erfassen von Transienten im hergeleiteten Audiokanal selbst von einem Betriebsmodus auf einen anderen umgeschaltet werden. Alternativ kann die Funktionsweise des "Transiente-vorhanden"-Verfahrens (Verfahren 3) vereinfacht werden, um keine Verschiebung der Phasenwinkel von Spektralkomponenten zu bewirken, wenn eine Transiente vorliegt.
  • Sidechain-Informationen
  • Wie oben erwähnt, können die Sidechain-Informationen enthalten: einen Amplituden-Skalierungsfaktor, einen Winkel-Steuerparameter, einen Dekorrelations-Skalierungsfaktor, einen Transientenmerker und optional einen Interpolationsmerker. Solche Sidechain-Informationen für eine praktische Ausführungsform von Aspekten der vorliegenden Erfindung lassen sich in der folgenden Tabelle 2 zusammenfassen. Typischerweise können die Sidechain-Informationen einmal pro Rahmen aktualisiert werden. Tabelle 2 Eigenschaften von Sidechain-Informationen für einen Kanal
    Sidechain-Information Wertebereich Stellt dar (ist "ein Maß von") Quantisierungspegel Hauptzweck
    Teilbandwinkel-Steuerparameter 0 → +2π Geglätteter Zeitmittelwert in jedem Teilband der Differenz zwischen dem Winkel jedes Bins im Teilband für einen Kanal und demjenigen des entsprechenden Bins im Teilband eines Referenzkanals 6 Bit (64 Pegel) Bewirkt grundlegende Winkeldrehung für jedes Bin im Kanal
    Teilband-Dekorrelations-Skalierungsfaktor 0 → 1 Der Teilband-Dekorrelations-Skalierungsfaktor ist nur dann hoch, wenn sowohl der Spektralstabilitätsfaktor als auch der Übereinstimmungsfaktor der Winkel zwischen den Kanälen niedrig sind. Spektrale-Stabilität der Signaleigenschaften über die Zeit in einem Teilband eines Kanals (der Spektralstabilitätsfaktor) und Übereinstimmung im selben Teilband eines Kanals der Fachwinkel bezüglich entsprechender Bins eines Referenzkanals (der Übereinstimmungsfaktor der Winkel zwischen den Kanälen) 3 Bit (8 Pegel) Skaliert die zur grundlegenden Winkeldrehung addierte randomisierte Winkelverschiebung und skaliert außerdem, falls verwendet, den zum grundlegenden Amplituden-Skalierungsfaktor addierten randomisierten AmplitudenSkalierungsfaktor und skaliert optional das Maß an Nachhall
    Teilband-Amplituden-Skalierungsfaktor 0 bis 31 (ganze Zahl) 0 ist höchste Amplitude 31 ist niedrigste Amplitude Energie oder Amplitude in einem Teilband eines Kanals bezüglich Energie oder Amplitude für das gleiche Teilband über alle Kanäle 5 Bit (32 Pegel) Granularität ist 1,5 dB, so dass der Bereich 31·1,5 = 46,5 dB plus Endwert = aus ist. Skaliert Amplitude von Bins in einem Teilband in einem Kanal
    Transientenmerker 1, 0 (wahr/falsch) (Polarität ist willkürlich) Vorliegen einer Transienten im Rahmen oder im Block 1 Bit (2 Pegel) Bestimmt, welches Verfahren zum Addieren von randomisierten Winkelverschiebungen oder sowohl von Winkelverschiebungen als auch von Amplitudenverschiebungen verwendet wird
    Interpolationsmerker 1, 0 (wahr/falsch) (Polarität ist willkürlich) Eine Spektralspitze in der Nähe einer Teilbandgrenze oder Phasenwinkel in einem Kanal weisen eine lineare Progression auf 1 Bit (2 Pegel) Bestimmt, ob die grundlegende Winkeldrehung über die Frequenz interpoliert wird
  • In jedem Fall gelten die Sidechain-Informationen eines Kanals für ein einziges Teilband (außer dem Transientenmerker und dem Interpolationsmerker, von welchen jeder für alle Teilbänder in einem Kanal gilt) und können sie einmal pro Rahmen aktualisiert werden. Obwohl sich gezeigt hat, dass die angegebene Zeitauflösung (einmal pro Rahmen), die angegebene Frequenzauflösung (Teilband), die angegebenen Wertebereiche und die angegebenen Quantisierungspegel eine brauchbare Leistung und einen brauchbaren Kompromiss zwischen einer niedrigen Übertragungsgeschwindigkeit und der Leistung liefern, wird man erkennen, dass diese Zeit- und Frequenzauflösung, Wertebereiche und Quantisierungspegel nicht kritisch sind und dass beim Realisieren von Aspekten der Erfindung andere Auflösungen, Bereiche und Pegel verwendet werden können. Zum Beispiel können der Transientenmerker und/oder der Interpolationsmerker, falls verwendet, einmal pro Block aktualisiert werden, wodurch die zusätzlichen Sidechain-Daten nur minimal zunehmen. Im Fall des Transientenmerkers hat dies den Vorteil, dass das Umschalten von Verfahren 2 auf Verfahren 3 und umgekehrt genauer ist. Außerdem können die Sidechain-Informationen, wie oben erwähnt, bei Auftreten einer Blockumschaltung eines zugehörigen Codierers aktualisiert werden.
  • Es ist zu beachten, dass das oben beschriebene Verfahren 2 (siehe auch Tabelle 1) eine Bin-Frequenzauflösung anstelle einer Teilband-Frequenzauflösung bewirkt (d. h. eine andere pseudozufällige Phasenwinkelverschiebung wird auf jedes Bin statt auf jedes Teilband angewendet), selbst wenn der gleiche Teilband-Dekorrelations-Skalierungsfaktor für alle Bins in einem Teilband gilt. Außerdem ist zu beachten, dass das oben beschriebene Verfahren 3 (siehe auch Tabelle 1) eine Block-Frequenzauflösung bewirkt (d. h. eine andere randomisierte Phasenwinkelverschiebung wird auf jeden Block statt auf jeden Rahmen angewendet), selbst wenn der gleiche Teilband-Dekorrelations-Skalierungsfaktor für alle Bins in einem Teilband gilt. Solche Auflösungen, welche größer als die Auflösung der Sidechain-Informationen sind, sind möglich, weil die randomisierten Phasenwinkelverschiebungen in einem Decodierer erzeugt werden können und nicht im Codierer bekannt sein müssen (dies ist selbst dann der Fall, wenn der Codierer auch eine randomisierte Phasenwinkelverschiebung auf das codierte Mono-Mischsignal anwendet, eine unten beschriebene Alternative). In anderen Worten, es ist nicht erforderlich, Sidechain-Informationen mit Bin- oder Blockgranularität zu senden, selbst wenn die Dekorrelationsverfahren eine solche Granularität verwenden. Der Decodierer kann zum Beispiel eine oder mehrere Suchtabellen randomisierter Bin-Phasenwinkel verwenden. Das Gewinnen von Zeit- und/oder Frequenzauflösungen zur Dekorrelation, welche größer als die Sidechain-Informationsraten sind, gehört zu den Aspekten der vorliegenden Erfindung. Somit wird die Dekorrelation mittels randomisierter Phasen entweder mit einer feinen Frequenzauflösung (Bin für Bin), welche sich nicht mit der Zeit ändert (Verfahren 2), oder mit einer groben Frequenzauflösung (Band für Band) ((oder einer feinen Frequenzauflösung (Bin für Bin), wenn Frequenzinterpolation verwendet wird, wie weiter unten beschrieben)) und einer feinen Zeitauflösung (Blocktakt) (Verfahren 3) durchgeführt.
  • Man wird auch erkennen, dass, wenn zunehmende Maße an randomisierten Phasenverschiebungen zum Phasenwinkel eines rückgewonnenen Kanals addiert werden, der absolute Phasenwinkel des rückgewonnenen Kanals immer mehr vom ursprünglichen absoluten Phasenwinkel dieses Kanals abweicht. Ein Aspekt der vorliegenden Erfindung ist die Erkenntnis, dass der resultierende absolute Phasenwinkel des rückgewonnenen Kanals demjenigen des ursprünglichen Kanals nicht zu entsprechen braucht, wenn die Signalbedingungen so sind, dass die randomisierten Phasenverschiebungen gemäß Aspekten der vorliegenden Erfindung addiert werden. Zum Beispiel in extremen Fällen, wenn der Dekorrelations-Skalierungsfaktor das höchste Maß an randomisierter Phasenverschiebung verursacht, überwältigt die durch Verfahren 2 oder Verfahren 3 verursachte Phasenverschiebung die durch Verfahren 1 verursachte grundlegende Phasenverschiebung. Trotzdem ist dies ohne Bedeutung, insofern als eine randomisierte Phasenverschiebung hörbar die gleiche ist wie die verschiedenen zufälligen Phasen im ursprünglichen Signal, die einen Dekorrelations-Skalierungsfaktor hervorrufen, welcher die Addition von einem gewissen Maß an randomisierten Phasenverschiebungen verursacht.
  • Wie oben erwähnt, können randomisierte Amplitudenverschiebungen zusätzlich zu randomisierten Phasenverschiebungen verwendet werden. Zum Beispiel kann der Amplitudeneinsteller auch durch einen aus dem rückgewonnenen Sidechain-Dekorrelations-Skalierungsfaktor für einen bestimmten Kanal und dem rückgewonnenen Sidechain-Transientenmerker für den bestimmten Kanal hergeleiteten randomisierten Amplituden-Skalierungsfaktor-Parameter gesteuert werden. Solche randomisierten Amplitudenverschiebungen können in zwei Modi auf eine zur Anwendung randomisierter Phasenverschiebungen analoge Weise funktionieren. Zum Beispiel kann bei Fehlen einer Transienten eine randomisierte Amplitudenverschiebung, welche sich nicht mit der Zeit ändert, binweise (von Bin zu Bin verschieden) hinzugefügt werden und kann bei Vorliegen einer Transienten (im Rahmen oder Block) eine randomisierte Amplitudenverschiebung, welche sich blockweise (von Block zu Block verschieden) ändert und sich von Teilband zu Teilband ändert (gleiche Verschiebung für alle Bins in einem Teilband; von Teilband zu Teilband verschieden), hinzugefügt werden. Obwohl das Maß oder Ausmaß, in welchem randomisierte Amplitudenverschiebungen hinzugefügt werden, durch den Dekorrelations-Skalierungsfaktor gesteuert werden kann, geht man davon aus, dass ein bestimmter Skalierungsfaktor-Wert eine geringere Amplitudenverschiebung verursachen sollte als die aus dem gleichen Skalierungsfaktor-Wert resultierende entsprechende randomisierte Phasenverschiebung, um hörbare Artefakte zu vermeiden.
  • Wenn der Transientenmerker für einen Rahmen gilt, kann die Zeitauflösung, mit welcher der Transientenmerker Verfahren 2 oder Verfahren 3 auswählt, verbessert werden, indem ein zusätzlicher Transientendetektor im Decodierer vorgesehen wird, um eine feinere zeitliche Auflösung als den Rahmentakt oder sogar den Blocktakt zu schaffen. Ein solcher zusätzlicher Transientendetektor kann das Auftreten einer Transienten im durch den Decodierer empfangenen Mono- oder Mehrkanal-Mischaudiosignal erfassen, und eine solche Erfassungsinformation wird dann an jeden steuerbaren Dekorrelator (wie 38, 42 in 2) gesendet. Dann, bei Empfang eines Transientenmerkers für seinen Kanal, schaltet der steuerbare Dekorrelator bei Empfang der lokalen Transientenerfassungs-Anzeige des Decodierers von Verfahren 2 auf Verfahren 3 um. Somit ist eine wesentliche Verbesserung der zeitlichen Auflösung möglich, ohne die Sidechain-Übertragungsgeschwindigkeit zu erhöhen, wenn auch mit verminderter räumlicher Genauigkeit (der Codierer erfasst Transienten in jedem Eingangskanal vor deren Heruntermischen, wohingegen die Erfassung im Decodierer nach dem Heruntermischen erfolgt).
  • Als eine Alternative zum rahmenweisen Senden von Sidechain-Informationen können Sidechain-Informationen mit jedem Block aktualisiert werden, zumindest bei hochdynamischen Signalen. Wie oben erwähnt, führt das Aktualisieren des Transientenmerkers und/oder des Interpolationsmerkers mit jedem Block nur zu einer geringen Zunahme der zusätzlichen Sidechain-Daten. Um eine solche Erhöhung der zeitlichen Auflösung für andere Sidechain-Informationen zu bewerkstelligen, ohne die Sidechain-Übertragungsgeschwindigkeit wesentlich zu erhöhen, kann eine Block-Fließkomma-Differenzcodierungsanordnung verwendet werden. Zum Beispiel können aufeinanderfolgende Transformationsblocks in Gruppen von sechs über einen Rahmen gesammelt werden. Die vollständigen Sidechain-Informationen können für jeden Teilband-Kanal im ersten Block gesendet werden. In den fünf anschließenden Blocks brauchen nur Differenzwerte gesendet zu werden, welche jeweils die Differenz zwischen Amplitude sowie Winkel des aktuellen Blocks und den entsprechenden Werten des vorherigen Blocks darstellen. Dies hat eine sehr niedrige Übertragungsgeschwindigkeit bei statischen Signalen wie einem Stimmpfeifenton zur Folge. Dynamischere Signale erfordern einen größeren Bereich von Differenzwerten, aber bei geringerer Genauigkeit. So kann für jede Gruppe von fünf Differenzwerten zuerst ein Exponent unter Verwendung von zum Beispiel 3 Bits gesendet werden, und dann werden Differenzwerte zum Beispiel mit 2-Bit-Genauigkeit quantisiert. Diese Anordnung verringert die mittlere schlimmstmögliche Sidechain-Übertragungsgeschwindigkeit um einen Faktor von ungefähr zwei. Eine weitere Verringerung kann durch Weglassen der Sidechain-Daten für einen Referenzkanal (da sie aus den anderen Kanälen hergeleitet werden können) wie oben erörtert und durch Verwendung zum Beispiel arithmetischer Codierung erzielt werden. Alternativ oder zusätzlich kann Differenzcodierung über die Frequenz verwendet werden, indem zum Beispiel Teilbandwinkel- oder Amplitudendifferenzen gesendet werden.
  • Egal ob die Sidechain-Informationen rahmenweise oder häufiger gesendet werden, kann es nützlich sein, Sidechain-Werte über die Blocks in einem Rahmen zu interpolieren. Lineare Interpolation über die Zeit kann auf die Weise der linearen Interpolation über die Frequenz, wie unten beschrieben, verwendet werden.
  • Eine geeignete Implementierung von Aspekten der vorliegenden Erfindung verwendet Verarbeitungsschritte oder Einrichtungen, welche die jeweiligen Verarbeitungsschritte implementieren und funktionell zusammenhängen wie im folgenden dargelegt. Obwohl die unten aufgeführten Codier- und Decodierschritte jeweils durch in der Reihenfolge der unten aufgeführten Schritte ablaufende Computersoftware-Befehlssequenzen ausgeführt werden können, versteht es sich von selbst, dass äquivalente oder ähnliche Ergebnisse durch auf andere Weisen geordnete Schritte erzielt werden können, wobei zu berücksichtigen ist, dass bestimmte Größen aus früheren hergeleitet werden. Zum Beispiel können in Teilprozesse gegliederte Computersoftware-Befehlssequenzen so verwendet werden, dass bestimmte Sequenzen von Schritten parallel ausgeführt werden. Alternativ können die beschriebenen Schritte als Einrichtungen implementiert sein, welche die beschriebenen Funktionen ausführen, wobei die verschiedenen Einrichtungen Funktionen und funktionelle wechselseitige Beziehungen wie im folgenden beschrieben aufweisen.
  • Codierung
  • Der Codierer oder die Codierfunktion kann den Datengehalt eines Rahmens sammeln, bevor er die Sidechain-Informationen herleitet und die Audiokanäle des Rahmens zu einem einzigen monophonen (Mono-) Audiokanal (auf die Weise des oben beschriebenen Beispiels in 1) oder zu mehreren Audiokanälen (auf die Weise des unten beschriebenen Beispiels in 6) heruntermischt. Hierdurch können die Sidechain-Informationen zuerst an einen Decodierer gesendet werden, was dem Decodierer gestattet, sofort nach Empfang der Mono- oder Mehrkanal-Audioinformation mit dem Decodieren zu beginnen. Schritte eines Codierprozesses ("Codierschritte") lassen sich wie folgt beschreiben. Bezüglich Codierschritten wird 4 herangezogen, welche eine Mischform aus Ablaufdiagramm und Blockschaltbild ist. Zu Schritt 419 zeigt 4 Codierschritte für einen Kanal. Die Schritte 420 und 421 gelten für alle der mehreren Kanäle, welche kombiniert werden, um einen Mono-Mischsignalausgang zu schaffen, oder zusammenmatriziert werden, um mehrere Kanäle zu schaffen, wie unten in Verbindung mit dem Beispiel in 6 beschrieben.
  • Schritt 401. Transienten erfassen
    • a. Transientenerfassung der PCM-Werte in einem Eingangsaudiokanal durchführen.
    • b. Einen 1-Bit-Transientenmerker auf "wahr" setzen, wenn in irgendeinem Block eines Rahmens für den Kanal eine Transiente vorliegt.
  • Anmerkungen zu Schritt 401:
  • Der Transientenmerker bildet einen Teil der Sidechain-Informationen und wird auch in Schritt 411 verwendet, wie unten beschrieben. Eine feinere Transientenauflösung als der Blocktakt im Decodierer kann die Decodiererleistung verbessern. Obwohl, wie oben erörtert, ein Blocktaktanstelle eines Rahmentakt-Transientenmerkers, bei einer maßvollen Erhöhung der Übertragungsgeschwindigkeit, einen Teil der Sidechain-Informationen bilden kann, lässt sich durch Erfassen des Auftretens von Transienten im vom Decodierer empfangenen Mono-Mischsignal ein ähnliches Ergebnis, wenn auch mit verminderter räumlicher Genauigkeit, erzielen, ohne die Sidechain-Übertragungsgeschwindigkeit zu erhöhen.
  • Es gibt einen Transientenmerker pro Kanal pro Rahmen, welcher, weil er in der Zeitdomäne hergeleitet wird, notwendigerweise für alle Teilbänder in diesem Kanal gilt. Die Transientenerfassung kann auf eine der in einem AC-3-Codierer zum Steuern der Entscheidung, wann zwischen Audioblocks langer und kurzer Länge umzuschalten ist, verwendeten Weise ähnliche Weise durchgeführt werden, jedoch mit einer höheren Empfindlichkeit und mit "wahrem" Transientenmerker für jeden Rahmen, in welchem der Transientenmerker für einen Block "wahr" ist (ein AC-3-Codierer erfasst Transienten blockweise). Siehe insbesondere Abschnitt 8.2.2 des oben erwähnten Dokuments A/52A. Die Empfindlichkeit der in Abschnitt 8.2.2 beschriebenen Transientenerfassung kann durch Hinzufügen eines Empfindlichkeitsfaktors F zu einer darin dargelegten Gleichung erhöht werden. Abschnitt 8.2.2 des Dokuments A/52A ist unten dargelegt, wobei der Empfindlich keitsfaktor hinzugefügt ist (Abschnitt 8.2.2 wie unten wiedergegeben ist dahingehend korrigiert, dass er angibt, dass der Tiefpassfilter ein kaskadierter Biquad-Direkt-Form II-IIR-Filter ist, nicht "Form I" wie im veröffentlichten Dokument A/52A; im früheren Dokument A/52 war Abschnitt 8.2.2 richtig). Obwohl er nicht kritisch ist, hat sich in einer praktischen Ausführungsform von Aspekten der vorliegenden Erfindung ein Empfindlichkeitsfaktor von 0,2 als ein geeigneter Wert erwiesen.
  • Alternativ kann ein ähnliches, in US-Patent 5,394,473 beschriebenes Transientenerfassungsverfahren verwendet werden. Das Patent 5,394,473 beschreibt Aspekte des Transientendetektors aus Dokument A/52A ausführlicher.
  • Als eine andere Alternative können Transienten in der Frequenzdomäne statt in der Zeitdomäne erfasst werden (siehe Anmerkungen zu Schritt 408). In diesem Fall kann Schritt 401 weggelassen und ein alternativer Schritt in der Frequenzdomäne verwendet werden, wie unten beschrieben.
  • Schritt 402. Fenstern und DFT.
  • Überlappende Blocks von PCM-Zeitabtastwerten mit einem Zeitfenster multiplizieren und über eine DFT wie durch eine FFT implementiert in komplexe Frequenzwerte umwandeln.
  • Schritt 403. Komplexe Werte in Betrag und Winkel umwandeln.
  • Jeden komplexen Frequenzdomänen-Transformationsfach-Wert (a + jb) mittels komplexer Standardoperationen in eine Betrag-und-Winkel-Darstellung umwandeln:
    • a. Betrag = Quadratwurzel von (a2 + b2)
    • b. Winkel = arctan (b/a)
  • Anmerkungen zu Schritt 403:
  • Einige der folgenden Schritte verwenden als eine Alternative die Energie eines Bins, welche als der ins Quadrat erhobene obige Betrag definiert ist (d. h. Energie = (a2 + b2), oder können diese verwenden.
  • Schritt 404. Teilband-Energie berechnen.
    • a. Die Teilband-Energie pro Block durch Addieren der Fachenergie-Werte in jedem Teilband berechnen (eine Summierung über die Frequenz).
    • b. Die Teilband-Energie pro Rahmen durch Mitteln oder Aufsummieren der Energie in allen Blocks in einem Rahmen berechnen (eine Mittelung/Aufsummierung über die Zeit).
    • c. Wenn die Kopplungsfrequenz des Codierers unterhalb von ungefähr 1000 Hz liegt, die über Teilbandrahmen gemittelte oder über Rahmen aufsummierte Energie auf einen Zeitglätter anwenden, welcher auf allen Teilbändern unterhalb dieser Frequenz und oberhalb der Kopplungsfrequenz arbeitet.
  • Anmerkungen zu Schritt 404c:
  • Zeitglättung, um für Glättung zwischen den Rahmen in niederfrequenten Teilbändern zu sorgen, kann nützlich sein. Um Artefakte verursachende Diskontinuitäten zwischen Fachwerten an Teilbandgrenzen zu vermeiden, kann es nützlich sein, eine progressiv abnehmende Zeitglättung vom Teilband niedrigster Frequenz einschließlich und oberhalb der Kopplungsfrequenz (wo die Glättung einen merklichen Effekt haben kann) bis hinauf zu einem Teilband höherer Frequenz, in welchem der Zeitglättungseffekt messbar, aber unhörbar, obwohl fast hörbar, ist, anzuwenden. Eine geeignete Zeitkonstante für das Teilband des untersten Frequenzbereichs (wo das Teilband ein einziges Bin ist, wenn Teilbänder kritische Bänder sind) kann zum Beispiel im Bereich von 50 bis 100 Millisekunden liegen. Progressiv abnehmende Zeitglättung kann bis hinauf zu einem Teilband einschließlich ungefähr 1000 Hz, wo die Zeitkonstante zum Beispiel ungefähr 10 Millisekunden betragen kann, weitergehen.
  • Obwohl ein Glätter erster Ordnung geeignet ist, kann der Glätter ein zweistufiger Glätter sein, der eine variable Zeitkonstante hat, welche ihre Einschwing- und Dämpfungszeit als Reaktion auf eine Transiente verkürzt (ein solcher zweistufiger Glätter kann ein digitales Äquivalent der in den US-Patenten 3,846,719 und 4,922,535 beschriebenen analogen zweistufigen Glätter sein). In anderen Worten, die stationäre Zeitkonstante kann entsprechend der Frequenz skaliert werden und kann auch, als Reaktion auf Transienten, variabel sein. Alternativ kann eine solche Glättung in Schritt 412 angewendet werden.
  • Schritt 405. Summe der Fachbeträge berechnen.
    • a. Die Summe pro Block der Fachbeträge (Schritt 403) jedes Teilbands berechnen (eine Summierung über die Frequenz).
    • b. Die Summe pro Rahmen der Fachbeträge jedes Teilbands durch Mitteln oder Aufsummieren der Beträge aus Schritt 405a über die Blocks in einem Rahmen berechnen (eine Mittelung/Aufsummierung über die Zeit). Diese Summen werden verwendet, um einen Übereinstimmungsfaktor der Winkel zwischen den Kanälen in Schritt 410 unten zu berechnen.
    • c. Wenn die Kopplungsfrequenz des Codierers unterhalb von ungefähr 1000 Hz liegt, die über Teilbandrahmen gemittelten oder über Rahmen aufsummierten Beträge auf einen Zeitglätter anwenden, welcher auf allen Teilbändern unterhalb dieser Frequenz und oberhalb der Kopplungsfrequenz arbeitet.
  • Anmerkungen zu Schritt 405c: Siehe Anmerkungen zu Schritt 404c, außer dass im Fall des Schritts 405c die Zeitglättung alternativ als Teil des Schritts 410 durchgeführt werden kann.
  • Schritt 406. Relativen Bin-Phasenwinkel zwischen den Kanälen berechnen.
  • Den relativen Phasenwinkel zwischen den Kanälen jedes Transformationsbins jedes Blocks durch Subtrahieren des entsprechenden Fachwinkels eines Referenzkanals (zum Beispiel des ersten Kanals) vom Fachwinkel aus Schritt 403 berechnen. Das Ergebnis wird, wie bei anderen Winkeladditionen oder -subtraktionen hierin, durch Addieren oder Subtrahieren von 2π modulo (π, –π) im Bogenmaß genommen, bis das Ergebnis im gewünschten Bereich von –π bis +π liegt.
  • Schritt 407. Teilband-Phasenwinkel zwischen den Kanälen berechnen.
  • Für jeden Kanal einen im Rahmentakt aktualisierten amplitudengewichteten mittleren Phasenwinkel zwischen den Kanälen für jedes Teilband wie folgt berechnen:
    • a. Für jedes Bin eine komplexe Zahl aus dem Betrag aus Schritt 403 und dem relativen Bin-Phasenwinkel zwischen den Kanälen aus Schritt 406 erstellen.
    • b. Die erstellten komplexen Zahlen aus Schritt 407a über jedes Teilband addieren (eine Summierung über die Frequenz). Anmerkung zu Schritt 407b: Zum Beispiel wenn ein Teilband zwei Bins hat und eines der Bins einen komplexen Wert von 1 + j1 hat und das andere Bin einen komplexen Wert von 2 + j2 hat, ist ihre komplexe Summe 3 + j3.
    • c. Die blockweise Summe komplexer Zahlen für jedes Teilband aus Schritt 407b über die Blocks jedes Rahmens mitteln oder aufsummieren (eine Mittelung oder Aufsummierung über die Zeit).
    • d. Wenn die Kopplungsfrequenz des Codierers unterhalb von ungefähr 1000 Hz liegt, den über Teilbandrahmen gewichteten oder über Rahmen aufsummierten komplexen Wert auf einen Zeitglätter anwenden, welcher auf allen Teilbändern unterhalb dieser Frequenz und oberhalb der Kopplungsfrequenz arbeitet. Anmerkungen zu Schritt 407d: Siehe Anmerkungen zu Schritt 404c, außer dass im Fall des Schritts 407d die Zeitglättung alternativ als Teil der Schritte 407e oder 410 durchgeführt werden kann.
    • e. Den Betrag des komplexen Ergebnisses aus Schritt 407d gemäß Schritt 403 berechnen. Anmerkung zu Schritt 407e: Dieser Betrag wird in Schritt 410a unten verwendet. In dem in Schritt 407b angegebenen einfachen Beispiel ist der Betrag von 3 + j3 die Quadratwurzel von (9 + 9) = 4,24.
    • f. Den Winkel des komplexen Ergebnisses gemäß Schritt 403 berechnen.
  • Anmerkungen zu Schritt 407f: In dem in Schritt 407b angegebenen einfachen Beispiel ist der Winkel von 3 + j3 = arctan (3/3) = 45 Grad = π/4 im Bogenmaß. Dieser Teilbandwinkel wird signalabhängig zeitgeglättet (siehe Schritt 413) und quantisiert (siehe Schritt 414), um die Sidechain-Information "Teilbandwinkel-Steuerparameter" wie unten beschrieben zu erzeugen.
  • Schritt 408. Bin-Spektralstabilitätsfaktor berechnen
  • Für jedes Bin einen Bin-Spektralstabilitätsfaktor im Bereich von 0 bis 1 wie folgt berechnen:
    • a. Es sei xm = in Schritt 403 berechneter Fachbetrag des aktuellen Blocks.
    • b. Es sei ym = entsprechender Fachbetrag des vorherigen Blocks.
    • c. Wenn xm > ym, dann ist der dynamische Bin-Amplitudenfaktor = (ym/xm)2;
    • d. Wenn andernfalls ym > xm, dann ist der dynamische Bin-Amplitudenfaktor = (xm/ym)2,
    • e. Wenn andernfalls ym = xm, dann ist der Bin-Spektralstabilitätsfaktor = 1.
  • Anmerkung zu Schritt 408:
  • "Spektrale Stabilität" ist ein Maß für das Ausmaß, in welchem Spektralkomponenten (z. B. Spektralkoeffizienten oder Fachwerte) sich über die Zeit verändern. Ein Bin-Spektralstabilitätsfaktor von 1 zeigt keine Änderung über eine gegebene Zeitperiode an.
  • Spektrale Stabilität kann auch als ein Anzeichen dafür, ob eine Transiente vorliegt, angesehen werden. Eine Transiente kann je nach ihrer Lage bezüglich Blocks und ihrer Grenzen einen abrupten Anstieg und Abfall der Spektral- (Bin-) Amplitude über eine Zeitperiode von einem oder mehreren Blocks bewirken. Folglich kann eine Änderung des Bin-Spektralstabilitätsfaktors von einem hohen Wert zu einem niedrigen Wert über eine geringe Anzahl von Blocks als ein Anzeichen für das Vorliegen einer Transienten im Block oder in den Blocks mit dem niedrigeren Wert angesehen werden. Eine weitere Bestätigung des Vorliegens einer Transiente oder eine Alternative zum Verwenden des Bin-Spektralstabilitätsfaktors besteht darin, die Phasenwinkel von Bins im Block zu beobachten (zum Beispiel am Phasenwinkelausgang von Schritt 403). Weil eine Transiente mit hoher Wahrscheinlichkeit eine einzige zeitliche Position in einem Block belegt und die beherrschende Energie im Block innehat, können das Vorliegen und die Position einer Transiente durch eine im wesentlichen gleichbleibende Verzögerung der Phase von Bin zu Bin im Block angezeigt werden – nämlich eine im wesentlichen lineare Rampe von Phasenwinkeln als eine Funktion der Frequenz. Noch eine weitere Bestätigung oder Alternative besteht darin, die Fachamplituden über eine geringe Anzahl von Blocks zu beobachten (zum Beispiel am Betragsausgang von Schritt 403), nämlich durch direktes Suchen nach einem abrupten Anstieg und Abfall des Spektralpegels.
  • Alternativ kann Schritt 408 drei aufeinanderfolgende Blocks statt einen Block prüfen. Wenn die Kopplungsfrequenz des Codierers unterhalb von ungefähr 1000 Hz liegt, kann Schritt 408 mehr als drei aufeinanderfolgende Blocks prüfen. Die Anzahl aufeinanderfolgender Blocks kann sich unter Berücksichtigung mit der Frequenz ändern, so dass bei abnehmendem Teilband-Frequenzbereich die Anzahl allmählich zunimmt. Wenn der Bin-Spektralstabilitätsfaktor aus mehr als einem Block gewonnen wird, kann die Erfassung einer Transiente wie soeben beschrieben durch separate Schritte bestimmt werden, welche nur auf die zum Erfassen von Transienten nützliche Anzahl von Blocks ansprechen.
  • Als eine weitere Alternative können Fachenergien anstelle von Fachbeträgen verwendet werden.
  • Als noch eine weitere Alternative kann Schritt 408 ein "Ereignisentscheidungs"-Erfassungsverfahren verwenden, wie unten in den auf Schritt 409 folgenden Anmerkungen beschrieben.
  • Schritt 409. Teilband-Spektralstabilitätsfaktor berechnen.
  • Einen Rahmentakt-Teilband-Spektralstabilitätsfaktor in einem Bereich von 0 bis 1 durch Bilden eines amplitudengewichteten Mittelwerts des Bin-Spektralstabilitätsfaktors in jedem Teilband über die Blocks in einem Rahmen wie folgt berechnen:
    • a. Für jedes Bin das Produkt aus dem Bin-Spektralstabilitätsfaktor aus Schritt 408 und dem Fachbetrag aus Schritt 403 berechnen.
    • b. Die Produkte in jedem Teilband summieren (eine Summierung über die Frequenz).
    • c. Die Summierung aus Schritt 409b in allen Blocks in einem Rahmen mitteln oder aufsummieren (eine Mittelung/Aufsummierung über die Zeit).
    • d. Wenn die Kopplungsfrequenz des Codierers unterhalb von ungefähr 1000 Hz liegt, die über Teilbandrahmen gemittelte oder über Rahmen aufsummierte Summierung auf einen Zeitglätter anwenden, welcher auf allen Teilbändern unterhalb dieser Frequenz und oberhalb der Kopplungsfrequenz arbeitet. Anmerkungen zu Schritt 409d: Siehe Anmerkungen zu Schritt 404c, außer dass es im Fall des Schritts 409d keinen geeigneten späteren Schritt gibt, in welchem die Zeitglättung alternativ durchgeführt werden kann.
    • e. Die Ergebnisse aus Schritt 409c oder Schritt 409d, wie es angebracht ist, durch die Summe der Fachbeträge (Schritt 403) im Teilband dividieren. Anmerkung zu Schritt 409e: Die Multiplikation mit dem Betrag in Schritt 409a und die Division durch die Summe der Beträge in Schritt 409e liefern die Amplitudengewichtung. Der Ausgang von Schritt 408 ist unabhängig von der absoluten Amplitude und kann, wenn nicht amplitudengewichtet, bewirken, dass der Ausgang von Schritt 409 durch sehr kleine Amplituden gesteuert wird, was nicht erwünscht ist.
    • f. Das Ergebnis skalieren, um durch Abbilden des Bereichs von {0,5...1} auf {0...1} den Teilband-Spektralstabilitätsfaktor zu gewinnen. Dies kann durch Multiplizieren des Ergebnisses mit 2, Subtrahieren von 1 und Begrenzen von Ergebnissen kleiner als 0 auf einen Wert von 0 geschehen.
  • Anmerkung zu Schritt 409f: Schritt 409f kann nützlich sein, um sicherzustellen, dass ein Kanal aus Rauschen einen Teilband-Spektralstabilitätsfaktor von null zur Folge hat.
  • Anmerkungen zu den Schritten 408 und 409:
  • Das Ziel der Schritte 408 und 409 ist, die spektrale Stabilität zu messen – Änderungen der Spektralzusammensetzung über die Zeit in einem Teilband eines Kanals. Alternativ können, anstelle des soeben in Verbindung mit den Schritten 408 und 409 beschriebenen Ansatzes, Aspekte einer "Ereignisentscheidungs"-Erfassung wie in der internationalen Veröffentlichung Nr. WO 02/097792 A1 (welche die Vereinigten Staaten benennt) beschrieben verwendet werden, um die spektrale Stabilität zu messen. US-Patentanmeldung S. N. 10/478,538, eingereicht am 20. November 2003, ist die nationale Anmeldung der veröffentlichten PCT-Anmeldung WO 02/097792 A1 für die Vereinigten Staaten. Gemäß diesen einbezogenen Anmeldungen werden die Beträge des komplexen FFT-Koeffizienten jedes Bins berechnet und normalisiert (der größte Betrag wird zum Beispiel auf einen Wert von eins gesetzt). Dann werden die Beträge einander entsprechender Bins (in dB) in aufeinanderfolgenden Blocks subtrahiert (unter Ignorieren der Vorzeichen), werden die Differenzen zwischen Bins summiert und wird die Blockgrenze, wenn die Summe eine Schwelle überschreitet, als eine Hörereignisgrenze angesehen. Alternativ können Amplitudenänderungen von Block zu Block auch zusammen mit Änderungen des spektralen Betrags betrachtet werden (durch Prüfen des erforderlichen Maßes an Normalisierung).
  • Wenn Aspekte der einbezogenen Ereigniserfassungs-Anmeldungen verwendet werden, um die spektrale Stabilität zu messen, muss eine Normalisierung nicht erforderlich sein und werden die Änderungen des spektralen Betrags (Amplitudenänderungen würden nicht gemessen werden, wenn auf Normalisierung verzichtet wird) vorzugsweise teilbandweise betrachtet. Statt Schritt 408 wie oben angegeben auszuführen, können die Dezibelunterschiede im spektralen Betrag zwischen entsprechenden Bins in jedem Teilband gemäß den Belehrungen der Anmeldungen summiert werden. Dann kann jede dieser das Maß an spektraler Änderung von Block zu Block darstellenden Summen so skaliert werden, dass das Ergebnis ein Spektralstabilitätsfaktor mit einem Bereich von 0 bis 1 ist, wobei ein Wert von 1 die höchste Stabilität, eine Änderung von 0 dB von Block zu Block für ein gegebenes Bin, anzeigt. Ein Wert von 0, welcher die geringste Stabilität anzeigt, kann Dezibeländerungen, welche gleich einem geeigneten Maß wie zum Beispiel 12 dB oder größer sind, zugewiesen werden. Diese Ergebnisse, ein Bin-Spektralstabilitätsfaktor, können von Schritt 409 auf die gleiche Weise verwendet werden, wie Schritt 409 die Ergebnisse aus Schritt 408 wie oben beschrieben verwendet. Wenn Schritt 409 einen durch Verwendung des soeben beschriebenen alternativen Ereignisentscheidungs-Erfassungsverfahrens gewonnenen Bin-Spektralstabilitätsfaktor empfängt, kann auch der Teilband-Spektralstabilitätsfaktor aus Schritt 409 als eine Anzeige für eine Transiente verwendet werden. Zum Beispiel kann, wenn der von Schritt 409 produzierte Wertebereich sich von 0 bis 1 erstreckt, eine Transiente als vorliegend angesehen werden, wenn der Teilband-Spektralstabilitätsfaktor ein kleiner Wert wie zum Beispiel 0,1 ist, was auf eine beträchtliche spektrale Instabilität hinweist.
  • Man wird erkennen, dass die durch Schritt 408 und durch die soeben beschriebene Alternative zu Schritt 408 produzierten Bin-Spektralstabilitätsfaktoren jeweils inhärent bis zu einem gewissen Grad eine variable Schwelle schaffen, insofern als sie auf relativen Änderungen von Block zu Block beruhen. Optional kann es nützlich sein, eine solche Inhärent durch spezifisches Vorsehen einer Verschiebung der Schwelle als Reaktion auf zum Beispiel mehrere Transienten in einem Rahmen oder eine große Transiente unter kleineren Transienten (z. B. eine laute Transiente, welche aus mittel- bis niederpegeligem Applaus heraussticht) zu ergänzen. Im Fall des letzteren Beispiels kann ein Ereignisdetektor anfänglich jedes Klatschen als ein Ereignis identifizieren, aber eine laute Transiente (z. B. ein Trommelschlag) kann es wünschenswert machen, die Schwelle so zu verschieben, dass nur der Trommelschlag als ein Ereignis identifiziert wird.
  • Alternativ kann ein Zufälligkeitsmaß (zum Beispiel wie in US-Patent Re 36,714 beschrieben) anstelle eines Spektralstabilitätsmaßes über die Zeit verwendet werden.
  • Schritt 410. Übereinstimmungsfaktor der Winkel zwischen den Kanälen berechnen.
  • Für jedes Teilband mit mehr als einem Bin einen Rahmentakt-Übereinstimmungsfaktor der Winkel zwischen den Kanälen wie folgt berechnen:
    • a. Den Betrag der komplexen Summe aus Schritt 407e durch die Summe der Beträge aus Schritt 405 dividieren. Der resultierende "rohe" Winkelübereinstimmungsfaktor ist eine Zahl im Bereich von 0 bis 1.
    • b. Einen Korrekturfaktor berechnen: es sei n = die Anzahl von Werten über das Teilband, welche zu den zwei Größen im obigen Schritt beitragen (in anderen Worten, "n" ist die Anzahl von Bins im Teilband). Wenn n kleiner als 2 ist, sei der Winkelübereinstimmungsfaktor gleich 1. Weiter mit Schritten 411 und 413.
    • c. Es sei r = Erwartete zufällige Schwankung = 1/n. r vom Ergebnis des Schritts 410b subtrahieren.
    • d. Das Ergebnis aus Schritt 410c durch Dividieren durch (1 – r) normalisieren. Das Ergebnis hat einen maximalen Wert von 1. Den minimalen Wert nach Bedarf auf 0 begrenzen.
  • Anmerkungen zu Schritt 410:
  • Die Übereinstimmung der Winkel zwischen den Kanälen ist ein Maß dafür, wie ähnlich die Phasenwinkel zwischen den Kanälen in einem Teilband über eine Rahmenperiode sind. Wenn alle Fachwinkel zwischen den Kanälen des Teilbands gleich sind, beträgt der Übereinstimmungsfaktor der Winkel zwischen den Kanälen 1,0; wohingegen der Wert, wenn die Winkel zwischen den Kanälen zufällig gestreut sind, gegen null geht.
  • Der Teilbandwinkel-Übereinstimmungsfaktor zeigt an, ob zwischen den Kanälen ein Phantomabbild vorliegt. Bei geringer Übereinstimmung ist es wünschenswert, die Kanäle zu dekorrelieren. Ein hoher Wert weist auf ein verschmolzenes Abbild hin. Abbildverschmelzung ist unabhängig von anderen Signaleigenschaften.
  • Es ist zu beachten, dass der Teilbandwinkel-Übereinstimmungsfaktor, obwohl er ein Winkelparameter ist, indirekt aus zwei Beträgen bestimmt wird. Wenn die Winkel zwischen den Kanälen alle gleich sind, liefert das Addieren der komplexen Werte und das anschließende Ermitteln des Betrags das gleiche Ergebnis wie das Ermitteln und anschließende Addieren aller Beträge, so dass der Quotient gleich 1 ist. Wenn die Winkel zwischen den Kanälen gestreut sind, führt das Addieren der komplexen Werte (wie das Addieren von Vektoren mit verschiedenen Winkeln) zu einer mindestens teilweisen Aaslöschung, so dass der Betrag der Summe kleiner als die Summe der Beträge ist und der Quotient kleiner als 1 ist.
  • Folgendes ist ein einfaches Beispiel eines Teilbands mit zwei Bins:
  • Angenommen, die zwei komplexen Fachwerte sind (3 + j4) und (6 + j8). (Gleicher Winkel in jedem Fall: Winkel = arctan (Imaginärteil/Realteil), also Winkel 1 = arctan (4/3) und Winkel 2 = arctan (8/6) = arctan (4/3)). Addiert man die komplexen Werte, ergibt sich die Summe = (9 + j12), deren Betrag die Quadratwurzel von (81 + 144) = 15 ist.
  • Die Summe der Beträge lautet Betrag von (3 + j4) + Betrag von (6 + j8) = 5 + 10 = 15. Der Quotient ist daher 15/15 = 1 = Übereinstimmung (vor 1/n-Normalisierung, wäre auch 1 nach Normalisierung) (normalisierte Übereinstimmung = (1 – 0,5)/(1 – 0,5) = 1,0).
  • Wenn eines der obigen Bins einen anderen Winkel hat, angenommen, das zweite hat den komplexen Wert (6 – j8), welcher den gleichen Betrag, 10, hat. Die komplexe Summe lautet jetzt (9 – j4), wovon der Betrag gleich der Quadratwurzel von (81 + 16) = 9,85 ist, so dass der Quotient gleich 9,85/15 = 0,66 = Übereinstimmung (vor Normalisierung) ist. Zum Normalisieren 1/n = 1/2 subtrahieren und durch (1 – 1/n) dividieren (normalisierte Übereinstimmung = (0,66 – 0,5)/(1 – 0,5) = 0,32.)
  • Obwohl das oben beschriebene Verfahren zum Bestimmen eines Teilbandwinkel-Übereinstimmungsfaktors sich als nützlich erwiesen hat, ist seine Verwendung nicht kritisch. Es können andere geeignete Verfahren verwendet werden. Zum Beispiel könnte man unter Verwendung von Standardformeln eine Standardabweichung von Winkeln berechnen. Jedenfalls ist es wünschenswert, Amplitudengewichtung zu verwenden, um den Effekt kleiner Signale auf den berechneten Übereinstimmungswert zu minimieren.
  • Außerdem kann eine alternative Herleitung des Teilbandwinkel-Übereinstimmungsfaktors die Energie (die Quadrate der Beträge) anstelle des Betrags verwenden. Dies kann durch Quadrieren des Betrags aus Schritt 403, bevor er auf die Schritte 405 und 407 angewendet wird, geschehen.
  • Schritt 411. Teilband-Dekorrelations-Skalierungsfaktor herleiten.
  • Einen Rahmentakt-Dekorrelations-Skalierungsfaktor für jedes Teilband wie folgt herleiten:
    • a. Es sei x = Rahmentakt-Spektralstabilitätsfaktor aus Schritt 409f.
    • b. Es sei y = Rahmentakt-Winkelübereinstimmungsfaktor aus Schritt 410e.
    • c. Dann ist der Rahmentakt-Teilband-Dekorrelations-Skalierungsfaktor = (1 – x)·(1 – y), eine Zahl zwischen 0 und 1.
  • Anmerkungen zu Schritt 411:
  • Der Teilband-Dekorrelations-Skalierungsfaktor ist eine Funktion der Spektralstabilität der Signaleigenschaften über die Zeit in einem Teilband eines Kanals (des Spektralstabilitätsfaktors) und der Übereinstimmung, im selben Teilband eines Kanals, von Fachwinkeln bezüglich entsprechender Bins eines Referenzkanals (des Übereinstimmungsfaktors der Winkel zwischen den Kanälen). Der Teilband-Dekorrelations-Skalierungsfaktor ist nur dann hoch, wenn sowohl der Spektralstabilitätsfaktor als auch der Übereinstimmungsfaktor der Winkel zwischen den Kanälen niedrig sind.
  • Wie oben erläutert, steuert der Dekorrelations-Skalierungsfaktor das im Decodierer bewirkte Maß an Hüllkurven-Dekorrelation. Signale, welche spektrale Stabilität über die Zeit aufweisen, sollten vorzugsweise nicht durch Verändern ihrer Hüllkurven ohne Rücksicht darauf, was in anderen Kanälen geschieht, dekorreliert werden, da dies hörbare Artefakte, nämlich Zittern oder Trillern des Signals, zur Folge haben kann.
  • Schritt 412. Teilband-Amplituden-Skalierungsfaktoren herleiten.
  • Aus den Teilbandrahmen-Energiewerten aus Schritt 404 und aus den Teilbandrahmen-Energiewerten aller anderen Kanäle (welche durch einen Schritt 404 oder einem diesem äquivalenten Schritt entsprechenden Schritt gewonnen werden können) Rahmentakt-Teilband-Amplituden-Skalierungsfaktoren wie folgt herleiten:
    • a. Für jedes Teilband die Energiewerte pro Rahmen über alle Eingangskanäle summieren.
    • b. Jeden Teilband-Energiewert pro Rahmen (aus Schritt 404) durch die Summe der Energiewerte über alle Eingangskanäle (aus Schritt 412a) dividieren, um Werte im Bereich von 0 bis 1 zu erzeugen.
    • c. Jedes Verhältnis in dB im Bereich von –∞ bis 0 umwandeln.
    • d. Durch die Skalierungsfaktor-Granularität, welche zum Beispiel auf 1,5 dB eingestellt sein kann, dividieren, das Vorzeichen ändern, um einen nicht-negativen Wert zu erhalten, auf einen maximalen Wert, welcher zum Beispiel 31 sein kann, begrenzen (d. h. 5-Bit-Genauigkeit) und auf die nächstgelegene ganze Zahl runden, um den quantisierten Wert zu erzeugen. Diese Werte sind die Rahmentakt-Teilband-Amplituden-Skalierungsfaktoren und werden als Teil der Sidechain-Informationen übermittelt.
    • e. Wenn die Kopplungsfrequenz des Codierers unterhalb von ungefähr 1000 Hz liegt, die über Teilbandrahmen gemittelten oder über Rahmen aufsummierten Beträge auf einen Zeitglätter anwenden, welcher auf allen Teilbändern unterhalb dieser Frequenz und oberhalb der Kopplungsfrequenz arbeitet.
  • Anmerkungen zu Schritt 412e: Siehe Anmerkungen zu Schritt 404c, außer dass es im Fall des Schritts 412e keinen geeigneten späteren Schritt gibt, in welchem die Zeitglättung alternativ durchgeführt werden kann.
  • Anmerkungen zu Schritt 412:
  • Obwohl die Granularität (Auflösung) und die Quantisierungsgenauigkeit wie hier angegeben sich als nützlich erwiesen haben, sind sie nicht kritisch und können andere Werte akzeptable Ergebnisse liefern.
  • Alternativ kann man die Amplitude anstelle der Energie verwenden, um die Teilband-Amplituden-Skalierungsfaktoren zu erzeugen. Bei Verwendung der Amplitude würde man dB = 20·log(Amplitudenverhältnis) verwenden; wenn andernfalls die Energie verwendet wird, über dB = 10·log(Energieverhältnis) in dB umwandeln, wobei Amplitudenverhältnis = Quadratwurzel (Energieverhältnis).
  • Schritt 413. Teilband-Phasenwinkel zwischen den Kanälen signalabhängig zeitglatten.
  • Signalabhängige zeitliche Glättang auf in Schritt 407f hergeleitete Teilband-Rahmentakt-Winkel zwischen den Kanälen anwenden:
    • a. Es sei v = Teilband-Spektralstabilitätsfaktor aus Schritt 409d.
    • b. Es sei w = entsprechender Winkelübereinstimmungsfaktor aus Schritt 410e.
    • c. Es sei x = (1 – v)·w. Dies ist ein Wert zwischen 0 und 1, welcher hoch ist, wenn der Spektralstabilitätsfaktor niedrig ist und der Winkelübereinstimmungsfaktor hoch ist.
    • d. Es sei y = 1 – x. y ist hoch, wenn der Spektralstabilitätsfaktor hoch ist und der Winkelübereinstimmungsfaktor niedrig ist.
    • e. Es sei z = yexp, wobei exp eine Konstante ist, welche = 0,1 sein kann. z liegt ebenfalls im Bereich von 0 bis 1, tendiert aber, entsprechend einer langsamen Zeitkonstante, zu 1.
    • f. Wenn der Transientenmerker (Schritt 401) für den Kanal gesetzt ist, z = 0 setzen, entsprechend einer schnellen Zeitkonstante bei Vorliegen einer Transienten.
    • g. lim berechnen, einen maximal zulässigen Wert von z, lim = 1 – (0,1·w). Dieser liegt im Bereich von 0,9 bei hohem Winkelübereinstimmungsfaktor bis 1,0 bei niedrigem Winkelübereinstimmungsfaktor (0).
    • h. z nach Bedarf durch lim begrenzen: wenn (z > lim), dann z = lim.
    • i. Den Teilbandwinkel aus Schritt 407f mittels des Werts von z und eines für jedes Teilband aufrechterhaltenen laufenden geglätteten Winkelwerts glätten. Wenn A = Winkel aus Schritt 407f, RSA = laufender geglätteter Winkelwert ab dem vorherigen Block und NewRSA = neuer Wert des laufenden geglätteten Winkels ist, dann: NewRSA = RSA·z + A·(1 – z). Der Wert von RSA wird anschließend, vor Verarbeiten des nächsten Blocks, NewRSA gleichgesetzt. NewRSA ist der signalabhängige zeitgeglättete Winkelausgang von Schritt 413.
  • Anmerkungen zu Schritt 413:
  • Wenn eine Transiente erfasst wird, wird die Teilbandwinkelaktualisierungs-Zeitkonstante auf 0 gestellt, was eine schnelle Teilbandwinkeländerung ermöglicht. Dies ist wünschenswert, weil es dem normalen Winkelaktualisierungsmechanismus gestattet, eine Reihe von relativ langsamen Zeitkonstanten zu verwenden, wodurch bei statischen oder quasistatischen Signalen ein Wandern des Abbilds minimiert wird, aber schnellveränderliche Signale werden mit schnellen Zeitkonstanten behandelt.
  • Obwohl andere Glättungsverfahren und -parameter verwendbar sein können, hat sich ein einen Glätter erster Ordnung implementierender Schritt 413 als geeignet erwiesen. Bei Implementierung als ein Glätter/Tiefpassfilter erster Ordnung entspricht die Variable "z" dem Vorwärtskopplungskoeffizienten (manchmal als "ff0" bezeichnet), während "(1 – z)" dem Rückkopplungskoeffizienten (manchmal als "fb1" bezeichnet) entspricht.
  • Schritt 414. Geglättete Teilband-Phasenwinkel zwischen den Kanälen quantisieren.
  • Die in Schritt 413i hergeleiteten zeitgeglätteten Teilbandwinkel zwischen den Kanälen quantisieren, um den Teilbandwinkel-Steuerparameter zu gewinnen:
    • a. Wenn der Wert kleiner als 0 ist, 2π addieren, so dass alle zu quantisierenden Winkelwerte im Bereich 0 bis 2π liegen.
    • b. Durch die Winkeigranularität (Auflösung), welche 2π/64 im Bogenmaß sein kann, dividieren und auf eine ganze Zahl runden. Der maximale Wert kann auf 63 eingestellt werden, was einer 6-Bit-Quantisierung entspricht.
  • Anmerkungen zu Schritt 414:
  • Der quantisierte Wert wird als eine nicht-negative ganze Zahl behandelt, so dass eine einfache Art und Weise, den Winkel zu quantisieren, darin besteht, ihn auf eine nicht-negative Fließkomma-Zahl abzubilden ((2π addieren, wenn kleiner als 0, wodurch der Bereich zu 0 bis (kleiner als) 2π gemacht wird)), mit der Granularität (Auflösung) zu skalieren und auf eine ganze Zahl zu runden. Entsprechend lässt sich das Dequantisieren dieser ganzen Zahl (welches sonst mit einer einfachen Tabellensuche erfolgen könnte) bewerkstelligen durch Skalieren mit der Inversen des Winkelgranularitätsfaktors, Umwandeln einer nicht-negativen ganzen Zahl in einen nicht-negativen Fließkomma-Winkel (wiederum Bereich 0 bis 2π), wonach dieser zur weiteren Verwendung erneut auf den Bereich ±π normalisiert werden kann. Obwohl eine solche Quantisierung der Teilbandwinkel-Steuerparameter sich als nützlich erwiesen hat, ist eine solche Quantisierung nicht kritisch und können andere Quantisierungen akzeptable Ergebnisse liefern.
  • Schritt 415. Teilband-Dekorrelations-Skalierungsfaktoren quantisieren.
  • Die in Schritt 411 produzierten Teilband-Dekorrelations-Skalierungsfaktoren durch Multiplizieren mit 7,49 und Runden auf die nächstgelegene ganze Zahl auf zum Beispiel 8 Pegel (3 Bit) quantisieren. Diese quantisierten Werte sind ein Teil der Sidechain-Informationen.
  • Anmerkungen zu Schritt 415:
  • Obwohl eine solche Quantisierung der Teilband-Dekorrelations-Skalierungsfaktoren sich als nützlich erwiesen hat, ist eine die Beispielwerte verwendende Quantisierung nicht kritisch und können andere Quantisierungen akzeptable Ergebnisse liefern.
  • Schritt 416. Teilbandwinkel-Steuerparameter dequantisieren.
  • Die Teilbandwinkel-Steuerparameter (siehe Schritt 414) zur Verwendung vor dem Heruntermischen dequantisieren.
  • Anmerkung zu Schritt 416:
  • Die Verwendung quantisierter Werte im Codierer hilft, den Synchronismus zwischen Codierer und Decodierer aufrechtzuerhalten.
  • Schritt 417. Rahmentakt-dequantisierte Teilbandwinkel-Steuerparameter über Blocks verteilen.
  • Als Vorbereitung für das Heruntermischen die einmal pro Rahmen dequantisierten Teilbandwinkel-Steuerparameter aus Schritt 416 über die Zeit auf die Teilbänder jedes Blocks im Rahmen verteilen.
  • Anmerkung zu Schritt 417:
  • Der gleiche Rahmenwert kann jedem Block im Rahmen zugewiesen werden. Alternativ kann es nützlich sein, die Teilbandwinkel-Steuerparameterwerte über die Blocks in einem Rahmen zu interpolieren. Lineare Interpolation über die Zeit kann auf die Weise der linearen Interpolation über die Frequenz, wie unten beschrieben, verwendet werden.
  • Schritt 418. Block-Teilbandwinkel-Steuerparameter auf Bins interpolieren
  • Die Block-Teilbandwinkel-Steuerparameter aus Schritt 417 für jeden Kanal über die Frequenz auf Bins verteilen, vorzugsweise mittels linearer Interpolation wie unten beschrieben.
  • Anmerkung zu Schritt 418:
  • Wenn eine lineare Interpolation über die Frequenz verwendet wird, minimiert Schritt 418 Phasenwinkeländerungen von Bin zu Bin über eine Teilbandgrenze, wodurch Aliasing-Artefakte minimiert werden. Eine solche lineare Interpolation kann zum Beispiel wie unten im Anschluss an die Beschreibung von Schritt 422 beschrieben ermöglicht werden. Teilbandwinkel werden unabhängig voneinander berechnet, wobei jeder einen Mittelwert über ein Teilband darstellt. Somit kann es eine große Änderung von einem Teilband zum nächsten geben. Wenn der Netto-Winkelwert für ein Teilband auf alle Bins im Teilband angewendet wird (eine "Rechteck"-Teilbandverteilung), findet die gesamte Phasenänderung von einem Teilband zu einem angrenzenden Teilband zwischen zwei Bins statt. Wenn es dort eine starke Signalkomponente gibt, kann es zu schwerem, möglicherweise hörbarem Aliasing kommen. Lineare Interpolation zum Beispiel zwischen den Mitten jedes Teilbands spreizt die Phasenwinkeländerung über alle Bins im Teilband, wodurch die Änderung zwischen den Bins eines beliebigen Fächerpaars minimiert wird, so dass zum Beispiel der Winkel am unteren Ende eines Teilbands mit dem Winkel am oberen Ende des darunterliegenden Teilbands übereinstimmt, während der Gesamt-Mittelwert auf dem gleichen Wert wie der gegebene berechnete Teilbandwinkel gehalten wird. In anderen Worten, anstelle von Rechteck-Teilbandverteilungen kann die Teilbandwinkelverteilung trapezförmig sein.
  • Zum Beispiel sei angenommen, dass das niedrigste gekoppelte Teilband ein Bin und einen Teilbandwinkel von 20 Grad hat, das nächste Teilband drei Bins und einen Teilbandwinkel von 40 Grad hat und das dritte Teilband fünf Bins und einen Teilbandwinkel von 100 Grad hat. Ohne Interpolation sei angenommen, dass das erste Bin (ein Teilband) um einen Winkel von 20 Grad verschoben wird, die nächsten drei Bins (ein anderes Teilband) um einen Winkel von 40 Grad verschoben werden und die nächsten fünf Bins (ein weiteres Teilband) um einen Winkel von 100 Grad verschoben werden. In diesem Beispiel gibt es eine maximale Änderung von 60 Grad von Bin 4 zu Bin 5. Bei linearer Interpolation wird das erste Bin noch um einen Winkel von 20 Grad verschoben, werden die nächsten drei Bins um etwa 30, 40, und 50 Grad verschoben und werden die nächsten fünf Bins um etwa 67, 83, 100, 117 und 133 Grad verschoben. Die mittlere Teilbandwinkelverschiebung ist die gleiche, aber die maximale Änderung von Bin zu Bin ist auf 17 Grad verringert.
  • Optional können Amplitudenänderungen von Teilband zu Teilband in Verbindung mit diesem und anderen hierin beschriebenen Schritten wie Schritt 417 auch auf eine ähnliche interpolierende Weise behandelt werden. Jedoch muss dies nicht erforderlich sein, weil es eher mehr natürliche Amplitudenstetigkeit von einem Teilband zum nächsten gibt.
  • Schritt 419. Phasenwinkeldrehung auf Fachtransformationswerte für Kanal anwenden.
  • Phasenwinkeldrehung wie folgt auf jeden Fachtransformationswert anwenden:
    • a. Es sei x = Fachwinkel für dieses Bin, wie in Schritt 418 berechnet.
    • b. Es sei y = –x;
    • c. z, einen komplexen Phasendrehungs-Skalierungsfaktor mit Winkel y, z = cos(y) + j sin(y) vom Betrag eins berechnen.
    • d. Den Fachwert (a + jb) mit z multiplizieren.
  • Anmerkungen zu Schritt 419:
  • Die im Codierer angewendete Phasenwinkeldrehung ist die Inverse des aus dem Teilbandwinkel-Steuerparameter hergeleiteten Winkels.
  • Phasenwinkeleinstellungen wie hierin beschrieben in einem Codierer oder Codierprozess vor dem Heruntermischen (Schritt 420) haben mehrere Vorteile: (1) sie minimieren Auslöschungen der Kanäle, welche zu einem Mono-Mischsignal summiert oder auf mehrere Kanäle matriziert werden, (2) sie minimieren die Abhängigkeit von Energienormalisierung (Schritt 421) und (3) sie kompensieren die inverse Phasenwinkeldrehung des Decodierers im voraus, wodurch sie Aliasing verringern.
  • Die Phasenkorrekturfaktoren können durch Subtrahieren jedes Teilband-Phasenkorrekturwerts von den Winkeln jedes Transformationsfach-Werts in diesem Teilband im Codierer angewendet werden. Dies ist äquivalent zum Multiplizieren jedes komplexen Fachwerts mit einer komplexen Zahl mit einem Betrag von 1,0 und einem Winkel gleich dem Negativen des Phasenkorrekturfaktors. Es ist zu beachten, dass eine komplexe Zahl des Betrags 1, Winkel A gleich cos(A) + j sin(A) ist. Diese letztere Größe wird für jedes Teilband jedes Kanals einmal berechnet, wobei A = -Phasenkorrektur für dieses Teilband, dann mit jedem komplexen Bin-Signalwert multipliziert, um den phasenverschobenen Fachwert zu realisieren.
  • Die Phasenverschiebung ist zirkulär, was zirkuläre Faltung (wie oben erwähnt) zur Folge hat. Während zirkuläre Faltung für manche kontinuierliche Signale von Vorteil sein kann, kann sie bei Verwendung verschiedener Phasenwinkel für verschiedene Teilbänder unechte Spektralkomponenten für bestimmte kontinuierliche komplexe Signale (wie eine Stimmpfeife) erzeugen oder das Verschmieren von Transienten verursachen. Folglich kann ein geeignetes Verfahren zur Vermeidung zirkulärer Faltung verwendet werden oder kann der Transientenmerker so verwendet werden, dass zum Beispiel, wenn der Transientenmerker "wahr" ist, die Winkelberechnungsergebnisse außer Kraft gesetzt werden können und alle Teilbänder in einem Kanal denselben Phasenkorrekturfaktor wie null oder einen randomisierten Wert verwenden können.
  • Schritt 420. Heruntermischen.
  • Durch Addieren der entsprechenden komplexen Transformationsfächer über die Kanäle auf mono heruntermischen, um einen Mono-Mischkanal zu produzieren, oder durch Matrizieren der Eingangskanäle wie zum Beispiel auf die Weise des Beispiels in 6 auf mehrere Kanäle heruntermischen, wie unten beschrieben.
  • Anmerkungen zu Schritt 420:
  • Im Codierer werden die Kanäle, nachdem die Transformationsfächer aller Kanäle phasenverschoben wurden, Bin für Bin summiert, um das Mono-Mischaudiosignal zu erzeugen. Alternativ können die Kanäle auf eine passive oder aktive Matrix, welche entweder eine einfache Summierung zu einem Kanal wie bei der N:1-Codierung in 1 oder zu mehreren Kanälen bewirkt, angewendet werden. Die Matrixkoeffizienten können reell oder komplex (reell und imaginär) sein.
  • Schritt 421. Normalisieren.
  • Um eine Auslöschung isolierter Bins und eine Überbetonung von phasengleichen Signalen zu vermeiden, die Amplitude jedes Bins des Mono-Mischkanals wie folgt normalisieren, um im wesentlichen die gleiche Energie wie die Summe der beitragenden Energien zu haben:
    • a. Es sei x = die Summe über die Kanäle von Fachenergien (d. h. die Quadrate der in Schritt 403 berechneten Fachbeträge).
    • b. Es sei y = Energie des entsprechenden Bins des Mono-Mischkanals, berechnet gemäß Schritt 403.
    • c. Es sei z = Skalierungsfaktor = Quadratwurzel von (x/y). Wenn x = 0, dann ist y = 0 und wird z auf 1 gesetzt.
    • d. z auf einen maximalen Wert von zum Beispiel 100 begrenzen. Wenn z anfänglich größer als 100 ist (was starke Auslöschung aufgrund des Heruntermischens mit sich bringt), einen willkürlichen Wert, zum Beispiel 0,01·Quadratwurzel von (x), zum Real- und Imaginärteil des Mono-Mischbins addieren, was sicherstellen wird, dass es groß genug ist, um durch den folgenden Schritt normalisiert zu werden.
    • e. Den komplexen Mono-Misch-Fachwert mit z multiplizieren.
  • Anmerkungen zu Schritt 421:
  • Obwohl es gewöhnlich wünschenswert ist, die gleichen Phasenfaktoren sowohl zum Codieren als auch zum Decodieren zu verwenden, kann sogar die optimale Wahl eines Teilband-Phasenkorrekturwerts bewirken, dass eine oder mehrere hörbare Spektralkomponenten im Teilband während des Heruntermischprozesses bei der Codierung ausgelöscht werden, weil die Phasenverschiebung in Schritt 419 teilbandweise statt binweise durchgeführt wird. In diesem Fall kann ein anderer Phasenfaktor für isolierte Bins im Codierer verwendet werden, wenn festgestellt wird, dass die Summenenergie solcher Bins viel kleiner als die Energiesumme der einzelnen Kanalfächer bei dieser Frequenz ist. Es ist allgemein nicht erforderlich, einen solchen isolierten Korrekturfaktor auf den Decodierer anzuwenden, insofern als isolierte Bins sich gewöhnlich wenig auf die Gesamt-Abbildqualität auswirken. Eine ähnliche Normalisierung kann angewendet werden, wenn mehrere Kanäle anstelle eines Mono-Kanals verendet werden.
  • Schritt 422. Zusammensetzen und in Bitstrom (Bitströme) packen.
  • Die aus Amplituden-Skalierungsfaktoren, Winkel-Steuerparameter, Dekorrelations-Skalierungsfaktoren und Transientenmerker bestehenden Seitenkanal-Informationen für jeden Kanal werden zusammen mit dem gemeinsamen Mono-Mischaudio oder den matrizierten mehreren Kanälen wie möglicherweise gewünscht gemultiplext und in einen oder mehrere für das bzw. die Speicherungs-, Übertragungs- oder Speicherungs- und Übertragungsmedium oder -medien geeignete Bitströme gepackt.
  • Anmerkung zu Schritt 422:
  • Das Mono-Mischaudio oder das Mehrkanal-Audio kann vor dem Packen auf einen Codierprozess oder eine Codiereinrichtung, welcher bzw. welche die Übertragungsgeschwindigkeit verringert, wie zum Beispiel einen wahrnehmungsgemäßen Codierer, oder auf einen wahrnehmungsgemäßen Codierer und einen Entropiecodierer (z. B. einen arithmetischen oder Huffman-Codierer) (manchmal als "verlustfreier" Codierer bezeichnet) angewendet werden. Außerdem können, wie oben erwähnt, das Mono-Mischaudio (oder das Mehrkanal-Audio) und die zugehörigen Sidechain-Informationen, nur für Audiofrequenzen oberhalb einer bestimmten Frequenz (einer "Kopplungsfrequenz"), aus mehreren Eingangskanälen hergeleitet werden. In diesem Fall können die Audiofrequenzen unterhalb der Kopplungsfrequenz in jedem der mehreren Eingangskanäle als diskrete Kanäle gespeichert, übertragen oder gespeichert und übertragen werden oder können sie auf eine andere Weise als hierin beschrieben kombiniert oder verarbeitet werden. Diskrete oder anders kombinierte Kanäle können auch auf einen datenmindernden Codierprozess oder eine datenmindernde Codiereinrichtung wie zum Beispiel einen wahrnehmungsgemäßen Codierer oder einen wahrnehmungsgemäßen Codierer und einen Entropiecodierer angewendet werden. Das Mono-Mischaudio (oder das Mehrkanal-Audio) und das diskrete Mehrkanal-Audio können vor dem Packen allesamt auf einen integrierten wahrnehmungsgemäßen oder wahrnehmungsgemäßen und Entropie-Codierprozess bzw. eine integrierte wahrnehmungsgemäße oder wahrnehmungsgemäße und Entropie-Codiereinrichtung angewendet werden.
  • Optionaler Interpolationsmerker (in 4 nicht gezeigt)
  • Die Interpolation über die Frequenz der durch die Teilbandwinkel-Steuerparameter bewirkten grundlegenden Phasenwinkelverschiebungen kann im Codierer (Schritt 418) und/oder im Decodierer (Schritt 505 unten) ermöglicht werden. Der optionale Sidechain-Parameter "Interpolationsmerker" kann zum Ermöglichen der Interpolation im Decodierer verwendet werden. Im Codierer kann entweder der Interpolationsmerker oder ein dem Interpolationsmerker ähnlicher Ermöglichungsmerker verwendet werden. Es ist zu beachten, dass der Codierer, weil er Zugriff auf die Daten auf der Fachebene hat, andere Interpolationswerte als der Decodierer, welcher die Teilbandwinkel-Steuerparameter in den Sidechain-Informationen interpoliert, verwenden kann.
  • Die Verwendung einer solchen Interpolation über die Frequenz im Codierer oder im Decodierer kann ermöglicht werden, wenn zum Beispiel eine der folgenden zwei Bedingungen erfüllt ist:
    • Bedingung 1. Wenn sich eine starke, isolierte Spektralspitze an oder nahe der Grenze von zwei Teilbändern befindet, welche im wesentlichen verschiedene Phasendrehungswinkel-Zuweisungen haben.
    • Grund: ohne Interpolation kann eine große Phasenänderung an der Grenze ein Trillern in die isolierte Spektralkomponente hineinbringen. Durch Verwendung einer Interpolation zum Spreizen der Phasenänderung von Band zu Band über die Fachwerte im Band wird das Maß an Änderung an den Teilbandgrenzen verringert. Schwellen für die Stärke von Spektralspitzen, die Nähe zu einer Grenze und die Änderung der Phasendrehung von Teilband zu Teilband zur Erfüllung dieser Bedingung können empirisch eingestellt werden.
    • Bedingung 2. Wenn, je nach Vorliegen einer Transienten, entweder die Phasenwinkel zwischen den Kanälen (keine Transiente) oder die absoluten Phasenwinkel in einem Kanal (Transiente) für eine lineare Progression taugen.
    • Grund: Das Verwenden einer Interpolation zum Rekonstruieren der Daten trägt dazu bei, eine bessere Angleichung an die ursprünglichen Daten zu erzielen. Es ist zu beachten, dass die Steigung der linearen Progression nicht über alle Frequenzen konstant zu sein braucht, sondern nur in jedem Teilband, da die Übermittlung von Winkeldaten an den Decodierer immer noch teilbandweise erfolgen wird; und dies bildet den Eingang für den Interpolationsschritt 418. Das Maß, in welchem die Daten dazu taugen, diese Bedingung zu erfüllen, kann auch empirisch bestimmt werden.
  • Andere Bedingungen wie die empirisch bestimmten können von einer Interpolation über die Frequenz profitieren. Das Vorliegen der zwei soeben erwähnten Bedingungen kann wie folgt bestimmt werden:
    • Bedingung 1. Wenn sich eine starke, isolierte Spektralspitze an oder nahe der Grenze von zwei Teilbändern befindet, welche im wesentlichen verschiedene Phasendrehungswinkel-Zuweisungen haben: können für den vom Decodierer zu verwendenden Interpolationsmerker die Teilbandwinkel-Steuerparameter (Ausgang von Schritt 414) und kann zum Ermöglichen von Schritt 418 im Codierer der Ausgang von Schritt 413 vor der Quantisierung verwendet werden, um den Drehwinkel von Teilband zu Teilband zu bestimmen. kann sowohl für den Interpolationsmerker als auch zum Ermöglichen im Codierer der Betragsausgang von Schritt 403, die aktuellen DFT-Beträge, verwendet werden, um isolierte Spitzen an Teilbandgrenzen zu finden.
    • Bedingung 2. Wenn, je nach Vorliegen einer Transienten, entweder die Phasenwinkel zwischen den Kanälen (keine Transiente) oder die absoluten Phasenwinkel in einem Kanal (Transiente) für eine lineare Progression taugen: wenn der Transientenmerker nicht "wahr" ist (keine Transiente), die relativen Bin-Phasenwinkel zwischen den Kanälen aus Schritt 406 zur Ermittlung der Tauglichkeit für eine lineare Progression verwenden, und wenn der Transientenmerker "wahr" ist (Transiente), die absoluten Phasenwinkel des Kanals aus Schritt 403 verwenden.
  • Decodierung
  • Die Schritte eines Decodierprozesses ("Decodierschritte") lassen sich wie folgt beschreiben. Bezüglich Decodierschritten wird 5 herangezogen, welche eine Mischform aus Ablaufdiagramm und Blockschaltbild ist. Zur Vereinfachung zeigt die Figur die Herleitung von Sidechain-Informationskomponenten für einen Kanal, wobei sich von selbst versteht, das Sidechain-Informationskomponenten für jeden Kanal gewonnen werden müssen, außer wenn der Kanal ein Referenzkanal für solche Komponenten ist, wie an anderer Stelle erläutert.
  • Schritt 501. Sidechain-Informationen entpacken und decodieren.
  • Die Sidechain-Datenkomponenten (Amplituden-Skalierungsfaktoren, Winkel-Steuerparameter, Dekorrelations-Skalierungsfaktoren und Transientenmerker) für jeden Rahmen jedes Kanals nach Bedarf entpacken und decodieren (einschließlich Dequantisierung) (in 5 ein Kanal gezeigt).
  • Tabellensuchen können verwendet werden, um die Amplituden-Skalierungsfaktoren, den Winkel-Steuerparameter und die Dekorrelations-Skalierungsfaktoren zu decodieren.
  • Anmerkung zu Schritt 501: Wie oben erläutert, müssen, wenn ein Referenzkanal verwendet wird, die Sidechain-Daten für den Referenzkanal nicht die Winkel-Steuerparameter, die Dekorrelations-Skalierungsfaktoren und den Transientenmerker enthalten.
  • Schritt 502. Mono-Misch- oder Mehrkanal-Audiosignal entpacken und decodieren.
  • Die Mono-Misch- oder Mehrkanal-Audiosignalinformation nach Bedarf entpacken und decodieren, um DFT-Koeffizienten für jedes Transformationsfach des Mono-Misch- oder Mehrkanal-Audiosignals bereitzustellen.
  • Anmerkung zu Schritt 502:
  • Schritt 501 und Schritt 502 können als Teil eines einzigen Entpack- und Decodierschritts angesehen werden. Schritt 502 kann eine passive oder aktive Matrix enthalten.
  • Schritt 503. Winkelparameterwerte über Blocks verteilen.
  • Block-Teilbandwinkel-Steuerparameterwerte werden aus den dequantisierten Rahmen-Teilbandwinkel-Steuerparameterwerten hergeleitet.
  • Anmerkung zu Schritt 503:
  • Schritt 503 kann durch Verteilen des gleichen Parameterwerts auf jeden Block im Rahmen implementiert werden.
  • Schritt 504. Teilband-Dekorrelations-Skalierungsfaktor über Blocks verteilen.
  • Block-Teilband-Dekorrelations-Skalierungsfaktor-Werte werden aus den dequantisierten Rahmen-Teilband-Dekorrelations-Skalierungsfaktor-Werten hergeleitet.
  • Anmerkung zu Schritt 504:
  • Schritt 504 kann durch Verteilen des gleichen Skalierungsfaktor-Werts auf jeden Block im Rahmen implementiert werden.
  • Schritt 505. Über die Frequenz linear interpolieren.
  • Optional Fachwinkel aus den Block-Teilbandwinkeln des Decodiererschritts 503 durch lineare Interpolation über die Frequenz wie oben in Verbindung mit Codiererschritt 418 beschrieben herleiten. Die lineare Interpolation in Schritt 505 kann ermöglicht werden, wenn der Interpolations merker verwendet wird und "wahr" ist.
  • Schritt 506. Randomisierten Phasenwinkel-Offset addieren (Verfahren 3).
  • Gemäß dem oben beschriebenen Verfahren 3, wenn der Transientenmerker eine Transiente anzeigt, zum von Schritt 503 gelieferten Block-Teilbandwinkel-Steuerparameter, welcher durch Schritt 505 über die Frequenz linear interpoliert worden sein kann, einen durch den Dekorrelations-Skalierungsfaktor skalierten randomisierten Offset-Wert addieren (die Skalierung kann indirekt sein wie in diesem Schritt dargelegt):
    • a. Es sei y = Block-Teilband-Dekorrelations-Skalierungsfaktor.
    • b. Es sei z = yexp, wobei exp eine Konstante, zum Beispiel = 5 ist. z wird ebenfalls im Bereich von 0 bis 1 liegen, aber zu 0 tendieren, was eine Tendenz zu niedrigen Pegeln einer randomisierten Schwankung widerspiegelt, außer wenn der Dekorrelations-Skalierungsfaktor-Wert hoch ist.
    • c. Es sei x = eine randomisierte Zahl zwischen +1,0 und 1,0, welche für jedes Teilband jedes Blocks separat gewählt ist.
    • d. Dann ist der zwecks Addierens eines randomisierten Winkel-Offset-Werts gemäß Verfahren 3 zum Block-Teilbandwinkel-Steuerparameter addierte Wert gleich x·pi·z.
  • Anmerkungen zu Schritt 506:
  • Wie jeder Durchschnittsfachmann erkennen wird, müssen "randomisierte" Winkel (oder "randomisierte" Amplituden, wenn auch Amplituden skaliert werden) zur Skalierung durch den Dekorrelations-Skalierungsfaktor nicht nur pseudo-zufällige und echt zufällige Schwankungen enthalten, sondern können sie auch deterministisch erzeugte Schwankungen enthalten, welche, wenn sie auf Phasenwinkel oder auf Phasenwinkel und Amplituden angewendet werden, den Effekt haben, die Kreuzkorrelation zwischen Kanälen zu verringern. Solche "randomisierten" Schwankungen können auf vielerlei Weise gewonnen werden. Zum Beispiel kann ein Pseudo-Zufallszahlen-Generator mit verschiedenen Startparameter-Werten verwendet werden. Alternativ können echte Zufallszahlen mittels eines in Hardware ausgeführten Zufaliszahlengenerators erzeugt werden. Insofern als eine randomisierte Winkelauflösung von nur etwa 1 Grad ausreichen kann, können Tabellen von Zufallszahlen mit zwei oder drei Dezimalstellen (z. B. 0,84 oder 0,844) verwendet werden. Vorzugsweise sind die randomisierten Werte (zwischen –1,0 und +1,0 bezüglich Schritt 505c oben) über jeden Kanal statistisch gleichmäßig verteilt.
  • Obwohl die nichtlineare indirekte Skalierung aus Schritt 506 sich als nützlich erwiesen hat, ist sie nicht kritisch und können andere geeignete Skalierungen verwendet werden – insbesondere können andere Werte für den Exponenten verwendet werden, um ähnliche Ergebnisse zu erzielen.
  • Wenn der Teilband-Dekorrelations-Skalierungsfaktor-Wert gleich 1 ist, wird ein vollständiger Bereich von Zufallswinkeln von –π bis +π addiert (in welchem Fall die durch Schritt 503 produzierten Block-Teilbandwinkel-Steuerparameterwerte irrelevant gemacht werden). Wenn der Teilband-Dekorrelations-Skalierungsfaktor-Wert zu null hin abnimmt, nimmt auch der randomisierte Winkel-Offset zu null hin ab, was zur Folge hat, dass der Ausgang von Schritt 506 sich zu den von Schritt 503 produzierten Teilbandwinkel-Steuerparameterwerten hin bewegt.
  • Wenn gewünscht, kann der oben beschriebene Codierer auch einen skalierten randomisierten Offset gemäß Verfahren 3 zur vor dem Heruntermischen auf einen Kanal angewendeten Winkelverschiebung addieren. Dies kann die Alias-Auslöschung im Decodierer verbessern. Es kann auch zur Verbesserung des Synchronismus von Codierer und Decodierer vorteilhaft sein.
  • Schritt 507. Randomisierten Phasenwinkel-Offset addieren (Verfahren 2).
  • Gemäß dem oben beschriebenen Verfahren 2, wenn der Transientenmerker keine Transiente anzeigt, für jedes Bin zu allen von Schritt 503 (Schritt 505 funktioniert nur, wenn der Transientenmerker eine Transiente anzeigt) gelieferten Block-Teilbandwinkel-Steuerparametern in einem Rahmen einen anderen durch den Dekorrelations-Skalierungsfaktor skalierten randomisierten Offset-Wert addieren (die Skalierung kann direkt sein wie in diesem Schritt hierin dargelegt):
    • a. Es sei y = Block-Teilband-Dekorrelations-Skalierungsfaktor.
    • b. Es sei x = eine randomisierte Zahl zwischen +1,0 und –1,0, welche für jedes Bin jedes Rahmens separat gewählt ist.
    • c. Dann ist der zwecks Addierens eines randomisierten Winkel-Offset-Werts gemäß Verfahren 3 zum Block-Fachwinkel-Steuerparameter addierte Wert gleich x·pi·y.
  • Anmerkungen zu Schritt 507:
  • Siehe obige Anmerkungen zu Schritt 505 bezüglich des randomisierten Winkel-Offset.
  • Obwohl die direkte Skalierung in Schritt 507 sich als nützlich erwiesen hat, ist sie nicht kritisch und können andere geeignete Skalierungen verwendet werden.
  • Um zeitliche Diskontinuitäten zu minimieren, ändert sich der eindeutige randomisierte Winkelwert für jedes Bin jedes Kanals vorzugsweise nicht mit der Zeit. Die randomisierten Winkelwerte aller Bins in einem Teilband werden mit dem gleichen Teilband-Dekorrelations-Skalierungsfaktor-Wert skaliert, welcher mit dem Rahmentakt aktualisiert wird. Somit wird, wenn der Teilband-Dekorrelations-Skalierungsfaktor-Wert gleich 1 ist, ein vollständiger Bereich von Zufallswinkeln von –π bis +π addiert (in welchem Fall die aus den dequantisierten Rahmen-Teilbandwinkel-Werten hergeleiteten Block-Teilbandwinkel-Werte irrelevant gemacht werden). Wenn der Teilband-Dekorrelations-Skalierungsfaktor-Wert zu null hin abnimmt, nimmt auch der randomisierte Winkel-Offset zu null hin ab. Anders als in Schritt 504 kann die Skalierung in diesem Schritt 507 direkt vom Teilband-Dekorrelations-Skalierungsfaktor-Wert abhängen. Zum Beispiel verringert ein Teilband-Dekorrelations-Skalierungsfaktor-Wert von 0,5 jede Zufallswinkelschwankung proportional um 0,5.
  • Der skalierte randomisierte Winkelwert kann dann zum Fachwinkel aus Decodiererschritt 506 addiert werden. Der Dekorrelations-Skalierungsfaktor-Wert wird einmal pro Rahmen aktualisiert. Bei Vorliegen eines Transientenmerkers für den Rahmen wird dieser Schritt übersprungen, um Transienten-Vorrauschen-Artefakte zu vermeiden.
  • Wenn gewünscht, kann der oben beschriebene Codierer auch einen skalierten randomisierten Offset gemäß Verfahren 2 zur vor dem Heruntermischen angewendeten Winkelverschiebung addieren. Dies kann die Alias-Auslöschung im Decodierer verbessern. Es kann auch zur Verbesserung des Synchronismus von Codierer und Decodierer vorteilhaft sein.
  • Schritt 508. Amplituden-Skalierungsfaktoren normalisieren.
  • Amplituden-Skalierungsfaktoren so über die Kanäle normalisieren, dass sie sich im Quadrat zu 1 summieren.
  • Anmerkung zu Schritt 508:
  • Zum Beispiel wenn zwei Kanäle dequantisierte Skalierungsfaktoren von –3,0 dB (= 2·Granularität von 1,5 dB) (0,70795) haben, beträgt die Summe der Quadrate 1,002. Das Dividieren eines jeden durch die Quadratwurzel von 1,002 = 1,001 ergibt zwei Werte von 0,7072 (–3,01 dB).
  • Schritt 509. Teilband-Skalierungsfaktor-Pegel erhöhen (optional).
  • Optional, wenn der Transientenmerker keine Transiente anzeigt, je nach Teilband-Dekorrelations-Skalierungsfaktor-Pegeln eine leichte zusätzliche Erhöhung auf die Teilband-Skalierungsfaktor-Pegel anwenden: jeden normalisierten Teilband-Amplituden-Skalierungsfaktor mit einem kleinen Faktor multiplizieren (z. B. 1 + 0,2·Teilband-Dekorrelations-Skalierungsfaktor). Wenn der Transientenmerker "wahr" ist, diesen Schritt überspringen.
  • Anmerkung zu Schritt 509:
  • Dieser Schritt kann nützlich sein, weil der Decodierer-Dekorrelationsschritt 507 leicht gesenkte Pegel im abschließenden inversen Filterbankprozess zur Folge haben kann.
  • Schritt 510. Teilband-Amplitudenwerte über Bins verteilen.
  • Schritt 510 kann durch Verteilen des gleichen Teilband-Amplituden-Skalierungsfaktor-Werts auf jedes Bin im Teilband implementiert werden.
  • Schritt 510a. Randomisierten Amplituden-Offset addieren (optional)
  • Optional je nach Teilband-Dekorrelations-Skalierungsfaktor-Pegeln und Transientenmerker eine randomisierte Schwankung auf den normalisierten Teilband-Amplituden-Skalierungsfaktor anwenden. Bei Fehlen einer Transienten einen randomisierten Amplituden-Skalierungsfaktor, welcher sich nicht mit der Zeit ändert, binweise (von Bin zu Bin verschieden) hinzufügen und bei Vorliegen einer Transienten (im Rahmen oder Block) einen randomisierten Amplituden-Skalierungsfaktor, welcher sich blockweise ändert (von Block zu Block verschieden) und sich von Teilband zu Teilband ändert (gleiche Verschiebung für alle Bins in einem Teilband; von Teilband zu Teilband verschieden), hinzufügen. Schritt 510a ist in den Zeichnungen nicht gezeigt.
  • Anmerkung zu Schritt 510a:
  • Obwohl das Maß, in welchem randomisierte Amplitudenverschiebungen hinzugefügt werden, durch den Dekorrelations-Skalierungsfaktor gesteuert werden kann, geht man davon aus, dass ein bestimmter Skalierungsfaktor-Wert eine geringere Amplitudenverschiebung verursachen sollte als die aus dem gleichen Skalierungsfaktor-Wert resultierende entsprechende randomisierte Phasenverschiebung, um hörbare Artefakte zu vermeiden.
  • Schritt 511. Hochmischen.
    • a. Für jedes Bin jedes Ausgangskanals einen komplexen Hochmischungs-Skalierungsfaktor aus der Amplitude des Decodiererschritts 508 und dem Fachwinkel des Decodiererschritts 507 erstellen: (Amplitude·(cos(Winkel) + j sin(Winkel)).
    • b. Für jeden Ausgangskanal den komplexen Fachwert und den komplexen Hochmischungs-Skalierungsfaktor multiplizieren, um den hochgemischten komplexen Ausgangs-Fachwert jedes Bins des Kanals zu produzieren.
  • Schritt 512. Inverse DFT durchführen (optional).
  • Optional eine inverse DFT-Transformation an den Bins jedes Ausgangskanals durchführen, um Mehrkanal-Ausgangs-PCM-Werte zu erhalten. Wie wohlbekannt ist, werden in Verbindung mit einer solchen inversen DFT-Transformation die einzelnen Blocks von Zeitabtastwerten gefenstert und werden benachbarte Blocks überlappt und zusammenaddiert, um das endgültige kontinuierliche Zeit-Ausgangs-PCM-Audiosignal zu rekonstruieren.
  • Anmerkungen zu Schritt 512:
  • Ein Decodierer gemäß der vorliegenden Erfindung muss keine PCM-Ausgänge liefern. Im Fall, in welchem der Decodiererprozess nur oberhalb einer gegebenen Kopplungsfrequenz verwendet wird und für jeden Kanal unterhalb dieser Frequenz diskrete MDCT-Koeffizienten gesendet werden, kann es wünschenswert sein, die durch die Decodierer-Hochmischungs-Schritte 511a und 511b hergeleiteten DFT-Koeffizienten in MDCT-Koeffizienten umzuwandeln, so dass sie mit den diskreten MDCT-Koeffizienten niedrigerer Frequenz kombiniert und erneut quantisiert werden können, um zum Beispiel einen mit einem Codiersystem, welches eine große Anzahl installierter Benutzer hat, kompatiblen Bitstrom wie einen Standard-AC-3-SP/DIF-Bitstrom zur Anwendung auf eine externe Einrichtung, wo eine inverse Transformation durchgeführt werden kann, zu schaffen. Eine inverse DFT-Transformation kann auf einige der Ausgangskanäle angewendet werden, um PCM-Ausgänge zu liefern.
  • Abschnitt 8.2.2 des Dokuments A/52A
  • Mit hinzugefügtem Empfindlichkeitsfaktor "F"
  • 8.2.2. Transientenerfassung
  • Transienten werden in den Vollbandbreiten-Kanälen erfasst, um zu bestimmen, wann auf Audioblocks kurzer Länge umgeschaltet werden soll, um die Vorecho-Leistung zu verbessern. Hochpassgefilterte Versionen der Signale werden auf eine Erhöhung der Energie von einem Teilblock-Zeitsegment zum nächsten untersucht. Teilblocks werden mit verschiedenen Zeitmaßstäben untersucht. Wenn eine Transiente in der zweiten Hälfte eines Audioblocks in einem Kanal erfasst wird, schaltet dieser Kanal auf einen kurzen Block um. Ein Kanal, der eine Blockumschaltung erfährt, verwendet die D45-Exponentenstrategie [d. h. die Daten haben eine grobere Frequenzauflösung, um die aus der Erhöhung der zeitlichen Auflösung resultierenden zusätzlichen Daten zu verringern].
  • Der Transientendetektor wird verwendet, um zu bestimmen, wann von einem langen Transformationsblock (Länge 512) auf den kurzen Block (Länge 256) umgeschaltet werden soll. Er arbeitet mit 512 Abtastwerten für jeden Audioblock. Dies geschieht in zwei Durchläufen, wobei jeder Durchlauf 256 Abtastwerte verarbeitet. Die Transientenerfassung ist in vier Schritte gegliedert: 1) Hochpassfilterung, 2) Segmentierung des Blocks in Teiler, 3) Spitzenamplitudenerfassung in jedem Teilblocksegment und 4) Schwellenvergleich. Der Transientendetektor gibt für jeden Vollbandbreiten-Kanal einen Merker blksw[n] aus, welcher, wenn er auf "eins" gesetzt ist, das Vorliegen einer Transienten in der zweiten Hälfte des Eingangsblocks der Länge 512 für den entsprechenden Kanal anzeigt.
    • 1) Hochpassfilterung: Der Hochpassfilter ist als ein kaskadierter Biquad-Direkt-Form II-IIR-Filter mit einer Eckfrequenz von 8 kHz implementiert.
    • 2) Blocksegmentierung: Der Block von 256 hochpassgefilterten Abtastwerten wird in einen hierarchischen Baum von Ebenen segmentiert, in welchem Ebene 1 den Block der Länge 256 darstellt, Ebene 2 aus zwei Segmenten der Länge 128 besteht und Ebene 3 aus vier Segmenten der Länge 64 besteht.
    • 3) Spitzenerfassung: Der Abtastwert mit dem größten Betrag wird für jedes Segment auf jeder Ebene des hierarchischen Baums identifiziert. Die Spitzen für eine einzige Ebene werden wie folgt gefunden: P[j][k] = max(x(n))für n = (512 × (k – 1)/2^j), (512 × (k – 1)/2^j) + 1, ... (512 × k/2^j) – 1 und k = 1, ..., 2^(j – 1); wobei: x(n) = der n. Abtastwert im Block der Länge 256 j = 1, 2, 3 ist die Nummer der hierarchischen Ebene k = die Segmentnummer in Ebene j Es ist zu beachten, dass P[j][0] (d. h. k = 0) als die Spitze des letzten Segments auf Ebene j des unmittelbar vor dem aktuellen Baum berechneten Baums definiert ist. Zum Beispiel ist P[3][4] im vorherigen Baum P[3][0] im aktuellen Baum.
    • 4) Schwellenvergleich: Die erste Stufe des Schwellenkomparators prüft, um zu ermitteln, ob im aktuellen Block ein merklicher Signalpegel vorliegt. Dies geschieht durch Vergleichen des Gesamt-Spitzenwerts P[1][1] des aktuellen Blocks mit einer "Ruheschwelle". Wenn P[1][1] unterhalb dieser Schwelle liegt, wird ein langer Block erzwungen. Der Ruheschwellenwert ist 100/32768. Die nächste Stufe des Komparators prüft die relativen Spitzenpegel benachbarter Segmente auf jeder Ebene des hierarchischen Baums. Wenn das Spitzenverhältnis zweier beliebiger benachbarter Segmente auf einer bestimmten Ebene eine vordefinierte Schwelle für diese Ebene überschreitet, wird ein Merker gesetzt, um das Vorliegen einer Transienten im aktuellen Block der Länge 256 anzuzeigen. Die Verhältnisse werden wie folgt verglichen: mag(P[j][k]) × T[j] > (F·mag(P[j][(k – 1)])) [Den Empfindlichkeitsfaktor "F" beachten] wobei: T[j] die vordefinierte Schwelle für Ebene j ist, welche definiert ist als: T[1] = 0,1 T[2] = 0,075 T[3] = 0,05
  • Wenn diese Ungleichheit für beliebige zwei Segmentspitzen auf einer beliebigen Ebene zutrifft, wird eine Transiente für die erste Hälfte des Eingangsblocks der Länge 512 angezeigt. Der zweite Durchlauf dieses Prozesses ermittelt das Vorliegen von Transienten in der zweiten Hälfte des Eingangsblocks der Länge 512.
  • N:M-Codierung
  • Aspekte der vorliegenden Erfindung sind nicht auf N:1-Codierung beschränkt, wie in Verbindung mit 1 beschrieben. Allgemeiner sind Aspekte der Erfindung auf die Transformation irgendeiner Anzahl von Eingangskanälen (n Eingangskanäle) in irgendeine Anzahl von Ausgangskanälen (m Ausgangskanäle) auf die in 6 gezeigte Art und Weise (d. h. N:M-Codierung) anwendbar. Weil in vielen gewöhnlichen Anwendungen die Anzahl von Eingangskanälen n größer als die Anzahl von Ausgangskanälen m ist, wird die N:M-Codieranordnung in 6 zwecks bequemerer Beschreibung als "Heruntermischen" bezeichnet.
  • Wie 6 im einzelnen zeigt, können, anstelle des Summierens der Ausgänge von Winkeldreher 8 und Winkeldreher 10 im additiven Kombinator 6 wie in der Anordnung in 1, diese Ausgänge auf eine Heruntermischungsmatrix-Einrichtung oder -Funktion 6' ("Heruntermischungsmatrix") angewendet werden. Heruntermischungsmatrix 6' kann eine passive oder aktive Matrix sein, welche entweder eine einfache Summierung zu einem Kanal wie bei der N:1-Codierung in 1 oder zu mehreren Kanälen bewirkt. Die Matrixkoeffizienten können reell oder komplex (reell und imaginär) sein. Andere Einrichtungen und Funktionen in 6 können die gleichen wie in der Anordnung in 1 sein und tragen die gleichen Bezugszeichen.
  • Heruntermischungsmatrix 6' kann eine hybride frequenzabhängige Funktion bereitstellen, so dass sie zum Beispiel mf1-f2 Kanäle in einem Frequenzbereich f1 bis f2 und mf2-f3 Kanäle in einem Frequenzbereich f2 bis f3 schafft. Zum Beispiel kann die Heruntermischungsmatrix 6' unterhalb einer Kopplungsfrequenz von zum Beispiel 1000 Hz zwei Kanäle liefern und kann die Heruntermischungsmatrix 6' oberhalb der Kopplungsfrequenz einen Kanal liefern. Durch Verwenden von zwei Kanälen unterhalb der Kopplungsfrequenz kann eine bessere räumliche Wiedergabe erzielt werden, vor allem wenn die zwei Kanäle waagerechte Richtungen darstellen (so dass sie der waagerechten Ausrichtung des menschlichen Gehörs entsprechen).
  • Obwohl 6 die Erzeugung der gleichen Sidechain-Informationen für jeden Kanal wie in der Anordnung in 1 zeigt, kann es möglich sein, bestimmte der Sidechain-Informationen wegzulassen, wenn der Ausgang der Heruntermischungsmatrix 6' mehr als einen Kanal liefert. In manchen Fällen können akzeptable Ergebnisse erzielt werden, wenn die Anordnung in 6 nur die Sidechain-Information "Amplituden-Skalierungsfaktor" liefert. Weitere Einzelheiten bezüglich Sidechain-Optionen sind unten in Verbindung mit den Beschreibungen der 7, 8 und 9 erörtert.
  • Wie soeben oben erwähnt, brauchen die von der Heruntermischungsmatrix 6' erzeugten mehreren Kanäle nicht weniger als die Anzahl von Eingangskanälen n zu sein. Wenn der Zweck eines Codierers wie in 6 darin besteht, die Anzahl von Bits zur Übertragung oder Speicherung zu verringern, ist es wahrscheinlich, dass die Anzahl durch Heruntermischungsmatrix 6' produzierter Kanäle kleiner als die Anzahl von Eingangskanälen n ist. Jedoch kann die Anordnung in 6 auch als ein "Hochmischer" verwendet werden. In diesem Fall kann es Anwendungen geben, in welchen die Anzahl von durch die Heruntermischungsmatrix 6' produzierten Kanälen m höher als die Anzahl von Eingangskanälen n ist.
  • Codierer wie in Verbindung mit den Beispielen in den 2, 5 und 6 beschrieben können auch ihren eigenen lokalen Decodierer oder ihre eigene lokale Decodierfunktion enthalten, um zu ermitteln, ob die Audioinformationen und die Sidechain-Informationen bei Decodierung durch einen solchen Decodierer geeignete Ergebnisse liefern würden. Die Ergebnisse einer solchen Ermittlung könnten verwendet werden, um die Parameter durch Verwenden zum Beispiel eines rekursiven Prozesses zu verbessern. In einem Block-Codier- und Decodiersystem könnten Rekursionsberechnungen durchgeführt werden, zum Beispiel an jedem Block vor Ende des nächsten Block, um die Verzögerung beim Übertragen eines Blocks von Audioinformationen und der zugehörigen räumlichen Parameter zu minimieren.
  • Eine Anordnung, in welcher der Codierer auch seinen eigenen Decodierer oder seine eigene Decodierfunktion enthält, könnte auch vorteilhaft verwendet werden, wenn räumliche Parameter nicht nur für bestimmte Blocks gespeichert oder gesendet werden. Wenn eine ungeeignete Decodierung aus dem Nicht-Senden der Sidechain-Information "Raumparameter" resultieren würde, würden eine solche Sidechain-Information für den bestimmten Block gesendet. In diesem Fall kann der Decodierer eine Abänderung des Decodierers oder der Decodierfunktion in den 2, 5 oder 6 sein, insofern als der Decodierer die Fähigkeit hätte, sowohl die Sidechain-Information "Raumparameter" für Frequenzen oberhalb der Kopplungsfrequenz aus dem ankommenden Bitstrom rückzugewinnen als auch eine simulierte Sidechain-Information "Raumparameter" aus der Stereoinformation unterhalb der Kopplungsfrequenz zu erzeugen.
  • In einer vereinfachten Alternative zu solchen Beispielen lokale Decodierer einschließender Codierer könnte der Codierer, statt einen lokalen Decodierer oder eine lokale Decodierfunktion zu haben, einfach prüfen, um zu ermitteln, ob es irgendeinen Signalinhalt unterhalb der Kopplungsfrequenz (auf eine geeignete Weise bestimmt, zum Beispiel eine Summe der Energie in den Frequenzfächern über den Frequenzbereich) gab, und wenn nicht, würde er die Sidechain-Information "Raumparameter" senden oder speichern, statt dies zu unterlassen, wenn die Energie oberhalb der Schwelle läge. Je nach Codierschema können kärgliche Signalinformationen unterhalb der Kopplungsfrequenz auch dazu führen, dass mehr Bits zum Senden von Sidechain-Informationen zur Verfügung stehen.
  • M:N-Decodierung
  • Eine mehr verallgemeinerte Form der Anordnung aus 2 ist in 7 gezeigt, bei welcher eine Hochmischungsmatrix-Funktion oder -Einrichtung ("Hochmischungsmatrix") 20 die von der Anordnung in 6 erzeugten 1 bis m Kanäle empfängt. Die Hochmischungsmatrix 20 kann eine passive Matrix sein. Sie kann, muss aber nicht die Konjugiert-Transponierte (d. h. das Komplement) der Heruntermischungsmatrix 6' der Anordnung in 6 sein. Alternativ kann die Hochmischungsmatrix 20 eine aktive Matrix – eine variable Matrix oder eine passive Matrix in Kombination mit einer variablen Matrix sein. Wenn ein Aktivmatrix-Decodierer verwendet wird, kann er in seinem entspannten Zustand oder Ruhezustand die Konjugiert-Komplexe der Heruntermischungsmatrix sein oder kann er unabhängig von der Heruntermischungsmatrix sein. Die Sidechain-Informationen können wie in 7 gezeigt angewendet werden, um Amplitudeneinstellungs-, Winkeldrehungs- und (optionale) Interpolationsfunktionen oder -einrichtungen zu steuern. In diesem Fall funktioniert die Hochmischungsmatrix, wenn sie eine aktive Matrix ist, unabhängig von den Sidechain-Informationen und spricht sie nur auf die auf sie angewendeten Kanäle an. Alternativ können einige oder sämtliche der Sidechain-Informationen auf die aktive Matrix angewendet werden, um ihre Funktion zu unterstützen. In diesem Fall können einige oder alle der Amplitudeneinstellungs-, Winkeldrehungs- und Interpolationsfunktionen oder -einrichtungen weggelassen werden. Das Decodierer-Beispiel in 7 kann unter bestimmten Signalbedingungen auch die Alternative des Anwendens eines Maßes an randomisierten Amplitudenschwankungen verwenden, wie oben in Verbindung mit 2 und 5 beschrieben.
  • Wenn Hochmischungsmatrix 20 eine aktive Matrix ist, kann die Anordnung in 7 als "Hybridmatrix-Decodierer" zum Arbeiten in einem "Hybridmatrix-Codierer-/Decodierersystem" beschrieben werden. "Hybrid" bezeichnet in diesem Zusammenhang die Tatsache, dass der Decodierer ein gewisses Maß an Steuerinformationen aus seinem Eingangsaudiosignal herleiten kann (d. h. die aktive Matrix spricht auf in den auf sie angewendeten Kanälen codierte räumliche Informationen an) und ein weiteres Maß an Steuerinformationen aus der Sidechain-Information "Raumparameter" herleiten kann. Andere Elemente in 7 entsprechen der Anordnung in 2 und tragen die gleichen Bezugszeichen.
  • Geeignete Aktivmatrix-Decodierer zur Verwendung in einem Hybridmatrix-Decodierer können Aktivmatrix-Decodierer wie die oben erwähnten und durch Bezugnahme einbezogenen einschließlich zum Beispiel als "Pro Logic"- und "Pro Logic II"-Decodierer bekannter Matrix-Decodierer enthalten ("Pro Logic" ist ein Warenzeichen der Dolby Laboratories Licensing Corporation).
  • Alternative Dekorrelation
  • 8 und 9 zeigen Abarten des verallgemeinerten Decodierers in 7. Insbesondere zeigen sowohl die Anordnung in 8 als auch die Anordnung in 9 Alternativen zum Dekorrelationsverfahren in den 2 und 7. In 8 liegen jeweilige Dekorrelationsfunktionen oder -einrichtungen ("Dekorrelatoren") 46 und 48, jeweils nach der inversen Filterbank 30 beziehungsweise 36 in ihrem Kanal, in der Zeitdomäne. In 9 liegen jeweilige Dekorrelationsfunktionen oder -einrichtungen ("Dekorrelatoren") 50 und 52, jeweils vor der inversen Filterbank 30 beziehungsweise 36 in ihrem Kanal, in der Frequenzdomäne. In den beiden Anordnungen der 8 und 9 hat jeder der Dekorrelatoren (46, 48, 50, 52) eine eindeutige Charakteristik, so dass ihre Ausgänge bezüglich einander wechselseitig dekorreliert sind. Der Dekorrelations-Skalierungsfaktor kann verwendet werden, um zum Beispiel das in jedem Kanal vorhandene Verhältnis von dekorreliertem zu unkorreliertem Signal zu steuern. Optional kann der Transientenmerker auch verwendet werden, um den Betriebsmodus des Dekorrelators umzustellen, wie unten erläutert. In den beiden Anordnungen der 8 und 9 kann jeder Dekorrelator eine Schroeder-Nachhalleinrichtung mit ihrer eigenen eindeutigen Filtercharakteristik sein, in welcher das Maß oder Ausmaß an Nachhall durch den Dekorrelations-Skalierungsfaktor gesteuert wird (zum Beispiel durch Steuern des Maßes, in welchem der Dekorrelatorausgang einen Teil einer Linearkombination von Dekorrelatoreingang und -ausgang bildet, implementiert). Alternativ können andere steuerbare Dekorrelationsverfahren entweder allein oder in Kombination miteinander oder mit einer Schroeder-Nachhalleinrichtung verwendet werden. Schroeder-Nachhalleinrichtungen sind wohlbekannt und gehen auf zwei Zeitschriftenveröffentlichungen zurück: "'Colorless' Artificial Reverberation" von M. R. Schroeder und B. F. Logan, IRE Transactions on Audio, Vol. AU-9, S. 209–214, 1961 und "Natural Sounding Artificial Reverberation" von M. R. Schroeder, Journal A. E. S., Juli 1962, Vol. 10, Nr. 2, S. 219–223.
  • Wenn die Dekorrelatoren 46 und 48 in der Zeitdomäne arbeiten wie in der Anordnung in 8, ist ein einziger (d. h. Breitband-) Dekorrelations-Skalierungsfaktor erforderlich. Dieser lässt sich auf eine von verschiedenen Arten und Weisen gewinnen. Zum Beispiel muss nur ein einziger Dekorrelations-Skalierungsfaktor im Codierer in 1 oder 7 erzeugt werden. Alternativ können, wenn der Codierer in 1 oder 7 Dekorrelations-Skalierungsfaktoren teilbandweise erzeugt, die Teilband-Dekorrelations-Skalierungsfaktoren im Codierer in 1 oder 7 oder im Decodierer in 8 amplituden- oder leistungssummiert werden.
  • Wenn die Dekorrelatoren 50 und 52 in der Frequenzdomäne arbeiten wie in der Anordnung in 9, können sie einen Dekorrelations-Skalierungsfaktor für jedes Teilband oder Gruppen von Teilbändern empfangen und gleichzeitig ein gleich großes Maß an Dekorrelation für solche Teilbänder oder Gruppen von Teilbändern schaffen.
  • Die Dekorrelatoren 46 und 48 in 8 und die Dekorrelatoren 50 und 52 in 9 können den Transientenmerker optional empfangen. In den Zeitdomänen-Dekorrelatoren in 8 kann der Transientenmerker verwendet werden, um den Betriebsmodus des jeweiligen Dekorrelators umzustellen. Zum Beispiel kann der Dekorrelator bei Fehlen des Transientenmerkers als eine Schroeder-Nachhalleinrichtung arbeiten, aber bei dessen Empfang und für eine anschließende kurze Zeitperiode, angenommen 1 bis 10 Millisekunden, als eine feste Verzögerung arbeiten. Jeder Kanal kann eine vorbestimmte feste Verzögerung haben oder die Verzögerung kann, als Reaktion auf eine Vielzahl von Transienten in einer kurzen Zeitperiode, verändert werden. In den Frequenzdomänen-Dekorrelatoren in 9 kann der Transientenmerker auch verwendet werden, um den Betriebsmodus des jeweiligen Dekorrelators umzustellen. In diesem Fall jedoch kann der Empfang eines Transientenmerkers zum Beispiel einen kurzen (mehrere Millisekunden) Anstieg der Amplitude in dem Kanal, in welchem der Merker auftrat, auslösen.
  • In den beiden Anordnungen der 8 und 9 kann ein durch den optionalen Transientenmerker gesteuerter Interpolator 27 (33) eine Interpolation über die Frequenz der Phasenwinkel aus Winkeldreher 28 (33) auf eine Weise wie oben beschrieben ausführen.
  • Wie oben erwähnt, kann es, wenn zwei oder mehr Kanäle zusätzlich zu den Sidechain-Informationen gesendet werden, akzeptabel sein, die Anzahl von Sidechain-Parametern zu verringern. Zum Beispiel kann es akzeptabel sein, nur den Amplituden-Skalierungsfaktor zu senden, in welchem Fall die Dekorrelations- und Winkeleinrichtungen oder -funktionen im Decodierer weggelassen werden können (in diesem Fall reduzieren sich die 7, 8 und 9 auf die gleiche Anordnung).
  • Alternativ können nur der Amplituden-Skalierungsfaktor, der Dekorrelations-Skalierungsfaktor und optional der Transientenmerker gesendet werden. In diesem Fall kann jede beliebige der Anordnungen in den 7, 8 oder 9 verwendet werden (wobei die Winkeldreher 28 und 34 in jeder der Figuren weggelassen werden).
  • Als eine andere Alternative können nur der Amplituden-Skalierungsfaktor und der Winkel-Steuerparameter gesendet werden. In diesem Fall kann jede beliebige der Anordnungen in den 7, 8 oder 9 verwendet werden (wobei die Dekorrelatoren 38 und 42 in 7 und 46, 48, 50, 52 in den 8 und 9 weggelassen werden).
  • Wie in den 1 und 2 sollen die Anordnungen in den 69 eine beliebige Anzahl von Eingangs- und Ausgangskanälen aufweisen, obwohl zur Vereinfachung der Darstellung nur zwei Kanäle gezeigt sind.
  • Es wird beabsichtigt, mit der vorliegenden Erfindung jegliche Abänderungen, Variationen oder Äquivalente einzuschließen, welche in den Schutzumfang der beigefügten Patentansprüche fallen.

Claims (33)

  1. Verfahren zum Codieren von N Eingangsaudiokanälen in M codierte Audiokanäle, wobei N zwei oder mehr ist, sowie eine Gruppe von einem oder mehreren räumlichen Parametern in Beziehung zu den N Eingangsaudiokanälen, welches Verfahren enthält a) Herleiten von M Audiosignalen aus den N Eingangsaudiokanälen, b) Bestimmen einer Gruppe von einem oder mehreren räumlichen Parametern, die räumliche Eigenschaften der N Eingangsaudiokanäle angeben, und c) Erzeugen von M codierten Signalen, die die in Schritt a) hergeleiteten M Audiosignale und die Gruppe der in Schritt b) bestimmten räumlichen Parameter enthalten, dadurch gekennzeichnet, dass M eins oder mehr ist und Schritt b) die Bestimmung der Gruppe eines oder mehrerer räumlicher Parameter in der Weise enthält, dass sie einen ersten Parameter enthält, der auf Maße der spektralen Stabilität innerhalb eines Kanals, welches ein Maß des Ausmaßes ist, in dem sich Spektralkomponenten über die Zeit verändern, und die Ähnlichkeit von Phasenwinkeln zwischen den Kanälen anspricht.
  2. Verfahren nach Anspruch 1, bei welchem das Maß der spektralen Stabilität innerhalb eines Kanals ein Maß von Veränderungen der Amplitude oder Energie von Spektralkomponenten in einem ersten Eingangskanal über die Zeit ist.
  3. Verfahren nach Anspruch 1 oder Anspruch 2, bei welchem das Maß der Ähnlichkeit von Phasenwinkeln zwischen den Kanälen ein Maß der Ähnlichkeit der Phasenwinkel zwischen den Kanälen von Spektralkomponenten eines ersten Eingangsaudiokanals relativ zu den entsprechenden Spektralkomponenten eines anderen Eingangsaudiokanals ist.
  4. Verfahren nach einem der Ansprüche 1–3, bei welchem die Gruppe der Parameter ferner einen weiteren Parameter enthält, der auf die Phasenwinkel von Spektralkomponenten in einem ersten Eingangsaudiokanal relativ zu Phasenwinkeln von entsprechenden Spektralkomponenten in einem anderen Eingangsaudiokanal anspricht.
  5. Verfahren nach Anspruch 4, bei welchem die M Audiosignale aus den N Eingangsaudiokanälen durch einen Prozess hergeleitet werden, der das Modifizieren mindestens eines der N Eingangsaudiokanäle ansprechend auf eine Funktion des weiteren Parameters einschließt.
  6. Verfahren nach Anspruch 5, bei welchem das Modifizieren Phasenwinkel von Spektralkomponenten des mindestens einen der N Eingangsaudiokanäle modifiziert.
  7. Verfahren nach einem der Ansprüche 1–6, bei welchem mehrere Audiosignale aus den N Eingangsaudiokanälen durch einen Prozess hergeleitet werden, der das passive oder das aktive Matrizieren der N Eingangsaudiokanäle einschließt.
  8. Verfahren nach einem der Ansprüche 1 bis 7, bei welchem die Gruppe der Parameter ferner einen Parameter einschließt, der auf das Auftreten einer Transienten in einem ersten Eingangsaudiokanal anspricht.
  9. Verfahren nach einem der Ansprüche 1 bis 8, bei welchem die Gruppe der Parameter ferner einen Parameter einschließt, der auf die Amplitude oder Energie eines ersten Eingangsaudiokanals anspricht.
  10. Verfahren nach einem der Ansprüche 1 bis 9, bei welchem das Maß der spektralen Stabilität innerhalb eines Kanals in Bezug auf Spektralkomponenten in einem Frequenzband des ersten Eingangskanals steht und das Maß der Ähnlichkeit von Phasenwinkeln zwischen den Kanälen in Bezug auf Spektralkomponenten in dem Frequenzband des ersten Eingangskanals relativ zu Spektralkomponenten in einem entsprechenden Frequenzband des anderen Eingangskanals steht.
  11. Verfahren zum Decodieren von M codierten Audiokanälen, die N Audiokanäle darstellen, wobei N zwei oder mehr ist, sowie eine Gruppe von einem oder mehreren räumlichen Parametern in Bezug auf die N Audiokanäle, welches Verfahren enthält a) Empfangen der M codierten Audiokanäle und der Gruppe von räumlichen Parametern, die räumliche Eigenschaften der N Audiokanäle angeben, b) Herleiten von N Audiokanälen aus den M codierten Audiokanälen, wobei ein Audiosignal in jedem Audiokanal in eine Vielzahl von Frequenzbändern unterteilt wird, wobei jedes Band einen oder mehrere Spektralkomponenten aufweist, und c) Erzeugen eines Mehrkanal-Ausgangsignals aus den N Audiokanälen und den räumlichen Parametern, dadurch gekennzeichnet, dass M eins oder mehr ist, und die Gruppe räumlicher Parameter einen ersten Parameter einschließt, der auf Maße der spektralen Stabilität innerhalb eines Kanals, das ein Maß des Ausmaßes ist, in dem sich Spektralkomponenten über die Zeit verändern, und die Ähnlichkeit von Phasenwinkeln zwischen den Kanälen anspricht, und Schritt c) das Verschieben der Phasenwinkel von Spektralkomponenten in dem Audiosignal in mindestens einem der N Audiokanäle ansprechend auf einen oder mehrere der räumlichen Parameter einschließt, wobei die Verschiebung mindestens teilweise in Übereinstimmung mit dem ersten Parameter erfolgt.
  12. Verfahren nach Anspruch 11, bei welchem die N Audiokanäle aus den M codierten Audiokanälen durch einen Prozess hergeleitet werden, der das passive oder das aktive Dematrizieren der M codierten Audiokanäle einschließt.
  13. Verfahren nach Anspruch 11, bei welchem M zwei oder mehr ist und die N Audiokanäle aus den M codierten Audiokanälen durch einen Prozess hergeleitet werden, der das aktive Dematrizieren der M codierten Audiokanäle einschließt.
  14. Verfahren nach Anspruch 13, bei welchem das Dematrizieren mindestens teilweise ansprechend auf Charakteristika der M codierten Audiokanäle arbeitet.
  15. Verfahren nach Anspruch 13 oder Anspruch 14, bei welchem das Dematrizieren mindestens teilweise ansprechend auf einen oder einige der räumlichen Parameter arbeitet.
  16. Verfahren nach Anspruch 11, bei welchem die Verschiebung in Übereinstimmung mit einem ersten Betriebsmodus oder einem zweiten Betriebsmodus durchgeführt wird, die Verschiebung der Phasenwinkel von Spektralkomponenten in dem Audiosignal in Übereinstimmung mit einem ersten Betriebsmodus das Verschieben der Phasenwinkel der Spektralkomponenten in dem Audiosignal in Übereinstimmung mit einer ersten Frequenzauflösung und einer ersten Zeitauflösung einschließt und die Verschiebung der Phasenwinkel der Spektralkomponenten in dem Audiosignal in Übereinstimmung mit einem zweiten Betriebsmodus das Verschieben der Phasenwinkel von Spektralkomponenten in dem Audiosignal in Übereinstimmung mit einer zweiten Frequenzauflösung und einer zweiten Zeitauflösung einschließt.
  17. Verfahren nach Anspruch 16, bei welchem die zweite Zeitauflösung feiner als die erste Zeitauflösung ist.
  18. Verfahren nach Anspruch 16, bei welchem die zweite Frequenzauflösung gröber als oder gleich wie die erste Frequenzauflösung ist und die zweite Zeitauflösung feiner als die erste Zeitauflösung ist.
  19. Verfahren nach Anspruch 17, bei welchem die erste Frequenzauflösung feiner als die Frequenzauflösung der räumlichen Parameter ist.
  20. Verfahren nach Anspruch 18 oder Anspruch 19, bei welchem die zweite Zeitauflösung feiner als die Zeitauflösung der räumlichen Parameter ist.
  21. Verfahren nach Anspruch 11, bei welchem die Verschiebung in Übereinstimmung mit einem ersten Betriebsmodus oder einem zweiten Betriebsmodus durchgeführt wird, welcher erste Betriebsmodus das Verschieben der Phasenwinkel von Spektralkomponenten in mindestens einem oder mehreren der Vielzahl von Frequenzbändern einschließt, wobei jede Spektralkomponente um einen unterschiedlichen Winkel verschoben wird, welcher Winkel im wesentlichen zeitlich unveränderlich ist, und der zweite Betriebsmodus das Verschieben der Phasenwinkel aller Spektralkomponenten in dem mindestens einen oder in mehreren der Vielzahl der Frequenzbänder um denselben Winkel einschließt, wobei eine unterschiedliche Phasenwinkelverschiebung an jedes Frequenzband angelegt wird, in welchem Phasenwinkel verschoben werden, und welche Phasenwinkelverschiebung über die Zeit variiert.
  22. Verfahren nach Anspruch 21, bei welchem im zweiten Betriebsmodus die Phasenwinkel von Spektralkomponenten innerhalb eines Frequenzbands interpoliert werden, um die Phasenwinkelveränderungen von Spektralkomponente zu Spektralkomponente über eine Frequenzbandgrenze zu reduzieren.
  23. Verfahren nach Anspruch 11, bei welchem die Verschiebung in Übereinstimmung mit einem ersten Betriebsmodus oder einem zweiten Betriebsmodus durchgeführt wird, wobei der erste Betriebsmodus das Verschieben der Phasenwinkel von Spektralkomponenten in mindestens einem oder mehreren der Vielzahl von Frequenzbändern umfasst, wobei jede Spektralkomponente um einen unterschiedlichen Winkel verschoben wird, welcher Winkel im wesentlichen zeitlich unveränderlich ist, und der zweite Betriebsmodus kein Verschieben der Phasenwinkel von Spektralkomponenten umfasst.
  24. Verfahren einem der Ansprüche 16–23, wobei die Verschiebung der Phasenwinkel von Spektralkomponenten ein randomisiertes Verschieben einschließt.
  25. Verfahren nach Anspruch 24, bei welchem das Ausmaß des randomisierten Verschiebens steuerbar ist.
  26. Verfahren nach einem der Ansprüche 16–25, ferner enthaltend das Verschieben der Größen von Spektralkomponenten in dem Audiosignal ansprechend auf einen oder einige der räumlichen Parameter in Übereinstimmung mit einem ersten Betriebsmodus und einem zweiten Betriebsmodus.
  27. Verfahren nach Anspruch 26, bei welchem das Verschieben der Größe ein randomisiertes Verschieben einschließt.
  28. Verfahren nach Anspruch 26 oder Anspruch 27, bei welchem das Ausmaß der Verschiebung der Größe steuerbar ist.
  29. Verfahren nach einem der Ansprüche 16–28, bei welchem die Auswahl des Betriebsmodus auf das Audiosignal anspricht.
  30. Verfahren nach Anspruch 29, bei welchem die Auswahl des Betriebsmodus auf das Vorhandensein einer Transienten in dem Audiosignal anspricht.
  31. Verfahren nach einem der Ansprüche 16–30, bei welchem die Auswahl des Betriebsmodus auf ein Steuersignal anspricht.
  32. Verfahren nach einem der Ansprüche 11 bis 31, bei welchem das Mehrkanal-Ausgangssignal in der Zeitdomäne ist.
  33. Verfahren nach einem der Ansprüche 11 bis 31, bei welchem das Mehrkanal-Ausgangssignal in der Frequenzdomäne ist.
DE602005005640T 2004-03-01 2005-02-28 Mehrkanalige audiocodierung Active DE602005005640T2 (de)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US54936804P 2004-03-01 2004-03-01
US549368P 2004-03-01
US57997404P 2004-06-14 2004-06-14
US579974P 2004-06-14
US58825604P 2004-07-14 2004-07-14
US588256P 2004-07-14
PCT/US2005/006359 WO2005086139A1 (en) 2004-03-01 2005-02-28 Multichannel audio coding

Publications (2)

Publication Number Publication Date
DE602005005640D1 DE602005005640D1 (de) 2008-05-08
DE602005005640T2 true DE602005005640T2 (de) 2009-05-14

Family

ID=34923263

Family Applications (3)

Application Number Title Priority Date Filing Date
DE602005014288T Active DE602005014288D1 (de) 2004-03-01 2005-02-28 Mehrkanalige Audiodekodierung
DE602005005640T Active DE602005005640T2 (de) 2004-03-01 2005-02-28 Mehrkanalige audiocodierung
DE602005022641T Active DE602005022641D1 (de) 2004-03-01 2005-02-28 Mehrkanal-Audiodekodierung

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE602005014288T Active DE602005014288D1 (de) 2004-03-01 2005-02-28 Mehrkanalige Audiodekodierung

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE602005022641T Active DE602005022641D1 (de) 2004-03-01 2005-02-28 Mehrkanal-Audiodekodierung

Country Status (17)

Country Link
US (18) US8983834B2 (de)
EP (4) EP1721312B1 (de)
JP (1) JP4867914B2 (de)
KR (1) KR101079066B1 (de)
CN (3) CN102176311B (de)
AT (4) ATE527654T1 (de)
AU (2) AU2005219956B2 (de)
BR (1) BRPI0508343B1 (de)
CA (11) CA2992065C (de)
DE (3) DE602005014288D1 (de)
ES (1) ES2324926T3 (de)
HK (4) HK1092580A1 (de)
IL (1) IL177094A (de)
MY (1) MY145083A (de)
SG (3) SG10202004688SA (de)
TW (3) TWI498883B (de)
WO (1) WO2005086139A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019219922A1 (de) * 2019-12-17 2021-06-17 Volkswagen Aktiengesellschaft Verfahren zur Übertragung einer Mehrzahl an Signalen sowie Verfahren zum Empfang einer Mehrzahl an Signalen

Families Citing this family (272)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7644282B2 (en) 1998-05-28 2010-01-05 Verance Corporation Pre-processed information embedding system
US6737957B1 (en) 2000-02-16 2004-05-18 Verance Corporation Remote control signaling using audio watermarks
US7711123B2 (en) 2001-04-13 2010-05-04 Dolby Laboratories Licensing Corporation Segmenting audio signals into auditory events
US7461002B2 (en) 2001-04-13 2008-12-02 Dolby Laboratories Licensing Corporation Method for time aligning audio signals using characterizations based on auditory events
US7610205B2 (en) 2002-02-12 2009-10-27 Dolby Laboratories Licensing Corporation High quality time-scaling and pitch-scaling of audio signals
US7283954B2 (en) 2001-04-13 2007-10-16 Dolby Laboratories Licensing Corporation Comparing audio using characterizations based on auditory events
US7240001B2 (en) 2001-12-14 2007-07-03 Microsoft Corporation Quality improvement techniques in an audio encoder
US6934677B2 (en) 2001-12-14 2005-08-23 Microsoft Corporation Quantization matrices based on critical band pattern information for digital audio wherein quantization bands differ from critical bands
US7502743B2 (en) 2002-09-04 2009-03-10 Microsoft Corporation Multi-channel audio encoding and decoding with multi-channel transform selection
AU2003282763A1 (en) 2002-10-15 2004-05-04 Verance Corporation Media monitoring, management and information system
US7369677B2 (en) * 2005-04-26 2008-05-06 Verance Corporation System reactions to the detection of embedded watermarks in a digital host content
US20060239501A1 (en) 2005-04-26 2006-10-26 Verance Corporation Security enhancements of digital watermarks for multi-media content
US7460990B2 (en) 2004-01-23 2008-12-02 Microsoft Corporation Efficient coding of digital media spectral data using wide-sense perceptual similarity
WO2007109338A1 (en) * 2006-03-21 2007-09-27 Dolby Laboratories Licensing Corporation Low bit rate audio encoding and decoding
SG10202004688SA (en) 2004-03-01 2020-06-29 Dolby Laboratories Licensing Corp Multichannel Audio Coding
ATE444549T1 (de) * 2004-07-14 2009-10-15 Koninkl Philips Electronics Nv Tonkanalkonvertierung
US7508947B2 (en) * 2004-08-03 2009-03-24 Dolby Laboratories Licensing Corporation Method for combining audio signals using auditory scene analysis
TWI393120B (zh) * 2004-08-25 2013-04-11 Dolby Lab Licensing Corp 用於音訊信號編碼及解碼之方法和系統、音訊信號編碼器、音訊信號解碼器、攜帶有位元流之電腦可讀取媒體、及儲存於電腦可讀取媒體上的電腦程式
TWI393121B (zh) 2004-08-25 2013-04-11 Dolby Lab Licensing Corp 處理一組n個聲音信號之方法與裝置及與其相關聯之電腦程式
KR101261212B1 (ko) 2004-10-26 2013-05-07 돌비 레버러토리즈 라이쎈싱 코오포레이션 오디오 신호 처리 방법 및 장치
SE0402652D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Methods for improved performance of prediction based multi- channel reconstruction
SE0402651D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Advanced methods for interpolation and parameter signalling
US7573912B2 (en) * 2005-02-22 2009-08-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschunng E.V. Near-transparent or transparent multi-channel encoder/decoder scheme
DE102005014477A1 (de) 2005-03-30 2006-10-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines Datenstroms und zum Erzeugen einer Multikanal-Darstellung
US7983922B2 (en) 2005-04-15 2011-07-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for generating multi-channel synthesizer control signal and apparatus and method for multi-channel synthesizing
US7418394B2 (en) * 2005-04-28 2008-08-26 Dolby Laboratories Licensing Corporation Method and system for operating audio encoders utilizing data from overlapping audio segments
WO2006126843A2 (en) 2005-05-26 2006-11-30 Lg Electronics Inc. Method and apparatus for decoding audio signal
JP4988717B2 (ja) 2005-05-26 2012-08-01 エルジー エレクトロニクス インコーポレイティド オーディオ信号のデコーディング方法及び装置
AU2006255662B2 (en) 2005-06-03 2012-08-23 Dolby Laboratories Licensing Corporation Apparatus and method for encoding audio signals with decoding instructions
US8020004B2 (en) 2005-07-01 2011-09-13 Verance Corporation Forensic marking using a common customization function
US8781967B2 (en) 2005-07-07 2014-07-15 Verance Corporation Watermarking in an encrypted domain
JP5009910B2 (ja) * 2005-07-22 2012-08-29 フランス・テレコム レートスケーラブル及び帯域幅スケーラブルオーディオ復号化のレートの切り替えのための方法
TWI396188B (zh) 2005-08-02 2013-05-11 Dolby Lab Licensing Corp 依聆聽事件之函數控制空間音訊編碼參數的技術
US7917358B2 (en) * 2005-09-30 2011-03-29 Apple Inc. Transient detection by power weighted average
WO2007040353A1 (en) * 2005-10-05 2007-04-12 Lg Electronics Inc. Method and apparatus for signal processing
KR100857119B1 (ko) * 2005-10-05 2008-09-05 엘지전자 주식회사 신호 처리 방법 및 이의 장치, 그리고 인코딩 및 디코딩방법 및 이의 장치
US7974713B2 (en) * 2005-10-12 2011-07-05 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Temporal and spatial shaping of multi-channel audio signals
WO2007043843A1 (en) 2005-10-13 2007-04-19 Lg Electronics Inc. Method and apparatus for processing a signal
EP1946308A4 (de) * 2005-10-13 2010-01-06 Lg Electronics Inc Methode und vorrichtung zur signalverarbeitung
EP1952392B1 (de) 2005-10-20 2016-07-20 LG Electronics Inc. Verfahren, vorrichtung und computerlesbares medium zum decodieren eines mehrkanal-audiosignals
US8620644B2 (en) * 2005-10-26 2013-12-31 Qualcomm Incorporated Encoder-assisted frame loss concealment techniques for audio coding
US7676360B2 (en) * 2005-12-01 2010-03-09 Sasken Communication Technologies Ltd. Method for scale-factor estimation in an audio encoder
TWI420918B (zh) * 2005-12-02 2013-12-21 Dolby Lab Licensing Corp 低複雜度音訊矩陣解碼器
JP4814344B2 (ja) 2006-01-19 2011-11-16 エルジー エレクトロニクス インコーポレイティド メディア信号の処理方法及び装置
US8190425B2 (en) * 2006-01-20 2012-05-29 Microsoft Corporation Complex cross-correlation parameters for multi-channel audio
US7953604B2 (en) * 2006-01-20 2011-05-31 Microsoft Corporation Shape and scale parameters for extended-band frequency coding
US7831434B2 (en) * 2006-01-20 2010-11-09 Microsoft Corporation Complex-transform channel coding with extended-band frequency coding
JP4951985B2 (ja) * 2006-01-30 2012-06-13 ソニー株式会社 音声信号処理装置、音声信号処理システム、プログラム
KR20080093419A (ko) 2006-02-07 2008-10-21 엘지전자 주식회사 부호화/복호화 장치 및 방법
DE102006006066B4 (de) * 2006-02-09 2008-07-31 Infineon Technologies Ag Vorrichtung und Verfahren zur Detektion von Audio-Signalrahmen
KR101001835B1 (ko) 2006-03-28 2010-12-15 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 멀티 채널 오디오 재구성에서 신호 셰이핑을 위한 개선 방법
TWI517562B (zh) 2006-04-04 2016-01-11 杜比實驗室特許公司 用於將多聲道音訊信號之全面感知響度縮放一期望量的方法、裝置及電腦程式
DE602006010323D1 (de) 2006-04-13 2009-12-24 Fraunhofer Ges Forschung Audiosignaldekorrelator
UA93243C2 (ru) 2006-04-27 2011-01-25 ДОЛБИ ЛЕБОРЕТЕРИЗ ЛАЙСЕНСИНГ КОРПОРЕЙШи Регулирование усиления звука c использованием основанного ha конкретной громкости выявления аккустических событий
EP1853092B1 (de) * 2006-05-04 2011-10-05 LG Electronics, Inc. Verbesserung von Stereo-Audiosignalen mittels Neuabmischung
US9418667B2 (en) 2006-10-12 2016-08-16 Lg Electronics Inc. Apparatus for processing a mix signal and method thereof
UA94968C2 (ru) 2006-10-20 2011-06-25 Долби Леборетериз Лайсенсинг Корпорейшн Обработка динамических свойств аудио с использованием перенастройки
CN101536086B (zh) 2006-11-15 2012-08-08 Lg电子株式会社 用于解码音频信号的方法和装置
JP5270566B2 (ja) 2006-12-07 2013-08-21 エルジー エレクトロニクス インコーポレイティド オーディオ処理方法及び装置
US8265941B2 (en) 2006-12-07 2012-09-11 Lg Electronics Inc. Method and an apparatus for decoding an audio signal
EP2595152A3 (de) * 2006-12-27 2013-11-13 Electronics and Telecommunications Research Institute Transkodiervorrichtung
US8200351B2 (en) * 2007-01-05 2012-06-12 STMicroelectronics Asia PTE., Ltd. Low power downmix energy equalization in parametric stereo encoders
WO2008100503A2 (en) * 2007-02-12 2008-08-21 Dolby Laboratories Licensing Corporation Improved ratio of speech to non-speech audio such as for elderly or hearing-impaired listeners
BRPI0807703B1 (pt) 2007-02-26 2020-09-24 Dolby Laboratories Licensing Corporation Método para aperfeiçoar a fala em áudio de entretenimento e meio de armazenamento não-transitório legível por computador
DE102007018032B4 (de) * 2007-04-17 2010-11-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Erzeugung dekorrelierter Signale
CN101809654B (zh) 2007-04-26 2013-08-07 杜比国际公司 供合成输出信号的装置和方法
EP2158587A4 (de) 2007-06-08 2010-06-02 Lg Electronics Inc Verfahren und vorrichtung zum verarbeiten eines audiosignals
US7953188B2 (en) * 2007-06-25 2011-05-31 Broadcom Corporation Method and system for rate>1 SFBC/STBC using hybrid maximum likelihood (ML)/minimum mean squared error (MMSE) estimation
US7885819B2 (en) 2007-06-29 2011-02-08 Microsoft Corporation Bitstream syntax for multi-process audio decoding
US8396574B2 (en) 2007-07-13 2013-03-12 Dolby Laboratories Licensing Corporation Audio processing using auditory scene analysis and spectral skewness
US8135230B2 (en) * 2007-07-30 2012-03-13 Dolby Laboratories Licensing Corporation Enhancing dynamic ranges of images
US8385556B1 (en) * 2007-08-17 2013-02-26 Dts, Inc. Parametric stereo conversion system and method
WO2009045649A1 (en) * 2007-08-20 2009-04-09 Neural Audio Corporation Phase decorrelation for audio processing
US9495971B2 (en) 2007-08-27 2016-11-15 Telefonaktiebolaget Lm Ericsson (Publ) Transient detector and method for supporting encoding of an audio signal
KR101290394B1 (ko) 2007-10-17 2013-07-26 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 다운믹스를 이용한 오디오 코딩
US8600532B2 (en) * 2007-12-09 2013-12-03 Lg Electronics Inc. Method and an apparatus for processing a signal
WO2009086174A1 (en) 2007-12-21 2009-07-09 Srs Labs, Inc. System for adjusting perceived loudness of audio signals
WO2009084920A1 (en) * 2008-01-01 2009-07-09 Lg Electronics Inc. A method and an apparatus for processing a signal
KR101449434B1 (ko) * 2008-03-04 2014-10-13 삼성전자주식회사 복수의 가변장 부호 테이블을 이용한 멀티 채널 오디오를부호화/복호화하는 방법 및 장치
BRPI0906142B1 (pt) * 2008-03-10 2020-10-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. dispositivo e método para a manipulação de um sinal de áudio tendo um evento transiente
EP2254110B1 (de) * 2008-03-19 2014-04-30 Panasonic Corporation Stereosignalkodiergerät, stereosignaldekodiergerät und verfahren dafür
KR101599875B1 (ko) * 2008-04-17 2016-03-14 삼성전자주식회사 멀티미디어의 컨텐트 특성에 기반한 멀티미디어 부호화 방법 및 장치, 멀티미디어의 컨텐트 특성에 기반한 멀티미디어 복호화 방법 및 장치
KR20090110244A (ko) * 2008-04-17 2009-10-21 삼성전자주식회사 오디오 시맨틱 정보를 이용한 오디오 신호의 부호화/복호화 방법 및 그 장치
KR20090110242A (ko) * 2008-04-17 2009-10-21 삼성전자주식회사 오디오 신호를 처리하는 방법 및 장치
US8605914B2 (en) * 2008-04-17 2013-12-10 Waves Audio Ltd. Nonlinear filter for separation of center sounds in stereophonic audio
KR101061129B1 (ko) * 2008-04-24 2011-08-31 엘지전자 주식회사 오디오 신호의 처리 방법 및 이의 장치
US8060042B2 (en) * 2008-05-23 2011-11-15 Lg Electronics Inc. Method and an apparatus for processing an audio signal
US8630848B2 (en) * 2008-05-30 2014-01-14 Digital Rise Technology Co., Ltd. Audio signal transient detection
WO2009146734A1 (en) * 2008-06-03 2009-12-10 Nokia Corporation Multi-channel audio coding
US8355921B2 (en) * 2008-06-13 2013-01-15 Nokia Corporation Method, apparatus and computer program product for providing improved audio processing
US8259938B2 (en) 2008-06-24 2012-09-04 Verance Corporation Efficient and secure forensic marking in compressed
JP5110529B2 (ja) * 2008-06-27 2012-12-26 日本電気株式会社 物標探査装置、物標探査プログラム及び物標探査方法
KR101428487B1 (ko) * 2008-07-11 2014-08-08 삼성전자주식회사 멀티 채널 부호화 및 복호화 방법 및 장치
EP2144229A1 (de) * 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Effiziente Nutzung von Phaseninformationen beim Audio-Codieren und -Decodieren
KR101381513B1 (ko) 2008-07-14 2014-04-07 광운대학교 산학협력단 음성/음악 통합 신호의 부호화/복호화 장치
EP2154910A1 (de) * 2008-08-13 2010-02-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zum Mischen von Raumtonströmen
EP2154911A1 (de) 2008-08-13 2010-02-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur Bestimmung eines räumlichen Mehrkanalausgangsaudiosignals
WO2010036059A2 (en) 2008-09-25 2010-04-01 Lg Electronics Inc. A method and an apparatus for processing a signal
KR101108060B1 (ko) * 2008-09-25 2012-01-25 엘지전자 주식회사 신호 처리 방법 및 이의 장치
US8346380B2 (en) 2008-09-25 2013-01-01 Lg Electronics Inc. Method and an apparatus for processing a signal
TWI413109B (zh) 2008-10-01 2013-10-21 Dolby Lab Licensing Corp 用於上混系統之解相關器
EP2175670A1 (de) * 2008-10-07 2010-04-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Binaurale Aufbereitung eines Mehrkanal-Audiosignals
KR101600352B1 (ko) * 2008-10-30 2016-03-07 삼성전자주식회사 멀티 채널 신호의 부호화/복호화 장치 및 방법
JP5317176B2 (ja) * 2008-11-07 2013-10-16 日本電気株式会社 物体探査装置及び物体探査プログラム、物体探査方法
JP5317177B2 (ja) * 2008-11-07 2013-10-16 日本電気株式会社 目標物探知装置及び目標物探知制御プログラム、目標物探知方法
JP5309944B2 (ja) * 2008-12-11 2013-10-09 富士通株式会社 オーディオ復号装置、方法、及びプログラム
WO2010070225A1 (fr) * 2008-12-15 2010-06-24 France Telecom Codage perfectionne de signaux audionumeriques multicanaux
TWI449442B (zh) * 2009-01-14 2014-08-11 Dolby Lab Licensing Corp 用於無回授之頻域主動矩陣解碼的方法與系統
EP2214162A1 (de) * 2009-01-28 2010-08-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Aufwärtsmischer, Verfahren und Computerprogramm zur Aufwärtsmischung eines Downmix-Tonsignals
EP2214161A1 (de) * 2009-01-28 2010-08-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zur Aufwärtsmischung eines Downmix-Tonsignals
WO2010101527A1 (en) * 2009-03-03 2010-09-10 Agency For Science, Technology And Research Methods for determining whether a signal includes a wanted signal and apparatuses configured to determine whether a signal includes a wanted signal
US8666752B2 (en) 2009-03-18 2014-03-04 Samsung Electronics Co., Ltd. Apparatus and method for encoding and decoding multi-channel signal
MY160545A (en) * 2009-04-08 2017-03-15 Fraunhofer-Gesellschaft Zur Frderung Der Angewandten Forschung E V Apparatus, method and computer program for upmixing a downmix audio signal using a phase value smoothing
CN101533641B (zh) 2009-04-20 2011-07-20 华为技术有限公司 对多声道信号的声道延迟参数进行修正的方法和装置
CN102307323B (zh) * 2009-04-20 2013-12-18 华为技术有限公司 对多声道信号的声道延迟参数进行修正的方法
CN101556799B (zh) * 2009-05-14 2013-08-28 华为技术有限公司 一种音频解码方法和音频解码器
JP5793675B2 (ja) * 2009-07-31 2015-10-14 パナソニックIpマネジメント株式会社 符号化装置および復号装置
US8538042B2 (en) 2009-08-11 2013-09-17 Dts Llc System for increasing perceived loudness of speakers
KR101599884B1 (ko) * 2009-08-18 2016-03-04 삼성전자주식회사 멀티 채널 오디오 디코딩 방법 및 장치
MY160807A (en) 2009-10-20 2017-03-31 Fraunhofer-Gesellschaft Zur Förderung Der Angewandten Audio encoder,audio decoder,method for encoding an audio information,method for decoding an audio information and computer program using a detection of a group of previously-decoded spectral values
CN102576541B (zh) * 2009-10-21 2013-09-18 杜比国际公司 组合换位滤波器组的过采样
KR20110049068A (ko) * 2009-11-04 2011-05-12 삼성전자주식회사 멀티 채널 오디오 신호의 부호화/복호화 장치 및 방법
DE102009052992B3 (de) * 2009-11-12 2011-03-17 Institut für Rundfunktechnik GmbH Verfahren zum Abmischen von Mikrofonsignalen einer Tonaufnahme mit mehreren Mikrofonen
US9324337B2 (en) * 2009-11-17 2016-04-26 Dolby Laboratories Licensing Corporation Method and system for dialog enhancement
CN102667920B (zh) * 2009-12-16 2014-03-12 杜比国际公司 Sbr比特流参数缩混
FR2954640B1 (fr) * 2009-12-23 2012-01-20 Arkamys Procede d'optimisation de la reception stereo pour radio analogique et recepteur de radio analogique associe
MY159982A (en) * 2010-01-12 2017-02-15 Fraunhofer Ges Forschung Audio encoder, audio decoder, method for encoding and decoding an audio information, and computer program obtaining a context sub-region value on the basis of a norm of previously decoded spectral values
US9025776B2 (en) * 2010-02-01 2015-05-05 Rensselaer Polytechnic Institute Decorrelating audio signals for stereophonic and surround sound using coded and maximum-length-class sequences
TWI443646B (zh) * 2010-02-18 2014-07-01 Dolby Lab Licensing Corp 音訊解碼器及使用有效降混之解碼方法
US8428209B2 (en) * 2010-03-02 2013-04-23 Vt Idirect, Inc. System, apparatus, and method of frequency offset estimation and correction for mobile remotes in a communication network
JP5604933B2 (ja) * 2010-03-30 2014-10-15 富士通株式会社 ダウンミクス装置およびダウンミクス方法
KR20110116079A (ko) 2010-04-17 2011-10-25 삼성전자주식회사 멀티 채널 신호의 부호화/복호화 장치 및 방법
CN102986254B (zh) * 2010-07-12 2015-06-17 华为技术有限公司 音频信号产生装置
JP6075743B2 (ja) * 2010-08-03 2017-02-08 ソニー株式会社 信号処理装置および方法、並びにプログラム
RU2573774C2 (ru) 2010-08-25 2016-01-27 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Устройство для декодирования сигнала, содержащего переходные процессы, используя блок объединения и микшер
KR101697550B1 (ko) * 2010-09-16 2017-02-02 삼성전자주식회사 멀티채널 오디오 대역폭 확장 장치 및 방법
US8838977B2 (en) 2010-09-16 2014-09-16 Verance Corporation Watermark extraction and content screening in a networked environment
US9008811B2 (en) 2010-09-17 2015-04-14 Xiph.org Foundation Methods and systems for adaptive time-frequency resolution in digital data coding
JP5533502B2 (ja) * 2010-09-28 2014-06-25 富士通株式会社 オーディオ符号化装置、オーディオ符号化方法及びオーディオ符号化用コンピュータプログラム
EP2612321B1 (de) * 2010-09-28 2016-01-06 Huawei Technologies Co., Ltd. Vorrichtung und verfahren zur nachbearbeitung decodierter mehrkanal-tonsignale oder decodierter stereosignale
FI3518234T3 (fi) * 2010-11-22 2023-12-14 Ntt Docomo Inc Audiokoodauslaite ja -menetelmä
TWI733583B (zh) * 2010-12-03 2021-07-11 美商杜比實驗室特許公司 音頻解碼裝置、音頻解碼方法及音頻編碼方法
EP2464146A1 (de) 2010-12-10 2012-06-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Dekomposition eines Eingabesignals mit einer im Voraus berechneten Bezugskurve
EP2477188A1 (de) * 2011-01-18 2012-07-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codierung und Decodierung von Slot-Positionen von Ereignissen in einem Audosignal-Frame
WO2012122299A1 (en) 2011-03-07 2012-09-13 Xiph. Org. Bit allocation and partitioning in gain-shape vector quantization for audio coding
US8838442B2 (en) 2011-03-07 2014-09-16 Xiph.org Foundation Method and system for two-step spreading for tonal artifact avoidance in audio coding
US9015042B2 (en) 2011-03-07 2015-04-21 Xiph.org Foundation Methods and systems for avoiding partial collapse in multi-block audio coding
WO2012160472A1 (en) 2011-05-26 2012-11-29 Koninklijke Philips Electronics N.V. An audio system and method therefor
US9129607B2 (en) 2011-06-28 2015-09-08 Adobe Systems Incorporated Method and apparatus for combining digital signals
CN103620674B (zh) * 2011-06-30 2016-02-24 瑞典爱立信有限公司 用于对音频信号的时间段进行编码和解码的变换音频编解码器和方法
US8615104B2 (en) 2011-11-03 2013-12-24 Verance Corporation Watermark extraction based on tentative watermarks
US8923548B2 (en) 2011-11-03 2014-12-30 Verance Corporation Extraction of embedded watermarks from a host content using a plurality of tentative watermarks
US8533481B2 (en) 2011-11-03 2013-09-10 Verance Corporation Extraction of embedded watermarks from a host content based on extrapolation techniques
US8682026B2 (en) 2011-11-03 2014-03-25 Verance Corporation Efficient extraction of embedded watermarks in the presence of host content distortions
US8745403B2 (en) 2011-11-23 2014-06-03 Verance Corporation Enhanced content management based on watermark extraction records
US9547753B2 (en) 2011-12-13 2017-01-17 Verance Corporation Coordinated watermarking
US9323902B2 (en) 2011-12-13 2016-04-26 Verance Corporation Conditional access using embedded watermarks
EP2803066A1 (de) * 2012-01-11 2014-11-19 Dolby Laboratories Licensing Corporation Gleichzeitige sendergemischte und empfängergemischte zusätzlicher audiodienste
WO2013150341A1 (en) 2012-04-05 2013-10-10 Nokia Corporation Flexible spatial audio capture apparatus
US9312829B2 (en) 2012-04-12 2016-04-12 Dts Llc System for adjusting loudness of audio signals in real time
US9571606B2 (en) 2012-08-31 2017-02-14 Verance Corporation Social media viewing system
WO2014038522A1 (ja) 2012-09-07 2014-03-13 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US9106964B2 (en) 2012-09-13 2015-08-11 Verance Corporation Enhanced content distribution using advertisements
US8869222B2 (en) 2012-09-13 2014-10-21 Verance Corporation Second screen content
US8726304B2 (en) 2012-09-13 2014-05-13 Verance Corporation Time varying evaluation of multimedia content
US9269363B2 (en) * 2012-11-02 2016-02-23 Dolby Laboratories Licensing Corporation Audio data hiding based on perceptual masking and detection based on code multiplexing
WO2014126688A1 (en) 2013-02-14 2014-08-21 Dolby Laboratories Licensing Corporation Methods for audio signal transient detection and decorrelation control
TWI618051B (zh) 2013-02-14 2018-03-11 杜比實驗室特許公司 用於利用估計之空間參數的音頻訊號增強的音頻訊號處理方法及裝置
CN104981867B (zh) 2013-02-14 2018-03-30 杜比实验室特许公司 用于控制上混音频信号的通道间相干性的方法
TWI618050B (zh) 2013-02-14 2018-03-11 杜比實驗室特許公司 用於音訊處理系統中之訊號去相關的方法及設備
US9191516B2 (en) * 2013-02-20 2015-11-17 Qualcomm Incorporated Teleconferencing using steganographically-embedded audio data
US9262793B2 (en) 2013-03-14 2016-02-16 Verance Corporation Transactional video marking system
US9786286B2 (en) * 2013-03-29 2017-10-10 Dolby Laboratories Licensing Corporation Methods and apparatuses for generating and using low-resolution preview tracks with high-quality encoded object and multichannel audio signals
WO2014162171A1 (en) 2013-04-04 2014-10-09 Nokia Corporation Visual audio processing apparatus
US9940942B2 (en) * 2013-04-05 2018-04-10 Dolby International Ab Advanced quantizer
TWI546799B (zh) * 2013-04-05 2016-08-21 杜比國際公司 音頻編碼器及解碼器
EP4300488A3 (de) 2013-04-05 2024-02-28 Dolby International AB Stereoaudiocodierer und -decodierer
WO2014184618A1 (en) 2013-05-17 2014-11-20 Nokia Corporation Spatial object oriented audio apparatus
WO2014187987A1 (en) 2013-05-24 2014-11-27 Dolby International Ab Methods for audio encoding and decoding, corresponding computer-readable media and corresponding audio encoder and decoder
JP6305694B2 (ja) * 2013-05-31 2018-04-04 クラリオン株式会社 信号処理装置及び信号処理方法
JP6216553B2 (ja) 2013-06-27 2017-10-18 クラリオン株式会社 伝搬遅延補正装置及び伝搬遅延補正方法
US9830918B2 (en) 2013-07-05 2017-11-28 Dolby International Ab Enhanced soundfield coding using parametric component generation
FR3008533A1 (fr) * 2013-07-12 2015-01-16 Orange Facteur d'echelle optimise pour l'extension de bande de frequence dans un decodeur de signaux audiofrequences
PL3022949T3 (pl) 2013-07-22 2018-04-30 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. Wielokanałowy dekoder audio, wielokanałowy koder audio, sposoby, program komputerowy i zakodowana reprezentacja audio z użyciem dekorelacji renderowanych sygnałów audio
EP2830061A1 (de) 2013-07-22 2015-01-28 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Codierung und Decodierung eines codierten Audiosignals unter Verwendung von zeitlicher Rausch-/Patch-Formung
EP2838086A1 (de) 2013-07-22 2015-02-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Reduktion von Kammfilterartefakten in einem Mehrkanal-Downmix mit adaptivem Phasenabgleich
EP2830336A3 (de) * 2013-07-22 2015-03-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Durch Renderer gesteuerter, räumlicher Upmix
EP2830334A1 (de) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Mehrkanaliger Audiodecodierer, mehrkanaliger Audiocodierer, Verfahren, Computerprogramm und codierte Audiodarstellung unter Verwendung einer Dekorrelation gerenderter Audiosignale
EP2830335A3 (de) 2013-07-22 2015-02-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zur Zuordnung eines ersten und eines zweiten Eingabekanals an mindestens einen Ausgabekanal
US9251549B2 (en) 2013-07-23 2016-02-02 Verance Corporation Watermark extractor enhancements based on payload ranking
US9489952B2 (en) * 2013-09-11 2016-11-08 Bally Gaming, Inc. Wagering game having seamless looping of compressed audio
JP6212645B2 (ja) 2013-09-12 2017-10-11 ドルビー・インターナショナル・アーベー オーディオ・デコード・システムおよびオーディオ・エンコード・システム
WO2015041476A1 (ko) 2013-09-17 2015-03-26 주식회사 윌러스표준기술연구소 오디오 신호 처리 방법 및 장치
TWI557724B (zh) * 2013-09-27 2016-11-11 杜比實驗室特許公司 用於將 n 聲道音頻節目編碼之方法、用於恢復 n 聲道音頻節目的 m 個聲道之方法、被配置成將 n 聲道音頻節目編碼之音頻編碼器及被配置成執行 n 聲道音頻節目的恢復之解碼器
JP6201047B2 (ja) 2013-10-21 2017-09-20 ドルビー・インターナショナル・アーベー オーディオ信号のパラメトリック再構成のための脱相関器構造
CN108449704B (zh) 2013-10-22 2021-01-01 韩国电子通信研究院 生成用于音频信号的滤波器的方法及其参数化装置
EP2866227A1 (de) * 2013-10-22 2015-04-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur Dekodierung und Kodierung einer Downmix-Matrix, Verfahren zur Darstellung von Audioinhalt, Kodierer und Dekodierer für eine Downmix-Matrix, Audiokodierer und Audiodekodierer
US9208334B2 (en) 2013-10-25 2015-12-08 Verance Corporation Content management using multiple abstraction layers
CN108597528B (zh) 2013-12-23 2023-05-30 韦勒斯标准与技术协会公司 生成用于音频信号的滤波器的方法及其参数化装置
CN103730112B (zh) * 2013-12-25 2016-08-31 讯飞智元信息科技有限公司 语音多信道模拟与采集方法
US9564136B2 (en) 2014-03-06 2017-02-07 Dts, Inc. Post-encoding bitrate reduction of multiple object audio
WO2015138798A1 (en) 2014-03-13 2015-09-17 Verance Corporation Interactive content acquisition using embedded codes
CN106105269B (zh) 2014-03-19 2018-06-19 韦勒斯标准与技术协会公司 音频信号处理方法和设备
EP3128766A4 (de) 2014-04-02 2018-01-03 Wilus Institute of Standards and Technology Inc. Verfahren und vorrichtung zur verarbeitung von tonsignalen
JP6418237B2 (ja) * 2014-05-08 2018-11-07 株式会社村田製作所 樹脂多層基板およびその製造方法
KR102454747B1 (ko) * 2014-06-27 2022-10-17 돌비 인터네셔널 에이비 Hoa 데이터 프레임 표현의 압축을 위해 비차분 이득 값들을 표현하는 데 필요하게 되는 비트들의 최저 정수 개수를 결정하는 장치
US9922657B2 (en) * 2014-06-27 2018-03-20 Dolby Laboratories Licensing Corporation Method for determining for the compression of an HOA data frame representation a lowest integer number of bits required for representing non-differential gain values
EP2980801A1 (de) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur Schätzung des Rauschens in einem Audiosignal, Rauschschätzer, Audiocodierer, Audiodecodierer und System zur Übertragung von Audiosignalen
MY179448A (en) * 2014-10-02 2020-11-06 Dolby Int Ab Decoding method and decoder for dialog enhancement
US9609451B2 (en) * 2015-02-12 2017-03-28 Dts, Inc. Multi-rate system for audio processing
US10262664B2 (en) * 2015-02-27 2019-04-16 Auro Technologies Method and apparatus for encoding and decoding digital data sets with reduced amount of data to be stored for error approximation
US9554207B2 (en) 2015-04-30 2017-01-24 Shure Acquisition Holdings, Inc. Offset cartridge microphones
US9565493B2 (en) 2015-04-30 2017-02-07 Shure Acquisition Holdings, Inc. Array microphone system and method of assembling the same
EP3300374B1 (de) * 2015-05-22 2022-07-06 Sony Group Corporation Übertragungsvorrichtung, übertragungsverfahren, bildverarbeitung vorrichtung, bildverarbeitungsverfahren, empfangsvorrichtung und empfangsverfahren
US10043527B1 (en) * 2015-07-17 2018-08-07 Digimarc Corporation Human auditory system modeling with masking energy adaptation
FR3048808A1 (fr) * 2016-03-10 2017-09-15 Orange Codage et decodage optimise d'informations de spatialisation pour le codage et le decodage parametrique d'un signal audio multicanal
BR112018068892A2 (pt) 2016-03-18 2019-01-22 Fraunhofer Ges Forschung aparelho para reconstrução de fase a partir de um espectrograma de magnitude de um sinal de áudio, sistema, codificador e método para reconstrução de fase a partir de um espectrograma de magnitude de um sinal de áudio
CN107731238B (zh) * 2016-08-10 2021-07-16 华为技术有限公司 多声道信号的编码方法和编码器
CN107886960B (zh) * 2016-09-30 2020-12-01 华为技术有限公司 一种音频信号重建方法及装置
US10362423B2 (en) 2016-10-13 2019-07-23 Qualcomm Incorporated Parametric audio decoding
RU2725178C1 (ru) * 2016-11-08 2020-06-30 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Устройство и способ для кодирования или декодирования многоканального сигнала с использованием коэффициента передачи побочного сигнала и коэффициента передачи остаточного сигнала
CN112397076A (zh) 2016-11-23 2021-02-23 瑞典爱立信有限公司 用于自适应控制去相关滤波器的方法和装置
US10367948B2 (en) 2017-01-13 2019-07-30 Shure Acquisition Holdings, Inc. Post-mixing acoustic echo cancellation systems and methods
US10210874B2 (en) * 2017-02-03 2019-02-19 Qualcomm Incorporated Multi channel coding
EP3616196A4 (de) 2017-04-28 2021-01-20 DTS, Inc. Audiocodiererfenster- und -transformationsimplementierungen
CN107274907A (zh) * 2017-07-03 2017-10-20 北京小鱼在家科技有限公司 双麦克风设备上实现指向性拾音的方法和装置
CN117690442A (zh) 2017-07-28 2024-03-12 弗劳恩霍夫应用研究促进协会 用于使用宽频带滤波器生成的填充信号对已编码的多声道信号进行编码或解码的装置
KR102489914B1 (ko) 2017-09-15 2023-01-20 삼성전자주식회사 전자 장치 및 이의 제어 방법
US10553224B2 (en) * 2017-10-03 2020-02-04 Dolby Laboratories Licensing Corporation Method and system for inter-channel coding
US10854209B2 (en) * 2017-10-03 2020-12-01 Qualcomm Incorporated Multi-stream audio coding
EP3483878A1 (de) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audiodecoder mit auswahlfunktion für unterschiedliche verlustmaskierungswerkzeuge
EP3483879A1 (de) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Analyse-/synthese-fensterfunktion für modulierte geläppte transformation
EP3483886A1 (de) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Auswahl einer grundfrequenz
WO2019091573A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding and decoding an audio signal using downsampling or interpolation of scale parameters
EP3483884A1 (de) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Signalfiltrierung
EP3483880A1 (de) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Zeitliche rauschformung
WO2019091576A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoders, audio decoders, methods and computer programs adapting an encoding and decoding of least significant bits
EP3483882A1 (de) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Steuerung der bandbreite in codierern und/oder decodierern
EP3483883A1 (de) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audiokodierung und -dekodierung mit selektiver nachfilterung
EP3707706B1 (de) * 2017-11-10 2021-08-04 Nokia Technologies Oy Bestimmung der codierung von raumaudioparametern und zugehörige decodierung
US10306391B1 (en) 2017-12-18 2019-05-28 Apple Inc. Stereophonic to monophonic down-mixing
EP3729298A1 (de) 2017-12-19 2020-10-28 Dolby International AB Verfahren und vorrichtungssysteme für verbesserungen an vereinheitlichter sprach- und audiodecodierung
TWI812658B (zh) * 2017-12-19 2023-08-21 瑞典商都比國際公司 用於統一語音及音訊之解碼及編碼去關聯濾波器之改良之方法、裝置及系統
CN111670473A (zh) 2017-12-19 2020-09-15 杜比国际公司 用于统一语音及音频解码基于qmf的谐波移调器改进的方法及设备
TWI702594B (zh) * 2018-01-26 2020-08-21 瑞典商都比國際公司 用於音訊信號之高頻重建技術之回溯相容整合
EP3777243B1 (de) * 2018-04-04 2023-08-09 Harman International Industries, Incorporated Dynamische parameter für audio-upmixer zur simulation natürlicher räumlicher variationen
EP3804356A1 (de) 2018-06-01 2021-04-14 Shure Acquisition Holdings, Inc. Musterbildende mikrofonanordnung
US11297423B2 (en) 2018-06-15 2022-04-05 Shure Acquisition Holdings, Inc. Endfire linear array microphone
WO2020061353A1 (en) 2018-09-20 2020-03-26 Shure Acquisition Holdings, Inc. Adjustable lobe shape for array microphones
US11544032B2 (en) * 2019-01-24 2023-01-03 Dolby Laboratories Licensing Corporation Audio connection and transmission device
MX2021010570A (es) * 2019-03-06 2021-10-13 Fraunhofer Ges Forschung Mezcladora para reducir el numero de canales de audio y metodo de mezclado para reducir el numero de canales de audio.
CN113841421A (zh) 2019-03-21 2021-12-24 舒尔获得控股公司 具有抑制功能的波束形成麦克风瓣的自动对焦、区域内自动对焦、及自动配置
EP3942842A1 (de) 2019-03-21 2022-01-26 Shure Acquisition Holdings, Inc. Gehäuse und zugehörige konstruktionsmerkmale für mikrofone einer deckenanordnung
US11558693B2 (en) 2019-03-21 2023-01-17 Shure Acquisition Holdings, Inc. Auto focus, auto focus within regions, and auto placement of beamformed microphone lobes with inhibition and voice activity detection functionality
WO2020216459A1 (en) * 2019-04-23 2020-10-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method or computer program for generating an output downmix representation
WO2020237206A1 (en) 2019-05-23 2020-11-26 Shure Acquisition Holdings, Inc. Steerable speaker array, system, and method for the same
US11056114B2 (en) * 2019-05-30 2021-07-06 International Business Machines Corporation Voice response interfacing with multiple smart devices of different types
US11302347B2 (en) 2019-05-31 2022-04-12 Shure Acquisition Holdings, Inc. Low latency automixer integrated with voice and noise activity detection
CN112218020B (zh) * 2019-07-09 2023-03-21 海信视像科技股份有限公司 一种多声道平台音频数据传输方法及其装置
EP4018680A1 (de) 2019-08-23 2022-06-29 Shure Acquisition Holdings, Inc. Zweidimensionale mikrofonanordnung mit verbesserter richtcharakteristik
US11270712B2 (en) 2019-08-28 2022-03-08 Insoundz Ltd. System and method for separation of audio sources that interfere with each other using a microphone array
US11552611B2 (en) 2020-02-07 2023-01-10 Shure Acquisition Holdings, Inc. System and method for automatic adjustment of reference gain
US11706562B2 (en) 2020-05-29 2023-07-18 Shure Acquisition Holdings, Inc. Transducer steering and configuration systems and methods using a local positioning system
CN112153535B (zh) * 2020-09-03 2022-04-08 Oppo广东移动通信有限公司 一种声场扩展方法、电路、电子设备及存储介质
CA3195301A1 (en) * 2020-10-13 2022-04-21 Andrea EICHENSEER Apparatus and method for encoding a plurality of audio objects and apparatus and method for decoding using two or more relevant audio objects
TWI772930B (zh) * 2020-10-21 2022-08-01 美商音美得股份有限公司 適合即時應用之分析濾波器組及其運算程序、基於分析濾波器組之信號處理系統及程序
CN112309419B (zh) * 2020-10-30 2023-05-02 浙江蓝鸽科技有限公司 多路音频的降噪、输出方法及其系统
CN112584300B (zh) * 2020-12-28 2023-05-30 科大讯飞(苏州)科技有限公司 音频上混方法、装置、电子设备和存储介质
CN112566008A (zh) * 2020-12-28 2021-03-26 科大讯飞(苏州)科技有限公司 音频上混方法、装置、电子设备和存储介质
EP4285605A1 (de) 2021-01-28 2023-12-06 Shure Acquisition Holdings, Inc. Hybrides audiostrahlformungssystem
US11837244B2 (en) 2021-03-29 2023-12-05 Invictumtech Inc. Analysis filter bank and computing procedure thereof, analysis filter bank based signal processing system and procedure suitable for real-time applications
US20220399026A1 (en) * 2021-06-11 2022-12-15 Nuance Communications, Inc. System and Method for Self-attention-based Combining of Multichannel Signals for Speech Processing

Family Cites Families (159)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US554334A (en) * 1896-02-11 Folding or portable stove
US1124580A (en) 1911-07-03 1915-01-12 Edward H Amet Method of and means for localizing sound reproduction.
US1850130A (en) 1928-10-31 1932-03-22 American Telephone & Telegraph Talking moving picture system
US1855147A (en) 1929-01-11 1932-04-19 Jones W Bartlett Distortion in sound transmission
US2114680A (en) 1934-12-24 1938-04-19 Rca Corp System for the reproduction of sound
US2860541A (en) 1954-04-27 1958-11-18 Vitarama Corp Wireless control for recording sound for stereophonic reproduction
US2819342A (en) 1954-12-30 1958-01-07 Bell Telephone Labor Inc Monaural-binaural transmission of sound
US2927963A (en) 1955-01-04 1960-03-08 Jordan Robert Oakes Single channel binaural or stereo-phonic sound system
US3046337A (en) 1957-08-05 1962-07-24 Hamner Electronics Company Inc Stereophonic sound
US3067292A (en) 1958-02-03 1962-12-04 Jerry B Minter Stereophonic sound transmission and reproduction
US3846719A (en) 1973-09-13 1974-11-05 Dolby Laboratories Inc Noise reduction systems
US4308719A (en) * 1979-08-09 1982-01-05 Abrahamson Daniel P Fluid power system
DE3040896C2 (de) 1979-11-01 1986-08-28 Victor Company Of Japan, Ltd., Yokohama, Kanagawa Schaltungsanordnung zur Erzeugung und Aufbereitung stereophoner Signale aus einem monophonen Signal
US4308424A (en) 1980-04-14 1981-12-29 Bice Jr Robert G Simulated stereo from a monaural source sound reproduction system
US4624009A (en) 1980-05-02 1986-11-18 Figgie International, Inc. Signal pattern encoder and classifier
US4464784A (en) 1981-04-30 1984-08-07 Eventide Clockworks, Inc. Pitch changer with glitch minimizer
US5046098A (en) 1985-03-07 1991-09-03 Dolby Laboratories Licensing Corporation Variable matrix decoder with three output channels
US4941177A (en) 1985-03-07 1990-07-10 Dolby Laboratories Licensing Corporation Variable matrix decoder
US4799260A (en) 1985-03-07 1989-01-17 Dolby Laboratories Licensing Corporation Variable matrix decoder
US4922535A (en) 1986-03-03 1990-05-01 Dolby Ray Milton Transient control aspects of circuit arrangements for altering the dynamic range of audio signals
US5040081A (en) 1986-09-23 1991-08-13 Mccutchen David Audiovisual synchronization signal generator using audio signature comparison
US5055939A (en) 1987-12-15 1991-10-08 Karamon John J Method system & apparatus for synchronizing an auxiliary sound source containing multiple language channels with motion picture film video tape or other picture source containing a sound track
US4932059A (en) 1988-01-11 1990-06-05 Fosgate Inc. Variable matrix decoder for periphonic reproduction of sound
US5164840A (en) 1988-08-29 1992-11-17 Matsushita Electric Industrial Co., Ltd. Apparatus for supplying control codes to sound field reproduction apparatus
US5105462A (en) 1989-08-28 1992-04-14 Qsound Ltd. Sound imaging method and apparatus
US5040217A (en) 1989-10-18 1991-08-13 At&T Bell Laboratories Perceptual coding of audio signals
CN1062963C (zh) 1990-04-12 2001-03-07 多尔拜实验特许公司 用于产生高质量声音信号的解码器和编码器
US5428687A (en) 1990-06-08 1995-06-27 James W. Fosgate Control voltage generator multiplier and one-shot for integrated surround sound processor
US5625696A (en) 1990-06-08 1997-04-29 Harman International Industries, Inc. Six-axis surround sound processor with improved matrix and cancellation control
US5504819A (en) 1990-06-08 1996-04-02 Harman International Industries, Inc. Surround sound processor with improved control voltage generator
US5172415A (en) 1990-06-08 1992-12-15 Fosgate James W Surround processor
US5121433A (en) * 1990-06-15 1992-06-09 Auris Corp. Apparatus and method for controlling the magnitude spectrum of acoustically combined signals
AU8053691A (en) * 1990-06-15 1992-01-07 Auris Corp. Method for eliminating the precedence effect in stereophonic sound systems and recording made with said method
US5235646A (en) * 1990-06-15 1993-08-10 Wilde Martin D Method and apparatus for creating de-correlated audio output signals and audio recordings made thereby
WO1991019989A1 (en) 1990-06-21 1991-12-26 Reynolds Software, Inc. Method and apparatus for wave analysis and event recognition
US5274740A (en) 1991-01-08 1993-12-28 Dolby Laboratories Licensing Corporation Decoder for variable number of channel presentation of multidimensional sound fields
SG49883A1 (en) 1991-01-08 1998-06-15 Dolby Lab Licensing Corp Encoder/decoder for multidimensional sound fields
NL9100173A (nl) 1991-02-01 1992-09-01 Philips Nv Subbandkodeerinrichting, en een zender voorzien van de kodeerinrichting.
JPH0525025A (ja) * 1991-07-22 1993-02-02 Kao Corp 毛髪化粧料
US5175769A (en) 1991-07-23 1992-12-29 Rolm Systems Method for time-scale modification of signals
US5173944A (en) * 1992-01-29 1992-12-22 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Head related transfer function pseudo-stereophony
FR2700632B1 (fr) 1993-01-21 1995-03-24 France Telecom Système de codage-décodage prédictif d'un signal numérique de parole par transformée adaptative à codes imbriqués.
US5463424A (en) * 1993-08-03 1995-10-31 Dolby Laboratories Licensing Corporation Multi-channel transmitter/receiver system providing matrix-decoding compatible signals
US5394472A (en) * 1993-08-09 1995-02-28 Richard G. Broadie Monaural to stereo sound translation process and apparatus
US5659619A (en) * 1994-05-11 1997-08-19 Aureal Semiconductor, Inc. Three-dimensional virtual audio display employing reduced complexity imaging filters
TW295747B (de) * 1994-06-13 1997-01-11 Sony Co Ltd
US5727119A (en) 1995-03-27 1998-03-10 Dolby Laboratories Licensing Corporation Method and apparatus for efficient implementation of single-sideband filter banks providing accurate measures of spectral magnitude and phase
JPH09102742A (ja) * 1995-10-05 1997-04-15 Sony Corp 符号化方法および装置、復号化方法および装置、並びに記録媒体
US5956674A (en) * 1995-12-01 1999-09-21 Digital Theater Systems, Inc. Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels
US5742689A (en) * 1996-01-04 1998-04-21 Virtual Listening Systems, Inc. Method and device for processing a multichannel signal for use with a headphone
US6323418B1 (en) 1996-01-19 2001-11-27 Bernd Tiburtius Electrically screening housing
US5857026A (en) * 1996-03-26 1999-01-05 Scheiber; Peter Space-mapping sound system
US6430533B1 (en) 1996-05-03 2002-08-06 Lsi Logic Corporation Audio decoder core MPEG-1/MPEG-2/AC-3 functional algorithm partitioning and implementation
US5870480A (en) * 1996-07-19 1999-02-09 Lexicon Multichannel active matrix encoder and decoder with maximum lateral separation
JPH1074097A (ja) 1996-07-26 1998-03-17 Ind Technol Res Inst オーディオ信号のパラメータを変更する方法及び装置
US6049766A (en) 1996-11-07 2000-04-11 Creative Technology Ltd. Time-domain time/pitch scaling of speech or audio signals with transient handling
US5862228A (en) 1997-02-21 1999-01-19 Dolby Laboratories Licensing Corporation Audio matrix encoding
US6111958A (en) * 1997-03-21 2000-08-29 Euphonics, Incorporated Audio spatial enhancement apparatus and methods
US6211919B1 (en) 1997-03-28 2001-04-03 Tektronix, Inc. Transparent embedment of data in a video signal
TW384434B (en) * 1997-03-31 2000-03-11 Sony Corp Encoding method, device therefor, decoding method, device therefor and recording medium
JPH1132399A (ja) * 1997-05-13 1999-02-02 Sony Corp 符号化方法及び装置、並びに記録媒体
US5890125A (en) * 1997-07-16 1999-03-30 Dolby Laboratories Licensing Corporation Method and apparatus for encoding and decoding multiple audio channels at low bit rates using adaptive selection of encoding method
KR100335611B1 (ko) * 1997-11-20 2002-10-09 삼성전자 주식회사 비트율 조절이 가능한 스테레오 오디오 부호화/복호화 방법 및 장치
US6330672B1 (en) 1997-12-03 2001-12-11 At&T Corp. Method and apparatus for watermarking digital bitstreams
TW358925B (en) * 1997-12-31 1999-05-21 Ind Tech Res Inst Improvement of oscillation encoding of a low bit rate sine conversion language encoder
TW374152B (en) * 1998-03-17 1999-11-11 Aurix Ltd Voice analysis system
GB2343347B (en) * 1998-06-20 2002-12-31 Central Research Lab Ltd A method of synthesising an audio signal
GB2340351B (en) 1998-07-29 2004-06-09 British Broadcasting Corp Data transmission
US6266644B1 (en) 1998-09-26 2001-07-24 Liquid Audio, Inc. Audio encoding apparatus and methods
JP2000152399A (ja) * 1998-11-12 2000-05-30 Yamaha Corp 音場効果制御装置
SE9903552D0 (sv) 1999-01-27 1999-10-01 Lars Liljeryd Efficient spectral envelope coding using dynamic scalefactor grouping and time/frequency switching
SG144695A1 (en) 1999-04-07 2008-08-28 Dolby Lab Licensing Corp Matrix improvements to lossless encoding and decoding
EP1054575A3 (de) * 1999-05-17 2002-09-18 Bose Corporation Richtdekodierer
US6389562B1 (en) * 1999-06-29 2002-05-14 Sony Corporation Source code shuffling to provide for robust error recovery
US7184556B1 (en) * 1999-08-11 2007-02-27 Microsoft Corporation Compensation system and method for sound reproduction
US6931370B1 (en) * 1999-11-02 2005-08-16 Digital Theater Systems, Inc. System and method for providing interactive audio in a multi-channel audio environment
US6829578B1 (en) 1999-11-11 2004-12-07 Koninklijke Philips Electronics, N.V. Tone features for speech recognition
US6970567B1 (en) 1999-12-03 2005-11-29 Dolby Laboratories Licensing Corporation Method and apparatus for deriving at least one audio signal from two or more input audio signals
TW510143B (en) 1999-12-03 2002-11-11 Dolby Lab Licensing Corp Method for deriving at least three audio signals from two input audio signals
US6920223B1 (en) 1999-12-03 2005-07-19 Dolby Laboratories Licensing Corporation Method for deriving at least three audio signals from two input audio signals
FR2802329B1 (fr) 1999-12-08 2003-03-28 France Telecom Procede de traitement d'au moins un flux binaire audio code organise sous la forme de trames
WO2001069593A1 (en) * 2000-03-15 2001-09-20 Koninklijke Philips Electronics N.V. Laguerre fonction for audio coding
US7212872B1 (en) * 2000-05-10 2007-05-01 Dts, Inc. Discrete multichannel audio with a backward compatible mix
US7076071B2 (en) * 2000-06-12 2006-07-11 Robert A. Katz Process for enhancing the existing ambience, imaging, depth, clarity and spaciousness of sound recordings
ES2461167T3 (es) * 2000-07-19 2014-05-19 Koninklijke Philips N.V. Convertidor estéreo de múltiples canales para derivar una señal envolvente estéreo y/o central de audio
AU8491001A (en) 2000-08-16 2002-02-25 Dolby Lab Licensing Corp Modulating one or more parameters of an audio or video perceptual coding system in response to supplemental information
PT1362499E (pt) 2000-08-31 2012-04-18 Dolby Lab Licensing Corp Processo para dispositivo para descodificação matricial áudio
US20020054685A1 (en) * 2000-11-09 2002-05-09 Carlos Avendano System for suppressing acoustic echoes and interferences in multi-channel audio systems
US7382888B2 (en) * 2000-12-12 2008-06-03 Bose Corporation Phase shifting audio signal combining
US20040062401A1 (en) 2002-02-07 2004-04-01 Davis Mark Franklin Audio channel translation
US7660424B2 (en) 2001-02-07 2010-02-09 Dolby Laboratories Licensing Corporation Audio channel spatial translation
WO2004019656A2 (en) 2001-02-07 2004-03-04 Dolby Laboratories Licensing Corporation Audio channel spatial translation
EP1410686B1 (de) 2001-02-07 2008-03-26 Dolby Laboratories Licensing Corporation Audiokanalübersetzung
US7254239B2 (en) * 2001-02-09 2007-08-07 Thx Ltd. Sound system and method of sound reproduction
JP3404024B2 (ja) * 2001-02-27 2003-05-06 三菱電機株式会社 音声符号化方法および音声符号化装置
US7610205B2 (en) 2002-02-12 2009-10-27 Dolby Laboratories Licensing Corporation High quality time-scaling and pitch-scaling of audio signals
US7283954B2 (en) 2001-04-13 2007-10-16 Dolby Laboratories Licensing Corporation Comparing audio using characterizations based on auditory events
US7461002B2 (en) 2001-04-13 2008-12-02 Dolby Laboratories Licensing Corporation Method for time aligning audio signals using characterizations based on auditory events
EP2261892B1 (de) 2001-04-13 2020-09-16 Dolby Laboratories Licensing Corporation Vergleichen von audiosignalen unter verwendung von charakterisierungen auf basis von hörereignissen
US7711123B2 (en) 2001-04-13 2010-05-04 Dolby Laboratories Licensing Corporation Segmenting audio signals into auditory events
US7292901B2 (en) * 2002-06-24 2007-11-06 Agere Systems Inc. Hybrid multi-channel/cue coding/decoding of audio signals
US7006636B2 (en) * 2002-05-24 2006-02-28 Agere Systems Inc. Coherence-based audio coding and synthesis
US7583805B2 (en) * 2004-02-12 2009-09-01 Agere Systems Inc. Late reverberation-based synthesis of auditory scenes
US20030035553A1 (en) 2001-08-10 2003-02-20 Frank Baumgarte Backwards-compatible perceptual coding of spatial cues
US7644003B2 (en) * 2001-05-04 2010-01-05 Agere Systems Inc. Cue-based audio coding/decoding
US6807528B1 (en) 2001-05-08 2004-10-19 Dolby Laboratories Licensing Corporation Adding data to a compressed data frame
JP4290997B2 (ja) 2001-05-10 2009-07-08 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション プレノイズの縮減による低ビットレートオーディオコーディングにおけるトランジエント効率の改善
TW552580B (en) * 2001-05-11 2003-09-11 Syntek Semiconductor Co Ltd Fast ADPCM method and minimum logic implementation circuit
MXPA03010751A (es) 2001-05-25 2005-03-07 Dolby Lab Licensing Corp Segmentacion de senales de audio en eventos auditivos.
JP4272050B2 (ja) 2001-05-25 2009-06-03 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション オーディトリーイベントに基づく特徴付けを使ったオーディオの比較
TW556153B (en) * 2001-06-01 2003-10-01 Syntek Semiconductor Co Ltd Fast adaptive differential pulse coding modulation method for random access and channel noise resistance
TW569551B (en) * 2001-09-25 2004-01-01 Roger Wallace Dressler Method and apparatus for multichannel logic matrix decoding
TW526466B (en) * 2001-10-26 2003-04-01 Inventec Besta Co Ltd Encoding and voice integration method of phoneme
WO2003044775A1 (en) * 2001-11-23 2003-05-30 Koninklijke Philips Electronics N.V. Perceptual noise substitution
US7240001B2 (en) * 2001-12-14 2007-07-03 Microsoft Corporation Quality improvement techniques in an audio encoder
US20040037421A1 (en) 2001-12-17 2004-02-26 Truman Michael Mead Parital encryption of assembled bitstreams
EP1479071B1 (de) * 2002-02-18 2006-01-11 Koninklijke Philips Electronics N.V. Parametrische audiocodierung
EP1341379A3 (de) 2002-02-26 2004-11-24 Broadcom Corporation Skalierungsreglung zur Verbesserung der Stereotrennung
WO2003077425A1 (fr) 2002-03-08 2003-09-18 Nippon Telegraph And Telephone Corporation Procedes de codage et de decodage signaux numeriques, dispositifs de codage et de decodage, programme de codage et de decodage de signaux numeriques
DE10217567A1 (de) 2002-04-19 2003-11-13 Infineon Technologies Ag Halbleiterbauelement mit integrierter Kapazitätsstruktur und Verfahren zu dessen Herstellung
BRPI0304540B1 (pt) * 2002-04-22 2017-12-12 Koninklijke Philips N. V Methods for coding an audio signal, and to decode an coded audio sign, encoder to codify an audio signal, codified audio sign, storage media, and, decoder to decode a coded audio sign
US7933415B2 (en) * 2002-04-22 2011-04-26 Koninklijke Philips Electronics N.V. Signal synthesizing
US7428440B2 (en) * 2002-04-23 2008-09-23 Realnetworks, Inc. Method and apparatus for preserving matrix surround information in encoded audio/video
KR100635022B1 (ko) * 2002-05-03 2006-10-16 하만인터내셔날인더스트리스인코포레이티드 다채널 다운믹싱 장치
US7567845B1 (en) * 2002-06-04 2009-07-28 Creative Technology Ltd Ambience generation for stereo signals
US7257231B1 (en) * 2002-06-04 2007-08-14 Creative Technology Ltd. Stream segregation for stereo signals
TWI225640B (en) 2002-06-28 2004-12-21 Samsung Electronics Co Ltd Voice recognition device, observation probability calculating device, complex fast fourier transform calculation device and method, cache device, and method of controlling the cache device
RU2325046C2 (ru) * 2002-07-16 2008-05-20 Конинклейке Филипс Электроникс Н.В. Аудиокодирование
DE10236694A1 (de) 2002-08-09 2004-02-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum skalierbaren Codieren und Vorrichtung und Verfahren zum skalierbaren Decodieren
US7454331B2 (en) 2002-08-30 2008-11-18 Dolby Laboratories Licensing Corporation Controlling loudness of speech in signals that contain speech and other types of audio material
US7536305B2 (en) * 2002-09-04 2009-05-19 Microsoft Corporation Mixed lossless audio compression
JP3938015B2 (ja) 2002-11-19 2007-06-27 ヤマハ株式会社 音声再生装置
ATE447755T1 (de) 2003-02-06 2009-11-15 Dolby Lab Licensing Corp Kontinuierliche audiodatensicherung
CN1748443B (zh) * 2003-03-04 2010-09-22 诺基亚有限公司 多声道音频扩展支持
KR100493172B1 (ko) * 2003-03-06 2005-06-02 삼성전자주식회사 마이크로폰 어레이 구조, 이를 이용한 일정한 지향성을갖는 빔 형성방법 및 장치와 음원방향 추정방법 및 장치
TWI223791B (en) * 2003-04-14 2004-11-11 Ind Tech Res Inst Method and system for utterance verification
KR101164937B1 (ko) 2003-05-28 2012-07-12 돌비 레버러토리즈 라이쎈싱 코오포레이션 오디오 신호의 인식된 라우드니스를 계산 및 조정하는방법, 장치 및 컴퓨터 프로그램
US7398207B2 (en) 2003-08-25 2008-07-08 Time Warner Interactive Video Group, Inc. Methods and systems for determining audio loudness levels in programming
US7447317B2 (en) * 2003-10-02 2008-11-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V Compatible multi-channel coding/decoding by weighting the downmix channel
ATE354160T1 (de) * 2003-10-30 2007-03-15 Koninkl Philips Electronics Nv Audiosignalcodierung oder -decodierung
US7412380B1 (en) * 2003-12-17 2008-08-12 Creative Technology Ltd. Ambience extraction and modification for enhancement and upmix of audio signals
US7394903B2 (en) * 2004-01-20 2008-07-01 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Apparatus and method for constructing a multi-channel output signal or for generating a downmix signal
WO2007109338A1 (en) * 2006-03-21 2007-09-27 Dolby Laboratories Licensing Corporation Low bit rate audio encoding and decoding
SG10202004688SA (en) * 2004-03-01 2020-06-29 Dolby Laboratories Licensing Corp Multichannel Audio Coding
US7639823B2 (en) * 2004-03-03 2009-12-29 Agere Systems Inc. Audio mixing using magnitude equalization
US7617109B2 (en) 2004-07-01 2009-11-10 Dolby Laboratories Licensing Corporation Method for correcting metadata affecting the playback loudness and dynamic range of audio information
US7508947B2 (en) 2004-08-03 2009-03-24 Dolby Laboratories Licensing Corporation Method for combining audio signals using auditory scene analysis
SE0402650D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Improved parametric stereo compatible coding of spatial audio
SE0402651D0 (sv) 2004-11-02 2004-11-02 Coding Tech Ab Advanced methods for interpolation and parameter signalling
SE0402649D0 (sv) 2004-11-02 2004-11-02 Coding Tech Ab Advanced methods of creating orthogonal signals
TWI397903B (zh) 2005-04-13 2013-06-01 Dolby Lab Licensing Corp 編碼音訊之節約音量測量技術
TW200638335A (en) 2005-04-13 2006-11-01 Dolby Lab Licensing Corp Audio metadata verification
AU2006255662B2 (en) 2005-06-03 2012-08-23 Dolby Laboratories Licensing Corporation Apparatus and method for encoding audio signals with decoding instructions
TWI396188B (zh) 2005-08-02 2013-05-11 Dolby Lab Licensing Corp 依聆聽事件之函數控制空間音訊編碼參數的技術
US7965848B2 (en) 2006-03-29 2011-06-21 Dolby International Ab Reduced number of channels decoding
UA93243C2 (ru) 2006-04-27 2011-01-25 ДОЛБИ ЛЕБОРЕТЕРИЗ ЛАЙСЕНСИНГ КОРПОРЕЙШи Регулирование усиления звука c использованием основанного ha конкретной громкости выявления аккустических событий
JP2009117000A (ja) * 2007-11-09 2009-05-28 Funai Electric Co Ltd 光ピックアップ
PL2065865T3 (pl) 2007-11-23 2011-12-30 Markiewicz Michal System do monitorowania ruchu pojazdów
CN103387583B (zh) * 2012-05-09 2018-04-13 中国科学院上海药物研究所 二芳基并[a,g]喹嗪类化合物、其制备方法、药物组合物及其应用

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019219922A1 (de) * 2019-12-17 2021-06-17 Volkswagen Aktiengesellschaft Verfahren zur Übertragung einer Mehrzahl an Signalen sowie Verfahren zum Empfang einer Mehrzahl an Signalen
WO2021122512A1 (de) 2019-12-17 2021-06-24 Volkswagen Aktiengesellschaft Verfahren zur übertragung einer mehrzahl an signalen sowie verfahren zum empfang einer mehrzahl an signalen
DE102019219922B4 (de) 2019-12-17 2023-07-20 Volkswagen Aktiengesellschaft Verfahren zur Übertragung einer Mehrzahl an Signalen sowie Verfahren zum Empfang einer Mehrzahl an Signalen

Also Published As

Publication number Publication date
CA2992097A1 (en) 2005-09-15
EP1914722B1 (de) 2009-04-29
DE602005022641D1 (de) 2010-09-09
HK1092580A1 (en) 2007-02-09
CA3026267A1 (en) 2005-09-15
JP4867914B2 (ja) 2012-02-01
ATE390683T1 (de) 2008-04-15
US9520135B2 (en) 2016-12-13
EP2065885A1 (de) 2009-06-03
EP2065885B1 (de) 2010-07-28
CA3026276A1 (en) 2012-12-27
US20160189723A1 (en) 2016-06-30
AU2009202483B2 (en) 2012-07-19
ATE527654T1 (de) 2011-10-15
CA3035175A1 (en) 2012-12-27
EP1721312B1 (de) 2008-03-26
TW201329959A (zh) 2013-07-16
JP2007526522A (ja) 2007-09-13
US9454969B2 (en) 2016-09-27
US9715882B2 (en) 2017-07-25
TWI484478B (zh) 2015-05-11
DE602005014288D1 (de) 2009-06-10
BRPI0508343B1 (pt) 2018-11-06
US8983834B2 (en) 2015-03-17
US9672839B1 (en) 2017-06-06
US9311922B2 (en) 2016-04-12
EP2224430A3 (de) 2010-09-15
KR20060132682A (ko) 2006-12-21
CA2917518A1 (en) 2005-09-15
CN1926607B (zh) 2011-07-06
TW201331932A (zh) 2013-08-01
US20170178652A1 (en) 2017-06-22
CA2992065C (en) 2018-11-20
US9697842B1 (en) 2017-07-04
CA2992089A1 (en) 2005-09-15
HK1119820A1 (en) 2009-03-13
US9704499B1 (en) 2017-07-11
SG149871A1 (en) 2009-02-27
US20210090583A1 (en) 2021-03-25
US10403297B2 (en) 2019-09-03
CA3026267C (en) 2019-04-16
IL177094A0 (en) 2006-12-10
CN102176311B (zh) 2014-09-10
US20170076731A1 (en) 2017-03-16
CA2992089C (en) 2018-08-21
US10796706B2 (en) 2020-10-06
TWI397902B (zh) 2013-06-01
TW200537436A (en) 2005-11-16
CA2992051A1 (en) 2005-09-15
CA2992097C (en) 2018-09-11
CA2992051C (en) 2019-01-22
HK1128100A1 (en) 2009-10-16
CA3026245C (en) 2019-04-09
CA2992065A1 (en) 2005-09-15
CA3026245A1 (en) 2005-09-15
US8170882B2 (en) 2012-05-01
DE602005005640D1 (de) 2008-05-08
US9779745B2 (en) 2017-10-03
CA2992125C (en) 2018-09-25
EP1914722A1 (de) 2008-04-23
AU2005219956B2 (en) 2009-05-28
US10460740B2 (en) 2019-10-29
SG10202004688SA (en) 2020-06-29
ATE430360T1 (de) 2009-05-15
US20170148456A1 (en) 2017-05-25
US20170178653A1 (en) 2017-06-22
ATE475964T1 (de) 2010-08-15
CN102169693A (zh) 2011-08-31
US20170365268A1 (en) 2017-12-21
ES2324926T3 (es) 2009-08-19
BRPI0508343A (pt) 2007-07-24
CA2917518C (en) 2018-04-03
US9691404B2 (en) 2017-06-27
US11308969B2 (en) 2022-04-19
EP2224430B1 (de) 2011-10-05
CA3026276C (en) 2019-04-16
CA2556575A1 (en) 2005-09-15
CN102176311A (zh) 2011-09-07
HK1142431A1 (en) 2010-12-03
CN102169693B (zh) 2014-07-23
SG10201605609PA (en) 2016-08-30
MY145083A (en) 2011-12-15
US10269364B2 (en) 2019-04-23
US9640188B2 (en) 2017-05-02
IL177094A (en) 2010-11-30
US20070140499A1 (en) 2007-06-21
TWI498883B (zh) 2015-09-01
US20170148458A1 (en) 2017-05-25
KR101079066B1 (ko) 2011-11-02
US20200066287A1 (en) 2020-02-27
EP2224430A2 (de) 2010-09-01
US20190122683A1 (en) 2019-04-25
WO2005086139A1 (en) 2005-09-15
CA2556575C (en) 2013-07-02
US9691405B1 (en) 2017-06-27
US20150187362A1 (en) 2015-07-02
EP1721312A1 (de) 2006-11-15
CA2992125A1 (en) 2005-09-15
US20080031463A1 (en) 2008-02-07
US20170148457A1 (en) 2017-05-25
AU2009202483A1 (en) 2009-07-16
AU2005219956A1 (en) 2005-09-15
US20170178650A1 (en) 2017-06-22
US20170178651A1 (en) 2017-06-22
CN1926607A (zh) 2007-03-07
US20190147898A1 (en) 2019-05-16
US20160189718A1 (en) 2016-06-30
CA3035175C (en) 2020-02-25

Similar Documents

Publication Publication Date Title
DE602005005640T2 (de) Mehrkanalige audiocodierung
DE60206390T2 (de) Effiziente und skalierbare parametrische stereocodierung für anwendungen mit niedriger bitrate
DE602004002390T2 (de) Audiocodierung
DE602004005020T2 (de) Audiosignalsynthese
DE69633633T2 (de) Mehrkanaliger prädiktiver subband-kodierer mit adaptiver, psychoakustischer bitzuweisung
DE602005002451T2 (de) Vorrichtung und verfahren zur erzeugung eines pegelparameters und vorrichtung und verfahren zur erzeugung einer mehrkanal-repräsentation
DE60318835T2 (de) Parametrische darstellung von raumklang
DE602005006385T2 (de) Vorrichtung und verfahren zum konstruieren eines mehrkanaligen ausgangssignals oder zum erzeugen eines downmix-signals
DE602006000239T2 (de) Energieabhängige quantisierung für effiziente kodierung räumlicher audioparameter
DE69933659T2 (de) Verfahren und system zur räumlichen kodierung mit niedriger bitrate
DE60310716T2 (de) System für die audiokodierung mit füllung von spektralen lücken
DE69821089T2 (de) Verbesserung von quellenkodierung unter verwendung von spektralbandreplikation
DE602005002833T2 (de) Kompensation von multikanal-audio energieverlusten
DE602004004168T2 (de) Kompatible mehrkanal-codierung/-decodierung
DE60013785T2 (de) VERBESSERTE SUBJEKTIVE QUALITäT VON SBR (SPECTRAL BAND REPLICATION)UND HFR (HIGH FREQUENCY RECONSTRUCTION) KODIERVERFAHREN DURCH ADDIEREN VON GRUNDRAUSCHEN UND BEGRENZUNG DER RAUSCHSUBSTITUTION
DE102006050068B4 (de) Vorrichtung und Verfahren zum Erzeugen eines Umgebungssignals aus einem Audiosignal, Vorrichtung und Verfahren zum Ableiten eines Mehrkanal-Audiosignals aus einem Audiosignal und Computerprogramm
DE69531471T2 (de) Mehrkanalsignalkodierung unter Verwendung gewichteter Vektorquantisierung
EP0750811B1 (de) Verfahren zum codieren mehrerer audiosignale
EP1687809B1 (de) Vorrichtung und verfahren zur wiederherstellung eines multikanal-audiosignals und zum erzeugen eines parameterdatensatzes hierfür
EP1979901B1 (de) Verfahren und anordnungen zur audiosignalkodierung
DE60308876T2 (de) Audiokanalumsetzung
US8200351B2 (en) Low power downmix energy equalization in parametric stereo encoders
DE69333394T2 (de) Hochwirksames Kodierverfahren und -gerät
DE19959156C2 (de) Verfahren und Vorrichtung zum Verarbeiten eines zu codierenden Stereoaudiosignals
EP2867894B1 (de) Vorrichtung, verfahren und computerprogramm für frei wählbare frequenzverschiebungen in der subband-domäne

Legal Events

Date Code Title Description
8381 Inventor (new situation)

Inventor name: DAVIS, MARK FRANKLIN, SAN FRANCISCO, CA 94103-, US

8364 No opposition during term of opposition