Diskussion:Pilotton-Multiplexverfahren
Lizenzhinweis
BearbeitenDie Artikel FM-Stereo und Stereodecoder haben sich thematisch überschnitten. Daher wurden aus dem Artikel Stereodecoder einige Textpassagen übernommen und in FM-Stereo eingefügt.
- hier findet sich der Artikel Stereodecoder zum Zeitpunkt der Übernahme
- hier findet sich die zusammengefasste Versionsgeschichte des Artikels Stereodecoder.
Pemu (Diskussion) 12:12, 3. Dez. 2018 (CET)
Eigentliche Diskussion:Pilotton-Multiplexverfahren
BearbeitenDeine Skizze müsste anders aussehen. Die Frequenzhubsanteile des idealisierten Spektrums des Multiplexsignals teilen sich folgendermassen auf: 45% für den (L+R)-Anteil, zwei Mal 22,5% für die (L-R)-Anteile, 10% für den Pilotton. Vernachlässigt wurde der RDS-Träger.
MfG Stefan
- Ja, das Bild zeigt ja nicht mal das FM-Spektrum, sonder nur das reine Multiplex-Signal (unabhängig ob im Basisband oder nicht). Das FM-Spektrum sieht aus, wie der "Kölner Dom". Muss das mal bei Gelegenheit korrigieren. --DB1BMN 17:26, 27. Sep 2006 (CEST)
Wieso ist denn in der Skizze 2mal L-R drin? Es wird doch wohl nicht zweimal das gleiche Signal übertragen? --217.51.47.60 13:27, 31. Mär. 2007 (CEST)
- Ja, wird quasi "zweimal" übertragen: Unteres und oberes Seitenband, wie es bei der Amplitudenmodulation auftritt. Braucht zwar mehr Bandbreite, vereinfacht aber den Schaltungsaufwand beim Empfänger.--wdwd 16:00, 31. Mär. 2007 (CEST)
Pilotton:
BearbeitenEs wird nicht klar, warum der 38kHz Träger entfernt wird und das 19kHz Signal übertragen wird, wenn im Empfänger aus den 19kHz doch wieder 38kHz gemacht werden. Oder einfacher:
Warum wird nicht der Träger mit übertragen und gleichzeitig als Pilotton genutzt. [bbehler, 20.8.07]
- Grund ist die begrenzte Bandbreite. Sollte nun im Artikel erklärt sein. --80.254.147.100
- Ich hab mal noch einen erklärenden Satz reingeschrieben. -- Pemu (Diskussion) 00:27, 27. Nov. 2018 (CET)
- Und es eben nochmal umformuliert und expliziter formuliert. -- Pemu (Diskussion) 23:48, 9. Mär. 2023 (CET)
Begrifflichkeiten
BearbeitenHabe mal begonnen, die Redundanz abzubauen. Dabei sind mir folgende begriffliche Äquivalenzen aufgefallen:
- Basisbandsignal bzw. Multiplexsignal: Ich versuche, durchgängig Basisbandsignal zu nehmen, weil ich es als geläufiger empfinde.
- Mittensignal und Seitensignal bzw. Summensignal und Differenzsignal: Habe ein bisschen gehadert, aber mich für Mittensignal und Seitensignal entschieden. Die Begriffe kenne ich eher aus der MS-Stereofonie, finde sie aber deutlich intuitiver, da sie nicht die Operation, sondern den Inhalt der Signale benennen. Mit der gleichen Begründung beginne ich gerade, beim Punkt oben drüber doch eher zu Multiplexsignal zu tendieren – zumal, wenn man das RDS-Gedöns mit betrachtet, die Begriffe nicht mehr äquivalent sind, da Basisbandsignal auch das RDS-Gedöns umfasst, Multiplexsignal aber nicht.
Bin bis "Mit dem ARI-System …" gekommen. Da möchte ich noch schnell darauf hinweisen, dass ich die Tiefe, mit der hier auf das ARI- und RDS-Gedöns eingegangen wird, als off-topic empfinde.
- Habe mich nun doch für Multiplexsignal entschieden.-- Pemu (Diskussion) 12:34, 28. Nov. 2018 (CET)
-- Pemu (Diskussion) 00:38, 28. Nov. 2018 (CET), erg. -- Pemu (Diskussion) 01:04, 28. Nov. 2018 (CET)
Schalt-Demodulatoren
BearbeitenDen Teil mit den Schalt-Demodulatoren habe ich aus Stereodecoder übernommen – bin mir aber nicht ganz sicher, ob ich es nicht falsch verstanden habe. Was meint Ihr? -- Pemu (Diskussion) 00:43, 28. Nov. 2018 (CET)
„Pilotton-Multiplexverfahren“
BearbeitenWenn ich den Text richtig verstehe, heißt das Verfahren „Pilotton-Multiplexverfahren“. Warum dann das Lemma "FM-Stereo"? -- Pemu (Diskussion) 09:09, 30. Nov. 2018 (CET)
- Wenn keine Einwände kommen, verschiebe ich den Artikel demnächst mal. -- Pemu (Diskussion) 15:36, 2. Dez. 2018 (CET)
- Getan. -- Pemu (Diskussion) 12:02, 4. Dez. 2018 (CET)
75 kHz Kanalraster
BearbeitenAus der alten Version von Stereodecoder habe ich diesen Teil nicht übernommen:
- Man erreicht das, indem zusätzlich zum Summensignal durch Amplitudenmodulation mit unterdrücktem Träger auf einen Hilfsträger von 38 kHz das aus linkem und rechten Stereokanal gebildete Differenzsignal (L - R) übertragen wird. Die zur Übermittlung benötigte Bandbreite reicht nun bis ca. 53 kHz – dem Ende des oberen Seitenbandes des Differenzsignales und passt damit noch in das verfügbare UKW-Kanalraster von 75 kHz. Das untere Seitenband beginnt ab ca. 23 kHz, also außerhalb der menschlichen Hörfläche (Hörbereich). Zur Rückgewinnung des unterdrückten Hilfsträgers im Empfänger wird mit halber Frequenz von 19 kHz ein phasengleicher, abgeschwächter Pilotton übertragen.
Entweder steht das gesagte schon im Artikel oder ich halte es für falsch. -- Pemu (Diskussion) 01:48, 2. Dez. 2018 (CET)
Literatur/Weblinks
BearbeitenIn der alten Version von Stereodecoder waren diese Links und Literaturangaben:
Literatur
Bearbeiten- Karl Dirk Kammeyer, Nachrichtenübertragung, Teubner 1996, ISBN 3-519-16142-7
Weblinks
Bearbeiten- Beschaltung des bekannten LM/MC1310
- Selbstbau eines UKW-Empfängers mit Stereodecoder
- UKW-Empfänger mit AN7410N als Stereo-Decoder
- Stereo-Decoder mit Spulen und Transistoren
Zu dem Buch kann ich nichts sagen, da es mir nicht vorliegt. Die Weblinks lasse ich mal hier stehen; ich denke, wenn man ein DIY-Wikibook zum Thema macht, sind die interessant.
Andere (angewandte und Monokompatible) Methode für (UKW) Hörrundfunk-FM-Stereo ,auch nach ITU-Empfehlung .
BearbeitenWarum kein einziges Wort vom sogenannten Polarmodulationsverfahren das ohne Pilotton dafür aber mit untrdrücktem Unterträger auf 31,25 kHz auskommt ? 5.184.15.109 16:52, 22. Sep. 2019 (CEST)RaumLauscher
- Vielleicht, weil ich mich als Leser wundern würde darüber, dass es ohne Pilotton auskommt, obwohl das Lemma Pilotton-Multiplexverfahren lautet. -- Pemu (Diskussion) 19:09, 22. Sep. 2019 (CEST)
Was ist dieser grüne Bereich zwischen 23 kHz und 53 kHz wirklich?
BearbeitenDie Bilddatei "UKW-Rundfunk-Basisband.svg" zeigt einen grünen Bereich zwischen 23 kHz und 53 kHz; dies soll wohl das Differenzsignal darstellen. Warum liegt das im Ultraschallbereich? Das Differenzsignal muss doch ebenfalls im menschlichen Hörbereich liegen, also in dem im Bild gezeigten roten Bereich unterhalb 15 kHz. Andernfalls wird die Zumischung dieses Ultraschall-Differenzsignals das hörbare Monosignal nicht beeinflussen. Gut, vielleicht ist mit dem Bereich von 23 bis 53 kHz eine Frequenzmodulation gemeint, womit jenes hörbare Differenzsignal erst noch erzeugt werden muss. Aber dann wiederum verstehe ich nicht, warum es im Text heißt, das Differenzsignal werde durch Amplitudenmodulation übertragen. Wozu brauche ich für eine einfache AM dieses ganze grüne Band von 23 bis 53 kHz? Mir scheint, Text und Bild widersprechen sich hier. Danke.
- > Warum liegt das im Ultraschallbereich?
- Hm – damit es einen Monoempfänger nicht beim Empfang des Mittensignals einer Stereosendung stört? Eher: Da es im Ultraschallbereich liegt, stört es dem Empfang nicht. Siehe Pilotton-Multiplexverfahren#Mono-Empfänger.
- > Das Differenzsignal muss doch ebenfalls […]
- Dahin bringt es erst der Stereodekoder. Siehe Pilotton-Multiplexverfahren#Der_Stereodecoder, "Mit dessen Hilfe gewinnt er aus dem Multiplexsignal […]".
- > Andernfalls wird die Zumischung […]
- Wenn ich aus Laienmunde "…misch…" höre, möchte ich auf den zweiten Absatz, noch vorm Inhaltsverzeichnis, von Mischer (Elektronik) verweisen.
- > Gut, vielleicht ist mit dem Bereich […] eine Frequenzmodulation […]
- Nein, es ist Amplitudenmodulation mit unterdrücktem Träger, siehe Pilotton-Multiplexverfahren#Allgemeines, "in Bandpasslage umgesetzt nach dem Verfahren der […]"
- > Wozu brauche ich für eine einfache AM dieses ganze […]
- Hm – weil sie "einfach" ist? Das führt hier zu weit, das gehört eigentlich nach Amplitudenmodulation mit unterdrücktem Träger, besser aber vielleicht nach Amplitudenmodulation
- Mir scheint, ich weiß kaum, wie ich den Artikel besser gestalten kann. Ein paar Änderungen habe ich gemacht, aber ich bin trotzdem ratlos und erbitte Mithilfe. -- Pemu (Diskussion) 01:20, 9. Nov. 2021 (CET)
- Danke für die Antworten auf meine Fragen. Ich sehe jetzt, dass das wirklich eine AM ist und keine FM. Also der Artikel-Text ist natürlich richtig. Die AM der 38 kHz erzeugt das hörbare Differenzsignal, und -- wenn ich es richtig verstehe -- ist dieses hörbare Differenzsignal selbst auf der Spektrum-Grafik gar nicht zu sehen! Es ist auch nicht auf dem Foto "FM_stereo_spectrum.png" zu sehen. Dennoch sind da merkwürdige Signale direkt links und rechts der 38 kHz. Was ist das? Wenn wir wissen, was das ist, können wir es auch benennen. Dieser Bereich hat zwar, wie in der Grafik beschrieben, etwas mit "Audio L-R" zu tun hat, weil darin die 38 kHz liegen. Aber zu diesem speziellen AM-System gehören nur die 19 kHz und die 38 kHz, oder? Der Rest zwischen 23 und 53 kHz ist vielleicht nur nutzloses Rauschen? -- Man muss hier aufpassen, dass man das Spektrum des Tonmaterials nicht verwechselt mit dem des Radiosignals (was hier nirgends abgebildet ist): Die 19 kHz und 38 kHz sind ja Töne, die mit einer FM des Radiosignals erzeugt werden, z.B. auf 100 MHz. Das ist schon verrückt: Eine hochfrequente FM erzeugt einen niederfrequenten Ton (38 kHz), welcher wiederum eine AM enthält, womit man wiederum ein noch niederes und schließlich hörbares Audio erzeugt. Es ist offenbar besser, die AM auf die 38 kHz zu setzen als auf das 100 MHz Radiosignal selbst (das nebenher durch FM weiterhin das Monosignal erzeugt).
- [BK]
- > Die AM der 38 kHz erzeugt das hörbare Differenzsignal
- Also die Demodulation erzeugt das hörbare Differenzsignal.
- > Aber zu diesem speziellen AM-System gehören nur die 19 kHz und die 38 kHz, oder?
- Nein. Die 19 kHz gehört nicht dazu. (Außer, dass vorbereitend von hier die Informationen gewonnen werden, um einen phasenrichtigen 38-kHz-Träger zu erzeugen, den man zur Demodulation braucht.) Es gehört alles von 23..53 kHz dazu. Das ist ein AM-Bandpasssignal (aber halt ohne Träger). Da die beiden Audiosignale (M&S) sehr ähnlich sind (ähnliches Spektrum, Pegel von S etwas geringer, entsprechend einer gewissen Korrelation der Audiosignale L&R, erkennt man auch eine gewisse Ähnlichkeit im MPX-Signal zwischen 0 und 15 kHz einerseits und 38..53 kHz andererseits (bzw. 38..23 kHz, aber gespiegelt). Lies einfach Amplitudenmodulation.
- -- Pemu (Diskussion) 13:16, 11. Nov. 2021 (CET)
- Ich glaube, meine Frage am Anfang wurde missverstanden; mir ist schon klar, dass das Differenzsignal beim Empfang nicht den hörbaren Bereich stören darf, und deshalb im Ultraschallbereich liegen muss. Ich meinte lediglich zu fragen, warum man das ganze grüne Band von 23 bis 53 kHz irritierenderweise als "Audio L-R" beschriftet, wo doch auf dem Spektrum-Bild das "Audio L-R" (das Differenzsignal) noch gar nicht dekodiert ist. Das Spektrum zeigt zwei Töne bei 19 kHz und 38 kHz, und einige seltsame Signale im Bereich zwischen 23 und 53 kHz. Diese "seltsamen Signale" können doch nicht das aus dem AM dekodierte L-R-Differenzsignal sein. Weiß jemand, was das wirklich ist? Ist das Rauschen?
- Hm, ich habe den Eindruck, dass die Fragen nicht offen gestellt werden, sondern mit Vorwissen hinterm Berg gehalten wird – fast so, als ob getestet werden soll, wie geantwortet wird.
- Nach Lektüre von Amplitudenmodulation erscheinen mir die gezeigten "Signale im Bereich zwischen 23 und 53 kHz" nicht "seltsam". Daher bin ich am Ende meiner Weisheit. -- Pemu (Diskussion) 13:16, 11. Nov. 2021 (CET)
- Meine Fragen sind ehrlich gemeint. Kein Test. Ich bin kein Nachrichtentechniker, nur Tontechniker (Mischpult, Mikros und so). Nachdem ich jetzt den empfohlenen Artikel "Amplitudenmodulation" nochmal angeschaut habe, vermute ich, dass jene "seltsamen Signale" in der Fachsprache "Seitenbänder" heißen. Das wusste ich nicht. "Seitenbänder" war mir ein Begriff, aber ich dachte immer, das wären die Amplituden-Hüllkurven oberhalb und unterhalb des Nulldurchgangs. Wieder was gelernt. Ich finde es dennoch und immer noch irritierend, dass diese Seitenbänder auf dem Spektrumbild als "L-R Audio" beschriftet werden, als ob dieser Spektrum-Bereich schon das fertige "L-R Audio" abbilden würde (ähnlich wie das fertige "L+R Audio" links von 15 kHz). Ist jetzt aber auch kein Drama. Habe nicht die Absicht, Dir auf den Keks zu gehen. Beste Wünsche.
- Keine Bange, sorry. Zumal wir ja nun auch bei eigentlichen Zweck der Diskussionseite angelangt sind – der Artikelverbesserung. Ich habe zwischenzeitlich die Beschriftung bei der einen Grafik angepasst, da sollte jetzt "L−R, DSB-SC-moduliert" stehen. Ich kenne keine griffige Kurzschreibweise, aber viel länger wollte ich in dem Bild nicht formulieren. Im Text habe ich beim ersten Auftauchen von "Amplitenmodulation mit unterdrücktem Träger" in Klammern das DSB-SC ergänzt (Abk. für die engl. Bezeichnung von AM m.u.T.
- Ich bin kein HF-Fachmensch, daher weiß ich nicht, ob es eine allg. akzeptierte deutsche Abk. gibt.
- IMHO ist das so besser, oder?
- Genaugenommen müsste da auch statt "RDS" eher "RDS, 2-PSK-moduliert" stehen. Aber da fängt es schon an: Nennt man das bei 54..60 kHz "RDS-Signal" oder ist das ein moduliertes RDS-Signal? Sind die demodulierten Signale "RDS-Signale"? Oder ist das schon ein interner Datenstrom, der bei der Dekodierung des eigentlichen RDS-Signals (bei 54..60 kHz) entsteht?
- -- Pemu (Diskussion) 09:20, 12. Nov. 2021 (CET)
- Ja, ich finde es auch besser so. Vielen Dank. Das Wort "moduliert" in Klammern macht jetzt klar, dass das noch nicht das fertige L-R Audio ist. -- Unter "RDS" könnte man vielleicht in Klammern schreiben: "(phasen-moduliert)". Andererseits könnte man diesen Zusatz auch weglassen, weil das "S" in RDS für "System" steht, und zu diesem System gehören wahrscheinlich alle Einzelheiten vom RDS-Sender bis zum RDS-Empfänger, und nicht nur die finalen Zeichen auf dem Display. Also das Wort "System" ist ja all-umfassend, während das Wort "Audio", zum Beispiel, nur das finale Signal meint, in dem Fall das finale Lautsprecher-Signal.
- Dass das "fertige Audio" natürlich erst dann da ist, wenn es vom Lautsprecher vom elektrischen in ein akustisches Signal umgewandelt wurde, ist Dir wahrscheinlich genauso klar, wie es mir Nachrichtentechniker klar erschien, dass es natürlich moduliert ist, wenn es in einem entsprechenden Frequenzband mit seinen typischen Seitenbändern liegt. -- Pemu (Diskussion) 00:05, 15. Nov. 2021 (CET)
- Sicher. Aber tatsächlich überhaupt nicht klar waren mir diese abgebildeten Signale, die -- wie ich jetzt weiß -- "Seitenbänder" heißen. Ich dachte immer, bei AM passiert nichts im Spektrum links und rechts von der Trägerfrequenz; dachte immer, sowas passiert nur bei FM (wegen der Frequenzänderung). Kurzum, das sah für mich Laien nicht wie eine AM aus. Und dann war dieser Spektrumteil irritierenderweise auch noch mit "Audio" beschriftet, nicht als AM. Erst jetzt weiß ich, wie eine AM aussieht. Erst jetzt verstehe ich diese Seitenbänder. Ich glaube, Du setzst zuviel Vorwissen voraus bei den Lesern. (nicht signierter Beitrag von 109.193.46.141 (Diskussion) 19:09, 18. Nov. 2021 (CET))
- Ich setze es nicht voraus, ich habe zuviel Vorwissen. Es waren ja nur Kleinigkeiten, die ich geändert habe, aber es ist gar nicht so einfach, sich in den Leser hineinzuversetzen. Und dann will ich es auch nicht zu breit treten, weil – es gibt ja schließlich die Artikel wie Amplitudenmodulation, wo man es genauer nachlesen kann. -- Pemu (Diskussion) 21:11, 18. Nov. 2021 (CET)
- Sicher. Aber tatsächlich überhaupt nicht klar waren mir diese abgebildeten Signale, die -- wie ich jetzt weiß -- "Seitenbänder" heißen. Ich dachte immer, bei AM passiert nichts im Spektrum links und rechts von der Trägerfrequenz; dachte immer, sowas passiert nur bei FM (wegen der Frequenzänderung). Kurzum, das sah für mich Laien nicht wie eine AM aus. Und dann war dieser Spektrumteil irritierenderweise auch noch mit "Audio" beschriftet, nicht als AM. Erst jetzt weiß ich, wie eine AM aussieht. Erst jetzt verstehe ich diese Seitenbänder. Ich glaube, Du setzst zuviel Vorwissen voraus bei den Lesern. (nicht signierter Beitrag von 109.193.46.141 (Diskussion) 19:09, 18. Nov. 2021 (CET))
- Dass das "fertige Audio" natürlich erst dann da ist, wenn es vom Lautsprecher vom elektrischen in ein akustisches Signal umgewandelt wurde, ist Dir wahrscheinlich genauso klar, wie es mir Nachrichtentechniker klar erschien, dass es natürlich moduliert ist, wenn es in einem entsprechenden Frequenzband mit seinen typischen Seitenbändern liegt. -- Pemu (Diskussion) 00:05, 15. Nov. 2021 (CET)
- Ja, ich finde es auch besser so. Vielen Dank. Das Wort "moduliert" in Klammern macht jetzt klar, dass das noch nicht das fertige L-R Audio ist. -- Unter "RDS" könnte man vielleicht in Klammern schreiben: "(phasen-moduliert)". Andererseits könnte man diesen Zusatz auch weglassen, weil das "S" in RDS für "System" steht, und zu diesem System gehören wahrscheinlich alle Einzelheiten vom RDS-Sender bis zum RDS-Empfänger, und nicht nur die finalen Zeichen auf dem Display. Also das Wort "System" ist ja all-umfassend, während das Wort "Audio", zum Beispiel, nur das finale Signal meint, in dem Fall das finale Lautsprecher-Signal.