Digital Coax Audio Kabel

Oh, was geht denn hier ab!?
Mein Senf von einem gelernten Funkelektroniker, der auch schon optische, digitale Übertragungsstrecken mit Jitter gestresst hat, bis das Bitfehlermessgerät gemeckert hat:
Bits werden entweder als 1, oder 0 gesendet und auch empfangen, ob die Flanke steiler oder flacher ist und dadurch ein Bit Nano-Sekundenbruchteile früher oder später erkannt wird, ist egal. Wichtig ist: Der Takt muss stimmen (das tut er, da er ja aus dem gleichen Signal gewonnen wird) es dürfen keine Reflektionen durch fehlangepassten Wellenwiderstand auftreten. Idealerweise würde eine "Worldclock" an alle angeschlossenen Geräte verteilt - wie das in Tonstudios gemacht wird.
Bitfehler durch zu schwach übertragene Signale sind faktisch erst nicht vorhanden steigen dann aber so sprunghaft an, dass die Übertragung kippt. Bei haushaltsüblichen Kabellängen ist damit nicht zu rechnen.
Was sensible Ohren bei analogen Übertragungen noch auf Kabelunterschiede zurückführen könnten, ist bei Digitalen nicht nachzuvollziehen.
Wenn ein Bitfehlermessgerät am Strecken-Ende zufrieden ist, kann mir kein Ohr der Welt erzählen, dass das andere (die physikalischen Anforderungen erfüllendes Kabel) einen hörbaren Unterschied macht. Die Fehler passieren im Analogteil, oder direkt bei der Wandlung.
JM2C,
Jürgen
 
Zuletzt bearbeitet:
Hi Jürgen,
das bestätigt ja ebenfalls unsere Vermutung.

Bei analogen Kabeln konnten wir im Prinzip die meisten Kabelunterschiede (wenn man die so nennen mag) auf eine geringere Störanfälligkeit zurückführen.
Das Paradebeispiel ist für mich da immer das alte 6-Kanal Audison Best Kabel.
Aber das ist ein anderes Kapitel.

Grüße Micha :beer:
 
Ach ja, wenn man sichs dreht wie man es braucht.

Worüber sprechen wir die ganze Zeit?
Reflexionen durch Fehlangepassten Wellenwiderstand von Steckern und Buchsen.

Was schreibt Jürgen:
es dürfen keine Reflektionen durch fehlangepassten Wellenwiderstand auftreten.

Jungs, Ihr seht nur was ihr sehen wollt, mit der Realität hat das leider nix zu tun.

Ich werd dazu nix weiter schreiben.
Wenn Ihr lieber im Taka-Tuka-Land lebt ist das euer Ding.

Gruß
Michael
 
Immer schön sachlich bleiben. :hippi:

Jürgen hat bestätigt, dass WENN Bitfehler passieren Sie direkt enorme Fehler produzieren.

Die Behauptung zuvor war ja, dass es hörbare Unterschiede (subjektive Klangveränderungen) gäbe.

Und der Behauptung fehlt halt bis jetzt an technischem Fundament.

Das ist doch gerade der enorme Vorteil einer digitalen Übertragung. Signal ist da oder nicht.

Grüße Micha :beer:

P.s. 2^0 macht 1 widewidewit und..... *sing*
 
ich bin raus. Werdet glücklich mit dem, was Ihr glaubt.
 
Klaus es geht doch nicht darum etwas zu glauben. :kopfkratz:
Du hast eine These aufgestellt und auf die Frage was sich warum ändern soll hast du lediglich von deiner Arbeit geschrieben und davon, dass du vermeintliche (nicht genannte) Änderungen in verschiedenen (nicht genannten) Ketten reproduzieren konntest.
Aber eine wirklich plausible Antwort fehlte mir da einfach.
Und bis dato sprechen einfach alle Fakten dafür, dass das digitale Signal entweder komplett sauber oder eben defekt übertragen wird.

Und ich sage es noch einmal: ich will niemanden ärgern oder ähnliches!
Deswegen schrieb ich auch, dass ich auch ggF gern per PN eine Antwort bekomme.

Schöne Grüße Micha :beer:
 
ich bin raus. Werdet glücklich mit dem, was Ihr glaubt.
Gar nix glaub ich...ich weiß, dass die Information (Audio-Signal) digital codiert in Bit-Frames drin steckt. Solange diese 1:1 die Übertragungsstrecke durchlaufen, also richtig erkannt werden, ist es IMHO egal, ob das Kabel aus Voodooistan, oder vom SAT-Anlagen-Installateur kommt.

Dass Kabel-abhängige Reaktanzen auf analoge Signale ihren Einfluss ausüben, stelle ich auch nicht in Frage...

Klar ist es ärgerlich, wenn man sich schon Jahrzehnte die Ohren blind verglichen hat und dann kommt wieder einer angesch...lichen, der behauptet, Digitalkabelklang gäbe es nicht :taetschel:
 
Das wollen Robert, Micha und Andreas anscheinend nicht gelten lassen.

Bin ich gemeint?

Also für meinen Fall zählen, als Radio und Fernsehtechniker sowie staatl. gepr. Elektroniktechniker, erst einmal nur technische Grundlagen. Und die wurden hier schon mehrfach beschrieben.

Bei Digitalübertragungen hat man Leistungsanpassung. Hier hat der Ausgangsverstärker einen Widerstand der zwingend auch die Signalübertragungskette und er Eingangsverstärker auch besitzen müssen. Ansonsten hat man Reflexionen. Infolge Wellentäler und Wellenberge. Wenn dann das signal so schlecht ist das die Fehlerkorrektur es nicht mehr rekonstruieren kann ist Schuss. Aber bis dahin ist das Signal da. und somit gibt es keine Unterschiede.

Bei analogen Übertragungswegen gibt es Unterschiede. Aber auch da glaube ich nicht an Voodoo


Problem der Digitalübertragung: Der Industrie bricht ein ganzer Geldmacherzweig weg. Aber auch hier versucht man, wie in der analogen Welt, mit gaaaanz viel dummen Zeug oder Voodoo Gefasel den Dukatenesel am Leben zu halten.
In der analogen Welt sieht es etwas (!) anders aus. Hier haben wir Spannungsanpassung. Der Verstärker hat einen niedrigen Ausgangswiderstand, der Eingang ist hochohmig. Aber auch hier sind die Auswirkungen verschiedener Kabel nicht soooo riesig wie sie von der Kabelindustrie verkauft werden … Schon gar nicht so hoch dass sie die teilweisen Mondprise rechtfertigen. Dreht ihr an euren DSPs nur einen µ so hat das uU mehr Einfluss auf den Klang wie das „Upgrade“ auf ein sündhaft teures Kabel ;-)
 
Zuletzt bearbeitet:
Also, soweit ich das sehe hat SPDIF keine Fehlerkorrektur, nichtmal einen festen Clock. Das Signal wird nicht über Vergleich des Pegels mit Schwellwerten erkannt, sondern durch Übergänge von niedriger zu höherer Spannung und zurück. Siehe dazu schon Wikipedia. Somit ist das Signal theoretisch schon recht anfällig für Jitter, denn im Empfänger muss ein Reclocking erfolgen bzw. die Samplingrate (indirekt durch den zu ermittelten Clocksignal) aus dem Signal erkannt werden. Es gibt keine Info im Frame welche Samplingrate verwendet wird. Somit nicht vergleichbar mit Netzwerktechnik oder typischen Bus-Systemen vom PC z.b. Es gibt keinerlei Rückkanal, keine Wiederholung verlorener Frames, nichts. Jitter kann also, je nachdem was der Empfänger mit dem Eingangssignal anfangen kann, schon dazu führen das es z.b. eine Art Rauschen gibt, je nach Implementierung auch schon durch das Reclocking. Idealerweise ist das Signal ähnlich Dithering verrauscht, aber im Zweifel kann es genausogut störend wirken. Wenn man gezielt z.b. nach "SPDIF error correction" und ähnlichen Begriffen sucht findet man da auch viel tiefere Infos. Wenn es beim Wellenwiderstand nun Probleme gibt kann es durchaus zu Jitter-ähnlichen Effekten kommen, die je nach Implementierung des Empfängers unterschiedlich, auch durchaus hörbare, Effekte haben können.


Guckt euch das Protokoll an bevor ihr mit der großen Digital-Technik Keule rumschwingt, es gibt so viele Arten der Digitalen Übertragung, mit oder ohne Fehlerkorrektur, mit und ohne Rückkanal, mit und ohne festes Clocking und somit unzählige Fehlerquellen und Möglichkeiten. Es muss ja nicht mal auf dem Kabel zu kompletten Bit-Fehlern kommen, wenn es der Empfänger schwer hat das Signal richtig zu interpretieren kann das auch schon ausreichen um Probleme zu bekommen. In dem Konkreten Fall ohne Clock liegt es auch ganz alleine am Empfänger ob er ein sauberes Signal rausbekommt, oder eben nicht. Passt der Frame nicht zum internen Clock kann man entweder den Frame puffern und mit neuem Clock wiedergeben, auf Null setzen, was auch immer. Da der nächste Frame OHNE Rückmeldung eh immer sofort auf die Reise geschickt wird, bricht die Verbindung auch nicht ab! Der Sender weiß nichts von den Problemen des Empfängers und sendet weiter, kommt dann mal wieder ein Frame passend wird wieder weiter verarbeitet. Wenn das ein teures Testgerät hinbekommt, hat das dann wenig Aussage über den DSP oder AVR oder was auch immer das Signal entgegennimmt. Messgeräte werden ja auf sowas optimiert, der Eingang eines DSP vielleicht nicht so sehr.

Setzt mal ein Gerät fest auf 44,1Khz senden und 48khz empfangen (manche Geräte erlauben das), dann wird man ganz unterschiedlichen hören - lautes Knacken, teile von Musik, oder auch nichts bzw. eine Mischung davon. Je nach eingesetzen Geräten das hat nichts mit den Kabeln zu tun, aber es zeigt das jedes Gerät etwas anders damit umgeht wenn der clock nicht richtig passt.


So viel zur Theorie, ob man Veränderngen hört - ich meine möglich ist es auf alle Fälle wenn man das Protokoll näher untersucht, je nach Gerät und Konstellation. Auch andere Kabel KÖNNEN es dem Empfänger (z.b. dank passenden Wellenwiderstand) leichter machen das Signal zu rekonstruieren.
 
@rene: wie ist jetzt deine meinung? glaubst du, dass ein stecker beim digi-coax den klang verändern kann?
hast du, der ja klangtechnisch durchaus interessiert ist, schon unterschiede gehört?
ich meine kein knacken bei einem defekten kabel, sondern klangveränderungen wie dynamischer, bassberonter, räumlicher oder ähnliches.
oder wenigstens ein nachvollziehbares rauschen zwischen zwei kabeln.

hälst du die digitale übertragung für so fehlerbehaftet, dass du sie nicht nutzt?
 
Moin René,

Also, soweit ich das sehe hat SPDIF keine Fehlerkorrektur, nichtmal einen festen Clock.

Es hat keine Fehlerkorrektur im herkömmlichen Sinne, sondern nur eine Parität über ein Kanal-Frame. Einzelne Bitfehler sind also erkennbar, aber nicht korrigierbar.
Einen festen Clock hat der Sender und auch der Bus, sonst würde es nicht funktionieren. Was heißt in diesem Kontext überhaupt "fest"...exakt Samplefrequenz*Bits*n? +/-1%...+/-0.1%, oder +/-1ppm? Auch geringste Abweichungen zwischen je einer festen Sender- und Empfängerclock würden bei einem Stream ohne Zeit zum Puffern früher oder später zum Verlust kompletter Pakete bzw. zu schweren Fehlern führen. Die Empfängerclock kann von da her gar nicht fest sein.

Das Signal wird nicht über Vergleich des Pegels mit Schwellwerten erkannt, sondern durch Übergänge von niedriger zu höherer Spannung und zurück. Siehe dazu schon Wikipedia. Somit ist das Signal theoretisch schon recht anfällig für Jitter, denn im Empfänger muss ein Reclocking erfolgen bzw. die Samplingrate (indirekt durch den zu ermittelten Clocksignal) aus dem Signal erkannt werden.

Das Signal wird schon über Pegel erkannt, aber nicht über Pegel während des Bits, sondern z.B. über zwei Pegel pro Bit, je am Anfang und am Ende. Das erlaubt es in jedem Bit die Clock mitzuschicken, egal ob tausend Nullen hintereinander kommen (bei NRZ-Codierung wäre hier die Clock nicht mehr rekonstruierbar), oder tausend Einsen, oder irgendwas anderes. Die Anfälligkeit für Jitter ist so also sogar geringer als anders, weil die Clock immer präsent ist, oder anders gesagt, mehr Clock pro Zeit zum mitteln. Aber dazu unten mehr.

Es gibt keine Info im Frame welche Samplingrate verwendet wird.

Es gibt zwei Bit für 44,48 oder 31kHz. Wäre aber eigentlich gar nicht unbedingt nötig, s.O.

Es gibt keinerlei Rückkanal, keine Wiederholung verlorener Frames, nichts. Jitter kann also, je nachdem was der Empfänger mit dem Eingangssignal anfangen kann, schon dazu führen das es z.b. eine Art Rauschen gibt, je nach Implementierung auch schon durch das Reclocking. Idealerweise ist das Signal ähnlich Dithering verrauscht, aber im Zweifel kann es genausogut störend wirken. Wenn man gezielt z.b. nach "SPDIF error correction" und ähnlichen Begriffen sucht findet man da auch viel tiefere Infos. Wenn es beim Wellenwiderstand nun Probleme gibt kann es durchaus zu Jitter-ähnlichen Effekten kommen, die je nach Implementierung des Empfängers unterschiedlich, auch durchaus hörbare, Effekte haben können. (...)

Ja, das ist der Teil der interessant ist und mich auch beschäftigt.

Implementiert wird das ganze über eine PLL im Empfänger, muss ja. Sonst würde es, wie gesagt, nicht sicher funktionieren. Die PLL wird während des ersten Frames von Hilfssysteme, die verhindern dass sich die PLL auf ein n-tel der Frequenz synchronisiert, auf die Clock geführt. Dann synchronisiert sie sich. Die Frequenz mit der sich die PLL ändern kann ist per Hardware beschränkt. Die Empfänger bieten für die weitere Verarbeitung per DAC o.ä. Ausgänge für die rekonstruierte Clock.

Das heißt, die PLL läuft mit dem Mittelwert der Bitrate über so viele Frames wie es durch die Hardware vorgegeben ist. Die Designbeispiele die ich gefunden habe haben -3dB bei ein einem Stück über 20kHz (Anmerkung: Das hat nichts mit der übertragenen Signalbandbreite zu tun!), vermutlich um einen "Lock" der PLL innerhalb von einigen Millisekunden zu gewährleisten.
Das heißt, Jitter der im Frequenzbereich der Bitrate kommt, egal woher, wird mit einigen 10dB unterdrückt. Muss er ja, sonst könnten die Bits nicht sicher erkannt werden. Jitter mit niedriger Frequenz wird kaum oder nicht unterdrückt. Sollte das nicht wie gedacht funktionieren passiert das was ich oben schon schrieb...alle Bits können Salat werden, jedes Audiobit und sonst auch alles. Das heißt, die ganze Bandbreite von gut hörbaren Störungen wird passieren.

Aber was heißt das nun für die Kabel und Stecker im Bezug auf Anpassung...
Kabel und Stecker können theoretisch je nach Anpassung veränderte Zeitverhältnisse erzeugen, kommt drauf an wie der Empfänger die Flanken erkennt, ob die Schwellen symmetrisch sind und ob er HL-Übergänge genau wie LH-Übergänge bewertet und was vorher war (Edit: ->Intersymbolinterferenz). Das sind alles Fehler die sich im Bereich der Bitrate abspielen, und damit von der PLL stark unterdrückt werden. Stark unterdrückt heißt nicht völlig entfernt...aber Jitter mit Bitraten-Frequenz hat auch auf die Interpretation im DAC erst mal keinen weiteren Einfluss, weil ja auch hier erst mal der Puffer mit dem entsprechenden Wort gefüllt wird, bevor gewandelt wird.

Erst dann wenn der DAC keine eigene Taktaufbereitung mehr hat, und ein einfach heruntergeteilter Bittakt aus dem S/PDIF-Receiver den Zeitpunkt festlegt zu dem der gewandelte Wert in den Analogausgang des DAC geschrieben wird könnte es theoretisch passieren dass eine Flanke des S/PDIF-Signals incl. Übergang einen Einfluss auf die Wandlung des DAC hat. Nutzt man dazu aber z.B. das 4Bit-Präambel am Anfang jedes Frames gibt es kein Problem, weil darin alle Übergänge definiert und jedes mal gleich sind. (Edit:Gerade gesehen - der TI DIR9001 scheint genau das zu machen, was ja auch Sinn macht.)

Also, zusammengefasst...wenn der Empfänger ungleiche Schwellen für LH und HL hat, gleichzeitig der DAC keine eigene Taktaufbereitung hat und eine Flanke die keine definierte Richtung hat für den setzen des neuen DAC-Wertes benutzt wird, DANN könnte ich mir vorstellen dass verschieden angepasste Kabel ein verschiedenes Rauschen ins Ausgangssignal bringen...aber in einem Frequenzbereich, einer Bandbreite und einer Amplitude dass es nicht aus dem Gerät kommen wird und bestenfalls zu messen ist.


Niederfrequenter Jitter der im Hörbereich passiert und sehr viel wahrscheinlicher bis ins Analogsignal "durchschlägt", kommt sicher nicht aus dem Kabel, sondern aus dem Sender.


Über Kommentare, Korrekturen oder Ergänzungen dazu würde ich mich freuen!
 
Zuletzt bearbeitet:
Ich glaube das viele Berichte über Probleme mit der digitalen Übertragung aus der Anfangszeit stammen und sich irgendwie festgesetzt haben. Und auch da der übliche High Ender auf einfache Lösungen schwört. Wobei ich einiges nachvollziehen kann da die perfekte lineare Wiedergabe auch als unspektakulär, fast schon langweilig, empfunden werden kann. Und wenn ein Gerät auch ein paar Fehler hat kann man als Charakter ansehen. Ich höre gerne mit Breitbändern, sie deshalb aber als die einzig wahre Variante hinzustellen würde aber heißen das ich meinen Geschmack als Objektiv betrachten würde.
P.S.: Ich benutze keine 08/15 Kabel. Nicht weil ich mir daraus spezielle Wunderklänge verspräche, sondern weil ich Kabel interessant finde und mich für den Hintergrund begeistern kann.
Außerdem sollte man die Psychoakustik mit einbeziehen. Wenn ich der Meinung bin mit irgendeinem Tuning die Seele der Musik besser zu übertragen, so wird die Musik sich für mich besser anhören. Und das ist auch schon mal ein Pluspunkt.
 
Ẕw;4518225 schrieb:
Es hat keine Fehlerkorrektur im herkömmlichen Sinne, sondern nur eine Parität über ein Kanal-Frame. Einzelne Bitfehler sind also erkennbar, aber nicht korrigierbar.
Genau das meine ich, Fehlererkennung, teilweise ja, aber Fehlerkorrektur nicht. Das ist ein Unterschied. Was macht er mit erkannten Bitfehlern? Das Frame verwerfen? Keine Ahnung ob das definiert ist, ich vermute kommt auf die Implementation im Empfänger an.

Ẕw;4518225 schrieb:
Das Signal wird schon über Pegel erkannt, aber nicht über Pegel während des Bits, sondern z.B. über zwei Pegel pro Bit, je am Anfang und am Ende.
Wie geschrieben, es wird nicht mit einem Referenzpegel verglichen, das meinte ich. Die Pegeländerung muss Ausgeprägt genug sein um den Übergang beim Empfänger zu erkennen, aber der absolute Wert ist nicht ganz so relevant wie bei anderen Kodierungen.

Ẕw;4518225 schrieb:
Es gibt zwei Bit für 44,48 oder 31kHz. Wäre aber eigentlich gar nicht unbedingt nötig, s.O.
Okay, hatte ich dann wohl übersehen.

Ẕw;4518225 schrieb:
Ja, das ist der Teil der interessant ist und mich auch beschäftigt.
Ich bin in dem Teil offensichtlich nicht so tief drin wie du, das was ich wiedergegeben habe ist zumindest was ich in der Vergangenheit herausgelesen habe in Büchern oder dem Internet. Schwer wird immer wenn es pauschal als unmöglich beschrieben wird, OHNE sich wie du etwas tiefer damit zu beschäftigen. Mich hat das unklare an dem Thema am Ende dazu bewogen auf eine Optische Verbindung zu setzen, in der Hoffnung das sie etwas robuster ist.

Was mich auch zu der Frage bringt:
wie ist jetzt deine meinung? glaubst du, dass ein stecker beim digi-coax den klang verändern kann?
Ich habe es selber noch nicht gehört da ich am Ende optische Kabel benutzt habe. Aber ich schließe es mit meinem aktuellem Kenntnisstand nicht aus das es möglich ist. Ich schließe auch nicht aus das solche Effekte durch fehlerhaftes Reclocking beim Empfänger oder ähnliches ausgelöst werden und am Ende nichts mit dem Kabel zu tun hat wenn man doch Unterschiede hören sollte.


Aber mal noch generell meine Meinung zum Thema hören und dem Umgang damit - warum maßen sich immer wieder Leute (mit oftmals wenig Hörerfahrung) an zu wissen was ANDERE hören können? Ich stelle mich doch auch nicht auf die Straße und behaupte: "das Schild da hinten kann niemals jemand lesen von hier", nur weil ich es nicht kann? Ich maße mir nicht an zu sagen "es kann keinen Menschen geben der Wein am Geruch unterscheiden kann" nur weil für mich alle Weinsorten gleich riechen? Oder das niemand ein absolutes Gehör haben kann da ich keins habe? Das Gehör ist der am schwersten zu trainierende Sinn beim Menschen, aber es geht trotzdem. Es ist durchaus möglich das man sich da kontinuierlich weiterentwickelt, vor allem Gehörtes mit der Zeit einfach besser einsortieren und einordnen kann und somit Fehler in fremden Anlagen leichter wiedererkennen kann da man sowas schonmal selber gehört und am Ende behoben hat.

Denn ganz viel ist auch einfach Erfahrung, so wie das Thema "mp3 kann man nicht hören". Ja, das mag für über 98% aller Menschen zutreffen. Aber so wie es wenige gibt die Weinsorten riechen können (oder was anderes, keine Ahnung was es da noch so gibt), oder wenige gibt die das Schild auch aus 50m Entfernung noch richtig lesen können, gibt es z.B. vielleicht welche die von dem Akustischen Modell, welches mp3 zu Grunde liegt, nicht so leicht ausgetrickst werden können? Wenn man die Artefakte kennt und schonmal deutlich in einer schlechten mp3 gehört hat, kann es doch durchaus Leute geben die diese Muster selbst bei 320kbit/s raushören, obwohl es 20 andere nicht tun - wie ja schon bewiesen wurde. Deswegn hört derjenige doch gar nicht unbedingt sofort schlecht und es ist auch nicht verwerflich wenn jemand den Unterschied NICHT hört (denn dann hat mp3 seinen Sinn erfüllt), dafür aber sofort raushört wenn ein Musiker auch nur einen falschen Ton trifft. Das wiederum fällt vielleicht der Person gar nicht auf die mp3 raushören kann. ;)
 
@rene: glaubst du, dass ein stecker bei optischen kabeln zu den von mir aufgeführten klangunterschieden führen kann oder ist dort immer alles gleich gut?
hast du bei dir mit verschiedenen kabeln getestet und am ende das beste kabel genommen?

und wieso soll ich ‚glauben‘, dass leute verschiedene stecker heraushören, ohne beweise zu liefern?
nur weil es jemand da draussen vielleicht könnte und ich alles mögliche nicht in frage stellen sollte?!

ich ‚glaube‘ ja auch nicht, dass jemand über das wasser laufen kann, obwohl ich es natürlich nicht wissen kann, weil ich nicht jeden menschen persönlich gefragt habe, es mir zu zeigen.
die bisherigen meinungen lassen mich das aber annehmen.
bin ich jetzt ein ignorant?

das beispiel ist jetzt ein wenig weit hergeholt...

glauben gehört für mich in die kirche, synagoge, moschee, tempel etc.
aber nicht in die hifi-thematik.
 
Vielen Dank Tobi für die Erläuterung!
Das bedeutet also in sofernalso kurz, dass wenn der Sender Schrott ist man mit einem falschen Übertragungsmedium die Übertragung nicht besser macht?!


Bei optischen Kabeln sieht die Welt doch auch noch mal anders aus.
Da sorgt der Stecker dann wohl eher für den strammen Sitz in der Buchse.
Zudem haben ALLERMEISTEN Kabel im Consumerbereich einen Kunststoffkern, was afaik dazu führt, dass diese nicht unendlich lang sein dürfen.
Afaik sieht die Spezifikation sogar nur 5m vor.
Wird es zu lang, dann kommt halt nix Auswertbares mehr an. Ö

Ich selbst habe allerdings auch schon problemlos ein 10m Toslinkkabel benutzt.

Grüße Micha :beer:

p.s. @ Robert: https://m.youtube.com/watch?v=CW0TijmAUqY :ugly:
 
und wieso soll ich ‚glauben‘, dass leute verschiedene stecker heraushören, ohne beweise zu liefern?
Ich habe nie etwas von Glauben geschrieben, das Wort kommt von dir. Ich muss niemanden bekehren, ich weiss doch selber gar nicht ob es einen klanglichen Unterschied gibt, ich kann es mir aber vorstellen das in bestimmten ungünstigen Konstellation von einzelnen Personen Unterschiede wahrgenommen werden könnten. Soll heißen, ich bin für beide Seiten offen und lese mir jede fundierte Erklärung gerne durch und versuche sie zu verstehen. Du bist scheinbar schon festgelegt und ich habe den Eindruck du versuchst jetzt andere an den Pranger und in die Voodoo-Ecke zu stellen nur weil sie nicht beim gegenseitigen Schulterklopfen der "Wissenden" mitmachen. Hilft bei der theoretischen Aufarbeitung des Themas aber eher wenig. ;) :beer:

glaubst du, dass ein stecker bei optischen kabeln zu den von mir aufgeführten klangunterschieden führen kann oder ist dort immer alles gleich gut?
Wie geschrieben ich glaube da gar nichts. Ich habe mir die physikalischen Eigenschaften angeschaut und dann für optisch entschieden, da der Stecker schön stramm im Gehäuse sitzt, es keine Elektrischen Störeinflüsse auf dem Kabelweg gibt, man generell weniger von Probleme liest und ich somit einfach vermute, das ich ein paar eventuelle Problemquellen weniger habe. Ganz Pragmatisch und hat erstmal nichts mit dem Klang zu tun.
Und auch hier wieder, deine Art der Frage zielt für mich darauf ab mich an den Pranger zu stellen und mir ein kleines Schildchen auf die Stirn zu heften. Dazu kommt auch hier wieder die subjektive Wahrnehmung, denn woher soll ich wissen was du hörst? Der eine hört z.b. bei minimalen Änderungen im Setup eines Autos eine ganz leichte Veränderung wenn er sich richtig konzentriert, der andere sagt an der gleichen Stelle WOW ist das krass, gleich viiiel besser! Wer hat dann "Recht"? Diese Art der Diskussion ist nicht zielführend und darauf lasse ich mich auch nicht ein.

Ich bin weiter an technischen Details interessiert wie sie z.b. von Tobi kommen, da kann jeder selber versuchen seine Ausführungen nachzuvollziehen, mit anderen Quellen vergleichen und somit sein Wissen erweitern. Und wenn ich bisher falsche Annahmen getroffen habe, dann korrigiere ich sie auch gerne wenn ich verstanden habe wo mein Fehler liegt. :thumbsup:
 
Bei optischen Kabeln sieht die Welt doch auch noch mal anders aus.
Da sorgt der Stecker dann wohl eher für den strammen Sitz in der Buchse.
Zudem haben ALLERMEISTEN Kabel im Consumerbereich einen Kunststoffkern, was afaik dazu führt, dass diese nicht unendlich lang sein dürfen.
Afaik sieht die Spezifikation sogar nur 5m vor.
Wird es zu lang, dann kommt halt nix Auswertbares mehr an.

Toslink wird nicht nur durch die Verwendung von Kuststoff eingeschränkt sondern auch durch den Durchmesser von 1mm.
https://www.opternus.de/wissen/glasfasertypen
Normale Lichtleiter sind im Mikrometerbereich um Impulse nicht zu verformen.
 
Zurück
Oben Unten