dbdragAndi
Teil der Gemeinde
- Registriert
- 16. Nov. 2005
- Beiträge
- 22
Moin erstmal,
da ich diesbezüglich net weiter weiß hoffe ich, dass mir hier jemand die Frage beantworten kann.
Also es geht um folgendes:
- Angenommen eine Endstufe bekommt 1000 Ampere zugeführt
- Und auch angenommen die Impendanz wäre bei jeder Frequenz gleich (also gleiche Impendanz wie bei 25 Hertz so auch bei 70 Hertz). Man kann also die Impendanzsteigerung bzw. Impendanzsenkung als nicht betrachtenswert sehen
Nun lassen wir ein Sinuston spielen und messen den Wirkungsgrad. Wie verhält er sich z. B. bei 55 Hertz und wie bei 75 Hertz?
Ich habe nämlich einen Tatsache vorliegen, die ich mir technisch gesehen nicht erklären kann.
Endstufe bekommt etwa 1100 Ampere. Der Wirkungsgrad etc sind in einem sehr kleinen, kaum nennenswerten toleranzbereich.
Bei 55 Hertz kommen 6.6 KW..... bei etwa 75 Hertz kommen 9 - 10 KW heraus. Also echte gemessene Leistung.
Dies lässt mich folgern, dass je niedriger Frequenz, desto auch niedriger der Wirkungsgrad. Klar, des war mir auch bekannt. Den warum sonst brauchen Hoch bzw. Mitteltöner kaum Strom (also die antreibende Stufe). Nur der doch so große Unterschied hat mich total überrascht.
Was denkt ihr? Falls einer das technische Wissen dazu hat, wäre es sehr nett, wenn er hier nen Link posten oder es selbst hier erklären würde. Thankx

da ich diesbezüglich net weiter weiß hoffe ich, dass mir hier jemand die Frage beantworten kann.
Also es geht um folgendes:
- Angenommen eine Endstufe bekommt 1000 Ampere zugeführt
- Und auch angenommen die Impendanz wäre bei jeder Frequenz gleich (also gleiche Impendanz wie bei 25 Hertz so auch bei 70 Hertz). Man kann also die Impendanzsteigerung bzw. Impendanzsenkung als nicht betrachtenswert sehen
Nun lassen wir ein Sinuston spielen und messen den Wirkungsgrad. Wie verhält er sich z. B. bei 55 Hertz und wie bei 75 Hertz?
Ich habe nämlich einen Tatsache vorliegen, die ich mir technisch gesehen nicht erklären kann.
Endstufe bekommt etwa 1100 Ampere. Der Wirkungsgrad etc sind in einem sehr kleinen, kaum nennenswerten toleranzbereich.
Bei 55 Hertz kommen 6.6 KW..... bei etwa 75 Hertz kommen 9 - 10 KW heraus. Also echte gemessene Leistung.
Dies lässt mich folgern, dass je niedriger Frequenz, desto auch niedriger der Wirkungsgrad. Klar, des war mir auch bekannt. Den warum sonst brauchen Hoch bzw. Mitteltöner kaum Strom (also die antreibende Stufe). Nur der doch so große Unterschied hat mich total überrascht.
Was denkt ihr? Falls einer das technische Wissen dazu hat, wäre es sehr nett, wenn er hier nen Link posten oder es selbst hier erklären würde. Thankx

