Die Grenzen eines analogen Grabbers - und die digitale Lösung

  • Da spielt glaube ich auch der persönliche geschmack eine rolle...ich mag es wenn das bild bisschen dunkler ist, das die leds einfach aus sind...andere wollen bei einem "schwarzen hintergrund" einfach ein leichtes weisses leuchten....


    aber den noch allgemein graue farben oder braun etc anzuzeigen ist sowieso immer eine kritische sache...ich denke das wir mit dem verschwommenen bild erstmal weiter kommen sollte damit das flackern schonmal weg ist...hoffe ich


  • Oder besteht das Problem evtl. zusätzlich auch noch darin, dass eine LED nie den gesamten Farbraum abdecken kann, da eine LED auch im abgedunkelsten Zustand (kurz vor aus) noch locker über RGB(50,50,50) liegt? Das würde zumindest auch erklären warum es zwischen schwarz und dunkelgrau einen harten Übergang gibt.


    Da spielt glaube ich auch der persönliche geschmack eine rolle...ich mag es wenn das bild bisschen dunkler ist, das die leds einfach aus sind...andere wollen bei einem "schwarzen hintergrund" einfach ein leichtes weisses leuchten....


    Genau, ich bin so einer der das so macht. Und zwar um genau diesem hier beschriebenem Flackern aus dem Weg zu gehen. Das fällt deutlich stärker auf, sobald die LEDs zwischen aus und ihrem Minimalwert wechseln. Das findet bei den LED-Strängen, die mir vorliegen immer ein Sprung statt. Sobald die LEDS bei Schwarz noch etwas leuchten ist viel weniger Flackern wahrzunehmen. Bei mir ist es im Raum allerdings auch nie ganz dunkel, sodass die dauerhafte, schwache Hintergrundbeleuchtung nicht stört.


    Im übrigen möchte ich den ganzen Hardwaretestern kurz danken. Eure Erfahrungsberichte helfen deutlich um sich im Dschungel der Chinakomponenten zurechtzufinden.


    PS:
    Ich hatte vor kurzem den Verkäufer Yong Hui auf Amazon angeschrieben, welcher die hier viel zitierten ezcap269 Grabber unter seiner Marke Y&H vertreibt und gefragt, ob das Versenden aus der EU möglich wäre. Ich habe ziemlich schnell eine Antwort bekommen. Die europäischen Lager seien z.Zt. leer. Mittlerweile kann man bei Amazon jedoch vorbestellen. Die Komponenten sind anscheinend im Zulauf, ich habe daher auch mal einen geordert.


    edit: HDMI2 0 Streaming Commentary Compatible ezcap269


    Viele Grüße

  • Ich glaube ich habe etwas gefunden, um das v4l2-Bild verschwommen darzustellen: https://medium.com/@petehousto…era-on-linux-a364e8b7d1f8


    Hier hat eine Kamera, die per v4l2 angebunden wird, (neben Brightness, Contrast und Saturation) einen Sharpness-Parameter. Setzt man den runter, würde das Bild sicher verschwommener! :)


    In der Doku (https://linuxtv.org/downloads/v4l-dvb-apis-new/media.pdf) heisst es:


    Der HDMI Grabber muss diese Option halt unterstützen. —> Und damit wären wir wieder beim Thema Hardwaretest.


    Vielleicht kann ja jemand, der neben dem Y&H Grabber einen anderen digitalen HDMI Grabber (z.b MYPIN) bestellt hat, mal mit v4l2-ctl --list-ctrls überprüfen, ob dieser die Sharpness-Option unterstützt.

  • Hi,


    meine RPi-Kamera bietet den Sharpness-Parameter. Vielleicht schaffe ich es gegen später Screenshots zu machen um den Effekt darstellen zu können.


    Allerdings glaube ich, dass die Schärfe örtlich deutlich zu begrenzt ist, um das Vorgesehene zu erreichen. Davon wird das Bild sicherlich kaum beruhigt. Es sollte schon ein echter Blur-Effekt, wie in den geposteten Bildern dargestellt, sein.


    Vielleicht wäre es der richtige Weg, den Videostream zu klonen (https://github.com/umlaeute/v4l2loopback) und den Effekt dabei zu realisieren. Das geht auf die CPU und ich vermute ein RPi4 sollte es dann schon sein.


    Viele Grüße


  • Allerdings glaube ich, dass die Schärfe örtlich deutlich zu begrenzt ist, um das vorgesehene zu erreichen. Davon wird das Bild sicherlich kaum beruhigt. Es sollte schon ein echter Blur-Effekt, wie in den geposteten Bildern dargestellt, sein.


    Vielleicht wäre es der richtige Weg, den Videostream zu klonen (https://github.com/umlaeute/v4l2loopback) und den Effekt dabei zu realisieren. Das geht auf die CPU und ich vermute ein RPi4 sollte es dann schon sein.


    Viele Grüße


    Das ist eher der weg den ich eingschlagen würde...das ganze auf ein input wie einer kamera zu begrenzen macht keinen sinn...wenn dann global für alles...also das man einen parameter einführt der dann sagt "Unschärfe: 25%"
    entweder klonen oder direkt bei der bildauswertung das bild verschwommen machen... die einzige angst die ich habe: es würde zu lange dauern und man würde eine verzögerte reaktion der leds haben

  • meine RPi-Kamera bietet den Sharpness-Parameter. Vielleicht schaffe ich es gegen später Screenshots zu machen um den Effekt darstellen zu können.


    Das ist doch aufjedenfall ein Versuch wert. Wir wissen doch noch garnicht, wie brauchbar die Control ist. Außerdem halte ich die Anpassung an der Stelle für gerade richtig, da wir hier auch schon an Helligkeit und Kontrast schrauben können ohne Performanceverlust. Sprich, so abwegig find ich meinen Vorschlag immer noch nicht.. xD


    das ganze auf ein input wie einer kamera zu begrenzen macht keinen sinn...


    Würde ich auch nich tun. Wir wissen ja noch garnicht, ob es neben Kameras nicht auch einen HDMI Grabber (in der großen weiten China-Welt) gibt, der die Control unterstützt. Also würde es hier lediglich auf Inputs (aller Art) beschränkt werden, die die Control mitbringen.


    Der Auszug aus der Doku bezog sich auf Video4Linux2 im Ganzen und nicht „for Cameras only“.

  • Wie sind denn deine Gamma-Einstellungen? Und ich dachte du hast die Brightness auf mindestens 165, um dem Flackern Herr zu werden :D


    Ja das war zwischendurch die Lösung. Habe dann aber wieder mit den Einstellungen rumgespielt bis ich die richtigen Farbwiedergabe hatte...aktuell bin ich so sehr zufrieden. Probleme sind halt nur die grauen flächen in z.B Cartoons ;D.
    Ich sehe aber hier kommt schon wieder etwas mehr Bewegung rein. @TPmodding ich weiß leider nicht wie Hyperion die Farbe berechnet, aber ich schätze es mittelt die RGB Werte über einen bestimmten Bereich. Die neuen Pi 4 dürften doch für eine Weichzeichnung leistungsstark genug sein. Ist ja am Ende eine simple Matritzenmultiplikation für jeden Farbwert bzw. wird überhaupt RGB verwendet?


    Grüße

  • Basierend auf den Gedanken von @GnaGetier habe ich noch etwas konkreteres gefunden: MPlayer kann sich des v4l2-Inputs bedienen und bietet u.a. einen Filter zur Rauschunterdrückung.


    Links:


    Den von Mplayer genutzten Filter zur Rauschunterdrückung Namens hqdn3d, gibt es alternativ auch für AviSynth: „High Quality DeNoise 3D is an AviSynth 2.5 port of the MPlayer filter of the same name. It performs a 3-way low-pass filter, which can completely remove high-frequency noise while minimizing blending artifacts.“
    http://avisynth.nl/index.php/Hqdn3d


    Mit Hilfe des angesprochenen Loopbacks könnte man das so manipulierte Video wieder als v4l2-Device einreihen und Hyperion vorwerfen.

  • Hallo in die Runde,


    zunächst einmal vielen Dank an die vielen sehr guten Beiträge.
    Falls ich für meine Fragen

    • Was habe ich in der hyperion.ng Konfig falsch?


    • Warum habe ich eine lila-preview?


    • Wie ist der v4l2 zu konfigurieren?


    lieber einen neuen Thread aufmachen sollte, bitte ich um kurze Info.


    Aufgrund der postiven Beiträge habe ich mir mein Ambilight Setup neuzusammengestellt und möchte nun auf hyperion.ng und 4k HDR umstellen.
    Die Hardware habe ich zusammen und eine erste Installation nach diesem Video von hyperion.ng durchgeführt.
    Nachfolgend mal kurze Infos zum Aufbau:


    Amazon 4k Stick in Denon AV Receiver als Bildquelle
    FeinTech VSP01201 Splitter Verteiler Ultra HD Schwarz
    Y&H Capture Card
    RPi 4 1GB RAM
    TV: LG OLED mit 4k und HDR


    Nachfolgend habe ich mal sämtliche Commands abgesetzt, die ich im Verlauf dieses und weiterer Threads finden konnte:








    Beim Starten von hyperion.ng kommen folgende Meldungen:



    Ich bekomme ein solches Bild in der Preview:


    Input war hier 1080p. Die LEDs passen nicht mal ansatzweise farblich korrekt.
    Den Test bzgl. der RGB Farbreihenfolge habe ich gemacht. Hier ist alles korrekt. Das passt auch wenn ich die Farben remote fest auf Blau,Rot, Grün einstelle. Ich glaube, dass hier das Problem 60cm vor dem Bildschirm sitzt und irgendeine Konfig noch nicht passt. Ich bin neu im hyperion.ng Umfeld. Mich irritieren zunächst einmal die <ERROR> Meldungen beim Start von hyperion.ng



    Vielen Dank für die Unterstützung im Voraus.



    Anbei noch das config-file.

  • @Dave0408 ist das ein Dolby Vision Input? So sieht es normalerweise nur bei DV aus..


    Ja das wird Dolby Vision sein. Beim Start des Fire TV Stick meldet sich der LG oben rechts mit dem DV Logo.


    Edit:
    Auf dem FireTV habe ich den Bildschirm auf folgendes eingestellt:
    Videoauflösung: bis zu 4k UHD
    Farbtiefe: bis zu 12 Bits
    Dynamikumfang: immer HDR


    EDIT2:
    Wenn ich HDR auf adaptiv stelle erhalte ich ein klares Bild, ohne Lila Stich.
    Das scheint schon mal geholfen zu haben.
    Es bleiben jedoch lauter Error Meldungen im Framebuffer log.
    Und ich muss mich nun nochmal einlesen, was ihr gegen Latenzzeiten gemacht habt. ;)

  • Hey,


    auch wenn ich mir von den Kamerafunktionen nicht viel verspreche habe ich den Test noch gemacht. Gestern Abend bei dunkleren Lichtverhältnissen und heute nochmal mit Tageslicht. Der Effekt ist wirklich nur mit einem ganz schwachem Schärfen oder Weichzeichnen zu vergleichen und wirkt sich etwas auf die Kontraste an Kanten aus. Ich spare mir jetzt sogar das posten der Testbilder.


    (Ich habe nur die Kamera angesteckt und einige Setting-Versuche gemacht. Den Testaufbau mit Stativ vor dem TV hatte ich leider bereits wieder abgebaut, nachdem meine Forenanmeldung fast 3 Wochen keine Freigabe erhalten hat und ich die Lust etwas verloren hatte. Sorry! :-/)


    Wie erwartet kommen wir um einen ordentlichen Filter zur Rauschunterdrückung oder einen Blur-Effektfilter nicht herum, wenn auf diese Weise eine Verbesserung erreicht werden soll.



    edit:
    Na gut, ich will ja nicht so sein,

    • Bild 1 Schräfe -100, Fokus unverändert:


    • Bild 2 Schärfe 100, Fokus von Hand nach Gefühl eingestellt


    edit:
    Ich war zu doof die richtige Uploadfunktion zu finden.

  • Der Effekt ist wirklich nur mit einem ganz schwachem Schärfen oder Weichzeichnen zu vergleichen und wirkt sich etwas auf die Kontraste an Kanten aus.


    Danke fürs testen @GnaGetier . Man sieht zwar schon einen Unterschied aber der wird wohl wirklich zu gering sein. Dann werden wir wohl einen anderen Weg nehmen.

  • Weil die Kameralösung bisher noch zu viele andere Probleme bereitet und ich eigentlich davon weg möchte. Bzw. schon weg bin und den Testaufbau daher wieder abgebaut hatte. Der größte Charme der Kameralösung besteht aber nach wie vor darin, dass die Contentquelle egal ist und somit 8K, HDR sowie geräteinterne Wiedergabeapps funktionieren.

Participate now!

Don’t have an account yet? Register yourself now and be a part of our community!