Nice! Bitte testen! Mein Grabber wird erst noch geliefert.
Die Grenzen eines analogen Grabbers - und die digitale Lösung
- FreshGer
- Thread is marked as Resolved.
-
-
Hast du es schon auf irgend einem branch @Paulchen-Panther ?
-
@TPmodding Nein, noch nicht.
Ich sag dir bescheid. -
hallo, brauch man für den
Y&H 4K HDR HDMI2.0 Game Capture Card
noch einen feintech Splitter? Ich hab apple TV 4k und den sky receiver4k immoment an meinem Samsung q7 4k, desweiteren läuft hier ein raspi mit 4gb
wenn ja beim Splitter, brauche ich aber kein downscaling oder weil pi4 oder?
Gruß doniom -
@doniom, am besten du liest:
- den ganzen Thread
- die Amazon Produktbeschreibung des Splitters
- die Amazon Produktbeschreibung des GrabbersDann wird deutlich, dass du einen Splitter brauchst, da der Passthrough des Grabbers nicht zu gebrauchen ist und dass der Grabber ohnehin selbst auf 1080p downscaled wenn es nicht schon der Splitter am 2ten Ausgang macht. Der pi4 kann nichtmal 1080p ohne Bildverkleinerung ohne Lag verarbeiten, also brauchen wir hier von 4k garnicht erst anfangen.
-
-
@doniom das hilft dir aber indem Fall nicht weiter. Weil du ja ein Signal zum Pi brauchst, und ein Signal zum TV... da der Y&H als Splitter nicht zu gebrauchen ist. er hat nur den Vorteil dass man sich (zwar teurer) den analogen grabber und einen cvbs Converter spart und man theoretisch nur einen Splitter bräuchte der nicht zwingend runterskaliert
-
-
ich habe leider keinen brauchbaren normalen Splitter um das zu testen, aber ist es nicht so, dass es beim Splitten auf den kleinsten gemeinsamen Nenner ankommt?
wenn ich mit dem Y&H Grabber das Signal durchgeschliffen habe, hat meine PS4 ja auch erstmal gesagt, dass HDR unterstützt wird. Sobald ich dann wirklichen HDR kram laufen gelassen habe, wurde HDR doch nicht mehr unterstützt.
Wenn ich jetzt meinen TV und den Y&H Grabber an einen normalen Splitter anschließe, geht mir dann nicht auch die HDR kompatibilität verloren? -
Genau so ist. In einer HDMI Kette wird immer alles auf das schwächste Glied ausgerichtet. Außer du hast wie du einen Splitter der Verschiedene EDIDs simulieren kann oder gar kopieren...
-
Hast du es schon auf irgend einem branch @Paulchen-Panther ?
Branch:
Codegit clone --recursive --single-branch --branch box_blur https://github.com/Paulchen-Panther/hyperion.ng.git
Bis jetzt lässt sich die Bildvorverarbeitung/Image PreProcessing nur an- und abschalten.
Sollte der Effekt nicht der gewünschten Stärke entsprechen, so kann man den Radius an dieser Codestelle verringern/erhöhen.
Ich suche immer noch jemanden der ein wenig Zeit aufbringen könnte um diese Funktion in eine Klasse zu packen. Freiwillige vor! -
also man muss den radious definitiv erhöhen...
meiner meinung nach ist das flickern echt damit weniger... dsa ganze zieht nur ein problem mit sich...das bild wird dann "verarbeitet" und das in slow motion...also das hängt dann mega hinterher... sobald ich es dann deaktivieren will will er bis zu dem zeitpunkt wo ich auf remotecontroller auf stop klicke das ganze material abarbeiten... sieht man im live video... und dann geht nichts mehr weil nur noch dies kommt
[hyperiond HYPERION] <DEBUG> <PriorityMuxer.cpp:233:setInputImage()> Priority 240 is now inactive
[hyperiond HYPERION] <DEBUG> <PriorityMuxer.cpp:233:setInputImage()> Priority 240 is now activealso erstmal danke und hut ab @Paulchen-Panther wir sind auf dem richtigen weg!
-
Vielleicht kann ja einer der folgenden Ansätze den Performanceverlust verringern:
- Auflösung in Hyperion heruntersetzen
- Bildverkleinerung erhöhen
- Nur den Rand des Bildes „verschwimmen“ lassen -
“Rand verschwimmen“ passt aber nur, wenn die LEDs einen Rahmen bilden...
Hyperion.NG unterstützt aber auch eine Matrixanordnung. Die Lösung sollte die verschiedenen Einsatzmöglichkeiten berücksichtigen. -
Ich habe auf dem Handy nicht genau den Algorithmus vergleichen können, aber vielleicht kann Variante 4 noch was rausholen.... siehe:
http://blog.ivank.net/fastest-gaussian-blur.htmlIn den Kommentaren findet sich auch ein Link auf eine Cpp Implementierung.
Ansonsten, wenn ich mir die Processingzeiten so anschaue, scheint ein CPU basierter Ansatz schwierig zu sein.
Ich habe leider kein HDR, Splitter oder reine LEDs...
Reicht es nicht das Bild zu verkleinern und damit die Unschärfe zu bekommen? Oder die Bitzahl der Farbräume zu reduzieren? Im dunklen Bereich scheint die Genauigkeit eh nicht so relevant zu sein. Aber vielleicht fehlt mir hier der praktische Bezug. -
vielleicht kann Variante 4 noch was rausholen....
@Lord-Grey klingt sehr vielversprechend! -
-
Unter 30hz merke ich deutlich, dass das Ambilight unrund läuft. Also 25 sollten es minimum sein.
Meinetwegen könnte man aber auch 10hz Grabben, wenn man über die Glättung dann mehr hz rausholt (wenn ich das richtig versteh).
-
d.h. Wir haben zwischen zwei Updates 40ms für alles Zeit...
-
Ich würde sagen ja.
Aber man kann ja vielleicht beim gegrabten Bild Zeit und hz einsparen, wenn man das Ganze anschließend über die Glättung (und berechnete zwischen hz für die LEDs) wieder flüssig erscheinen lässt. Hier kann man ruhig bis zu 200 - 300ms hinterher sein, weil der TV selbst auch eine Latenz hat und was darüber etwas hinaus geht meiner Meinung nach noch nicht störend ist.
Participate now!
Don’t have an account yet? Register yourself now and be a part of our community!