Beiträge von jochenf

    Hallo,


    Danke, ich kann mit dem Workaround gut leben. :) Erscheint mir sogar einfacher als bei mir z.B. ne dritte Instanz extra für HDR aufzuziehen. Wenn ich sehe, was ihr damals für'n Aufawand hattet das zu umzustellen, ist mein Vorgehen das deutlich kleinere Übel.


    Danke und Grüße


    Micha

    Hi,


    das Libreelec Raspiimage ist doch von Juli und im frühem alpha Status. War meinen Wissens eher ein "proof of concept" als eine Ausgangsbasis für ein stabiles Image. Da ist vieles noch weit entfernt von produktiv nutzbar. Vor allem Kernelseitig müssen da noch einige Anpassungen bezüglich GPU und Video Treiber passieren. Die GUI und ein Großteil der Videoformate wird SW gerendert, also nix mit HW Beschleunigung.
    Wenn ich die Aussage vom OSMC Team richtig in Erinnerung habe, vielleicht Mitte nächsten Jahres. ;(


    Grüße


    Micha

    Hi,


    bei mir läuft hyperion.ng und auf dem Raspi einwandfrei, allerdings nativ unter Raspian Buster. Auch das normale hyperion hatte ich testweise schon am laufen.
    Angesteuert wurde das Ganze über Adalight (USB) auf einen Arduino, jetzt per udp, jedoch ohne GPIO.
    Kann schon sein, das im Libreelec Alpha da was fehlt.


    Ich würde erstmal testen, ob die LED's mit der Remote App oder über hyperion-remote überhaupt angesteuerrt werden können, bevor ich mich ans Livebaild mache.
    Wenn ich mich richtig entsinne, kann man die GPIO Pin's in der config.txt anpassen.
    Da bei HyperionBenny schon die IR Fernbedienung nicht funktioniert, würde ich mal da ansetzen.


    https://www.raspberrypi.org/do…ration/config-txt/gpio.md


    Grüße


    Micha

    Hi,


    ich würde mal an den Grabber Einstellungen ansetzen. Bei mir wurde die Einstellung der Auflösung am Odroid damals einfach ignoriert. Trotz 720*576/8 war das gecapturte Bild deutlich kleiner. Teste doch mal mit einer kleineren "sizeDecimation", also im Ergebniss einen höheren aufgelösten Ausgangbild. Wenn du horizontal zum Beispiel 80 LED's hast, vielleicht mal so einstellen, dass das zugrundeliegende Bild dann 160x100 oder so ist.


    Grüße


    Micha

    Hi,


    kleiner Nachtrag.


    Nachdem ich in irgendeinem Beitrag beim Überfliegen aufgeschnappt habe, dass es mit dem letzten Linux Kernel irgendwelche Änderungen bezüglich v4l2-ctl gegeben hat, habe ich nochmal kurz damit rumgespielt.


    Entweder war ich damals zu blöd oder die Kernel Geschichte hat wirklich was gebracht.


    -------------------------------
    Nachtrag 29.09: Ich hab mich wieder besonnen, dass meine erfolglosen Versuche mit einem originalen "fushicai utv007" waren und aktuell ein "AV TO USB2.0" bei mir tut.

    https://www.amazon.de/gp/produ…tle_o03_s00?ie=UTF8&psc=1
    -------------------------------


    Ich kann nun alle per

    Code
    v4l2-ctl --list-ctrls

    verfügbaren Optionen meines USB Capture Device zur Laufzeit anpassen.



    Nach Anpassung von:


    Code
    v4l2-ctl --set-ctrl contrast=180
    v4l2-ctl --set-ctrl saturation=255
    v4l2-ctl --set-ctrl brightness=0


    sieht das verkorkste HDR Bild nun deutlich gesättigter aus und Hyperion steuert die LED's merklich passender als davor.


    Für mich also ein akzeptabler Workaround.


    Wie oben schon geschrieben, Dank ha-bridge auf Zuruf durch Alexa.


    Grüße


    Micha

    Hallo,


    nee, ist im Master Branch seit August mit drin. Paulchen hatte mir damals nur sein Repository zur Verfügung gestellt, solange es nicht im Master war.
    Schalte im Webinterface doch mal zwischen ntsc und pal hinundher.


    Ansnonsten hatte ich als Workaround damals "v4l2-ctl --set-standard 0x000000ff" vor dem Hyperion Start gestartet.


    Grüße


    Micha

    Hallo,


    gute Arbeit, Danke.


    Leider zu früh gerfreut, muß gerade mit Entsetzen feststellen, das du ja das "alte" hyperion nutzt und ich hyperion.ng. Hätte ich in meiner .json Variablen wie saturationGain oder luminanceGain entdeckt, hätte mich sicherlich auch der Spieltrieb gepackt. :)


    Die Config für .ng sieht leider etwas anders aus, einen "transform" Bereich und ein "saturationGain" gibt es in dieser leider nicht.


    Mal schauen, hau ich mir die "alte" Version vielleicht paralell mit drauf.


    Kurz und knapp zur ha-bridge: Simuliert für Alexa eine Hue-Bridge, kann lokale scripte auf dem Raspy dann per "schalte hdr ein" ausführen


    Grüße


    Micha


    p.s. - werde mich mal an den Beitrag im Git anhängen, vielleicht da ja was draus


    https://github.com/hyperion-project/hyperion.ng/issues/622

    Hi,


    kannst den Thread gern kapern, dann bleibt er den Entwicklern vielleicht im Auge. ;)


    Dein Howto ist zwar wunderschön, die für mich einzig wichtige Info, wie eigentlich deine .json Konfiguration für HDR aussieht, kann ich darin aber leider nicht finden. Meine Versuche mit v4l2-ctl waren irgendwie auch nicht erfolgreich, es sah danach aus, dass hyperion und das Screenshottool dieses einfach ignoriert.


    Das was du "umständlich" über die Fernbedienung machen musst, könnte ich dank ha-bridge ja alexa machen lassen.


    Grüße


    Micha

    Kein Problem, müsste ja auch über Hyperion-Remote funktionieren. Da lass ich das Dank ha-bridge einfach Alexa machen. ;)


    Edit:


    Mit


    /usr/local/share/hyperion/bin/hyperion-remote -I "Samsung Ambilight" --sourceSelect 110


    funktionierts. :thumbup:


    Edit 2:


    Manchmal steht man aber auch total auf dem Schlauch, lässt sich mit den Prioritäten doch wunderbar realisieren. Für den Monitor ist der USB Capture nun komplett deaktiviert für den TV hat er die 170. Den Screencapture am PC gebe ich einfach beim Start die 180 mit.


    grüße


    Micha

    Ja, das geht. Über Fernbedienung kann ich die Quellen routen wie gewünscht. Habe auf dem TV Live und auf dem Monitor HyperCap.
    Wenn ich HyperCap erstmailg starte, landet es aber erstmal auf beiden, muß dann auf dem TV das USB Live Capture über Fernbedienung erstmal manuell starten.


    Gibt es da vielleicht einen bequemeren Weg, dass der Hyperion Screencapture garnicht erst auf dem TV landet?

    Nein,


    nicht ganz.


    Zitat

    Du hast einen usbgrabber, der das bild für den TV ausgewertet und die leds am TV steuert...zusätzlich soll das selbe Bild am Monitor ausgewertet werden und die LEDS am Monitor steuern...?


    Dies funktioniert ja soweit unter ng schon.


    Ich möchte aber das Bild was von "Hyperion Screen Capture" per UDP kommt an den Monitor schicken, während der TV weiterhin das Bild vom USB Grabber bekommt.

    Hallo,


    das "alte" hyperion konnte ich doch einfach ein zweites mal mit einer eigenen json Konfiguration starten. Bei hyperion.ng läuft das ja irgendwie etwas anders.
    Hyperion.ng ist es anscheinend egal welche .json ich als Startoption mitgebe, es nutzt einfach seine .db aus dem .hyperion Ordner. Lege ich im Webinterface eine zweite Instanz an, kann ich diese bezüglich LED Konfiguration ja wunderbar anpassen und parallel zur primären Beleuchtung laufen lassen. Bei mir also 1x TV mit 256 LED's + 1x Monitor mit 75 LED's. Die für mich eigentlich wichtige Optionen "Aufname Hardware" und "Netzwerk" gelten dann aber wieder global für beide Instanzen. Ein Forwarder ginge also nicht.


    Um mein eigentliches Anliegen USB Graber steuert TV, zweite Version per UDP nur den Monitor umzusetzen, stehe ich nun irgendwie auf dem Schlauch.


    Hat da jemand vielleicht ne Idee, wie ich dies umsetzen könnte?


    Danke und Grüße


    Micha

    Hallo,


    sieht gut aus, ist nun wieder alles schön bunt. :)




    Grüße und vielen Dank für deine Mühe


    Micha