NVIDIA 390.25 nicht als Paket vorhanden?

nvidia-settings und Einschalten der ForceFullCompositionPipeline

Das funktionierte - zumindest bei mir - nicht im laufenden Betrieb. nvidia-settings (als root) aufrufen, das einstellen, nvidia-settings die Einstellungen in die xorg.conf schreiben lassen (NICHT mergen), dann xorg neustarten.

Die Option "TripleBuffer" "1" kann man ab 2010er nvidias ausprobieren, bei älteren wirds unerträglich langsamer.
 
Für FreeBSD kann man aber mangels Anwendungen, die nennenswert GPU-Leistung fordern, ganz einfach sagen: Kaufe die günstigste Grafikkarte, die den Zweck erfüllt und dabei einen möglichst leisen Lüfter hat. Fertig.

Das würde ich so nicht sagen: In dem Moment, wo man spielt, sei es unter wine oder mit dem Linuxulator, hat man es mit Anwendungen zu tun, die nennenswert GPU-Leistung fordern. Ich persönlich komme aber mit einer Geforce 750 GTX noch aus. Lediglich bei Borderlands (32-Bit) hatte ich bemerkt, dass es nicht mehr ganz so flüssig war, wie bei anderen Spielen.
 
Das funktionierte - zumindest bei mir - nicht im laufenden Betrieb. nvidia-settings (als root) aufrufen, das einstellen, nvidia-settings die Einstellungen in die xorg.conf schreiben lassen (NICHT mergen), dann xorg neustarten.

Die Option "TripleBuffer" "1" kann man ab 2010er nvidias ausprobieren, bei älteren wirds unerträglich langsamer.

Interessant.
ich habe damit ein wenig gespielt und zunächst sah es aus, als würden die Optionen einfach ignoriert. Dann habe ich tatsächlich, wie du das empfohlen hattest, eine neue xorg.conf von nvidia-seetings erstellen lassen und diese dann manuell zu meiner alten gemerged. Der wesentliche Unterschied ist, dass nun nicht mehr ein klassisches Dual-Head Setup benutzt wird, indem ich zwischen Monitor 0 und Monitor 1 unterscheide, sondern es wird ein Monitor mit einer Graka auf zwei Pixelbereiche abgebildet und denen werden die Optionen jeweils übertragen. Das sieht etwa so aus:
Code:
Section "Screen"
    Identifier     "Screen0"
    Device         "Device0"
    Monitor        "Monitor0"
    DefaultDepth    24
    Option         "Stereo" "0"
    Option         "metamodes" "DVI-D-0: nvidia-auto-select +0+0 {ForceCompositionPipeline=On, ForceFullCompositionPipeline=On}, HDMI-0: nvidia-auto-select +1920+0 {ForceCompositionPipeline=On, ForceFullCompositionPipeline=On}"
    Option         "SLI" "Off"
    Option         "MultiGPU" "Off"
    Option         "BaseMosaic" "off"
    SubSection     "Display"
        Depth       24
    EndSubSection
Richtig verwundert bin ich auch über die Optionen am Ende, die alle Off gesetzt werden und dass da sowohl Off als auch off benutzt wird.
Naja, Hauptsache es geht.

Ich glaube allerdings, dass der Hauptbringer das Umschalten des mpv auf VDPAU gewesen ist. Nun habe ich nicht alle Settings sehr ausgiebig getestet und kann das nicht so ganz genau mit Bestimmtheit sagen. Das ist ja immer das Problem: wenn etwas geht, dann will man es auch nutzen um damit zu arbeiten und nicht nur EInstellungen testen.

Nochmals Dank für die Hinweise.
 
Unterschied ist, dass nun nicht mehr ein klassisches Dual-Head Setup benutzt wird, indem ich zwischen Monitor 0 und Monitor 1 unterscheide, sondern es wird ein Monitor mit einer Graka auf zwei Pixelbereiche abgebildet und denen werden die Optionen jeweils übertragen.

Ich hatte mal zwei Monitore dran, das Bild war uneingestellt geklont auf den Monitoren. Erst nvidia-Treiber drauf und dann über die Mate-Systemsteuerung die Bildschirme eingestellt, das gab dann Monitor1 und Monitor2 jeweils in der nativen Auflösung des Monitors. -> also ein Desktop mit zwei festen Monitoren.
Man müsste nun mal schauen, was "metamodes" als Optionen noch so anbietet. Unter advanced kann man ja allerhand einstellen.

die alle Off gesetzt werden und dass da sowohl Off als auch off benutzt wird.
Naja, Hauptsache es geht.

Würde mal sagen, dass nicht zwischen groß/klein unterschieden wird und dass das Flüchtigkeit seitens nvidia sein wird. ;)

Ich glaube allerdings, dass der Hauptbringer das Umschalten des mpv auf VDPAU gewesen ist.

Definitiv! Die Beschleunigung hats in sich. Macht aber auch nur Spaß, wenn es kein tearing gibt.
Btw. Hast du mal die Testseite von holger erneut ausprobiert?
 
Wenn man CompositionPipelines in der Section "Device" der xorg.conf einschaltet, dann gilt es global für alle angeschlossenen Screens:
https://www.bsdforen.de/threads/auf-vt-mit-nvidia-driver-nvidia-modeset-ko-und-wieder-zurück-auf-x-server-läuft.32633/#post-286467
In der Section "Screen" braucht es dann CompositionPipelines Einträge nicht.

Damals gab es bei mir in diesem Youtube Video etwas Tearing, in dem Moment, wo die Kamera unter die Grafikkarte auf die drehenden Propeller schwenkt:
Um diese Inhalte anzuzeigen, benötigen wir die Zustimmung zum Setzen von Drittanbieter-Cookies.
Für weitere Informationen siehe die Seite Verwendung von Cookies.
Mittlerweile wurde aber so wohl der nvidia-driver als auch der xorg-server und xrandr weiter entwickelt. Möglicherweise läuft es mittlerweile auch ohne CompositionPipelines ohne Tearing.

CompositionPipelines kosten etwas Rechenaufwand, die Grafikkarte schaltet etwas früher in höhere Leistungsstufen und wird auch minimal wärmer. Fall es also ohne CompositionPipelines kein Tearing zu sehen gibt lässt sich ein bisschen Strom sparen.

nvidia-smi zeigt im Terminal die aktuelle Leistungsstufe und Watt Zahl beim aktuellen Strombedarf an, wenn die Grafikkarte aktuell genug ist. nvidia-smi ist beim nivida-driver dabei. Außerdem sieht man damit, welche Programme gerade auf der Grafikkarte hardwarebeschleunigt laufen, wie beispielsweise Firefox.
 
ich muss gestehen, dass ich das zunächst wieder rückgängig gemacht habe.
Bei meinen ersten Tests hatte ich keinen Ton drauf und das Bild sah zwar gut aus, aber wie sich dann später zeigte, lief der Ton zunehmend asynchron zum Bild und weil ich im Augenblick keine Lust hatte, dort weiter zu spielen, habe ich kurzerhand meine alte Konfig wieder zurück gespielt.
So oft schaue ich mich auch keine Filme auf diesem PC an, aber ich brauche ihn zum Arbeiten.
Deshalb habe ich das nun erst mal ein wenig vertagt.
 
"layers.acceleration.force-enabled" auf true stellen und FF neu starten.
Ich wollte mich gerade wieder etwas darum kümmern und sehen, was ich insgesamt vielleicht verbessern kann.
Dabei fing ich jetzt mal mit obigem Setting an und bin sehr erstaunt, dass dies sich nicht nur auf den Firefox auswirkte: die komplette Grafik wurde irgendwie lahm. Der laufende Film schien ein klein wenig asynchron zu laufen, aber ganz deutlich zogen alle Fenster Schlieren, wenn ich sie verschob und verhielten sich irgendwie "klebrig".
Sobald ich die Variable wieder auf "false" umgestellt und den FF neu gestartet hatte, änderte sich das Verhalten spontan wieder auf die gewohnte Reaktivität. Das hätte ich schon mal nicht erwartet.
Ob ich nun mit den anderen Settings noch fortfahre, muss ich sehen.
 
Hatte ich auch schon so mit den zähen Fenstern. Die FF-Einstellungen allein sind aber definitiv richtig und sollten nichts mit mit dem zähen Effekt zu tun haben. :confused:

Du könntest nun noch die CompositionPipelines deaktivieren und entweder compton oder compiz mit jeweils deren vsync nutzen. Bei compiz ist zu beachten, dass die Framerate-Erkennung auszuschalten ist und fest auf die vom Monitor einzustellen. Das gibt bei beiden sehr smoothe Fensterbewegungen.
 
Es soll wohl auch mit den nvidia-settings funktionieren. Ist dann unter 'advanced' zu finden.

Ich möchte abschließend noch bestätigen, dass das Umstellen in der laufenden Sitzung sofort funktioniert. Sofort tearingfreies Verschieben von Fenstern.

Getestet mit:
device = 'GP107 [GeForce GTX 1050 Ti]'
Name : mate
Version : 1.18.0
Name : nvidia-driver
Version : 390.48
Name : nvidia-settings
Version : 384.59_1
 
Zurück
Oben