NetBSD DRM2 Kernel Version

darktrym

Fahnenträger
Gibts eine einfache Möglichkeit zu erkennen auf welche DRM Version der Kernel gerade setzt?
Bis jetzt hab ich immer in Github und Mailingslisten geschaut, in Zeiten diversen Branches etwas unübersichtlich.
NetBSD 11 wird wohl nicht auf Linux DRM 6.6 basieren, aber wo sind wir gerade, 5.5?
 
aber wo sind wir gerade, 5.5?
Du meinst bezüglich NetBSD 10 ?

In den Release-Notes steht folgendes:
Synced the GPU drivers in the kernel with Linux 5.6, bringing lots of new hardware support for accelerated graphics, for Intel (via i915), Nvidia (via nouveau), and AMD (via amdgpu and radeon) graphics processors.

Ansonsten liegt der DRM-Code im NetBSD-Source-Code laut drm(4)-Manpage wohl mehrheitlich unter sys/external/bsd/drm2. Vielleicht lässt sich dort oder via Commit-Einträge etwas finden.
 
Danke, werde den Wikipedia Artikel diesbezüglich mal aktualisieren. Vielleicht gibt dann die KI auch mal vernünftige Antworten.
 
werde den Wikipedia Artikel diesbezüglich mal aktualisieren.
Find' ich gut.

gibt dann die KI auch mal vernünftige Antworten
LLMs sind ja auch keine Auskunfteien. LLMs wurden dafür gebaut, um natürliche Sprache verarbeiten zu können und nicht zur Faktenabfrage. Insofern sollte man eh nicht davon ausgehen, das Antworten korrekt sind immer mit Quellen gegenchecken.
 
Und warum sind die Antworten nicht immer korrekt, liegt das nicht an der unzureichenden Datengrundlage und der Gewichtung?
 
Also korrekte Daten zu haben hilft natürlich. Aber ist trotzdem kein Garant.

Jetzt mal alles sehr sehr vereinfacht ausgedrückt:

Im Grunde ist ja das was LLMs ausgeben Ergebnis einer statistischen Betrachtung. Sprich: Das LLM guckt auf das das Du eingibst und was es selbst schon als Text produziert hat und versucht dann herherzusagen, welches das nächste Token ist und gibt das aus.
Ein Token ist - stark vereinfacht gesagt - ein Wort bzw. eine Silbe.

Das LLM selbst hat keine Vorstellung von der Bedeutungen der Worte. Das weiß nicht mal, das so was wie eine Versionsnummer eine Zahl sein muss.

Warum LLMs dann trotzdem Wissen wiedergeben können ist, das denen Sprache damit beigebracht worden ist, in dem man ihm viele Texte zeigt und es anhand dessen lernt, welche Worte in einem Zusammenhang stehen. Aber lernen nicht im Sinne Verstehen sondern eher Assoziation.

Um die Genauigkeit weiter zu erhöhen, haben LLMs häufig zusätzlich noch Zugriff auf einen Suchindex und können deshalb Texte noch lesen bevor sie eine Antwort geben, was die Genauigkeit erhöht. Aber die Unsicherheiten trotzdem nicht ganz weg kriegt.

Teilweise ist das technik-inhärent. Teilweise ist das aber auch menschen-gemacht da nach dem eigentlichen Daten ins Modell pressen noch eine Phase kommt, in der Antworten/Ausgaben bewertet werden und irgendwas was plausibel klingt tendenziell höher bewertet wird als gar nichts zu sagen oder zuzugeben, das man keine Antwort hat.

Unglücklicherweise werden diese Dinger gerne als Expertensystem vermarktet. Sind sie aber nicht.
 
Zurück
Oben