Wer ein Large Language Model (LLM) mal lokal ausprobieren möchte, es gibt dafür freie Software in Form von ollama (auch als Port), llama-cpp (auch als Port) und viele mehr.
Am Beispiel von ollama:
$ ollama serve
In einer zweiten Shell kann man dann den (interaktiven) Client nutzen (hier am...