Ubuntu24.04でDockerのruntimeにnvidiaが存在しない時 ローカルLLMを動かすために、OllamaとOpen WebUIをDockerで動かすことにした。 Docker(コンテナ)とGPUを連携させるための経緯を記載する。 ...