Ubuntu24.04でdockerのruntimeにnvidiaが存在しない時 ローカルLLMを動かすために、OllamaとOpen WebUIをDockerで動かすことにした。 GPUのあるPCのため、Docker(コンテナ)とGPUを連携させるための経緯を記載する。 ...