Ubuntu24.04でDockerのruntimeにnvidiaが存在しない時

ローカルLLMを動かすために、OllamaとOpen WebUIをDockerで動かすことにした。 Docker(コンテナ)とGPUを連携させるための経緯を記載する。 ...

Posted: 2024-12-04, Updated: 2025-05-13