Ubuntu24.04でdockerのruntimeにnvidiaが存在しない時

ローカルLLMを動かすために、OllamaとOpen WebUIをDockerで動かすことにした。 GPUのあるPCのため、Docker(コンテナ)とGPUを連携させるための経緯を記載する。 ...

Posted: 2024-12-04, Updated: 2025-03-15