Знаете, что самое забавное в мире ИИ сейчас? Пока одни спорят, кто круче, ChatGPT, Claude или DeepSeak, другие ребята тихо делают штуки, которые реально двигают индустрию. Вот как, например, команда Ollama. Они выкатили тестовую версию Ollama 0.12.6-rc0 с экспериментальной поддержкой Vulkan API. И если вы не поняли, зачем это вообще нужно, то не переживайте, сейчас разберёмся по-простому.

Ollama это такая удобная утилита, чтобы запускать большие языковые модели у себя на компьютере. Без облаков, без подписок и прочих «сюрпризов». Хочешь поиграться с Llama 3, Gemma или тем же DeepSeek-R1? Запускаешь через Ollama и всё, у тебя локальный мини ChatGPT на коленке. Работает через Llama.cpp компактно, быстро и без лишних зависимостей. Ну, почти.
Проблема в том, что Ollama до сих пор сильно упиралась в поддержку видеокарт. У NVIDIA всё хорошо: CUDA, драйверы, нейросети летят. А вот если у вас AMD или Intel, то готовьтесь к танцам с ROCm, SYCL или OpenCL. И честно говоря, на практике всё это звучит проще, чем есть.
И вот теперь Ollama решила зайти с другой стороны: добавить поддержку Vulkan API. Это такой универсальный графический движок, который умеет работать почти со всеми GPU. И не важно, чья у вас карточка от AMD или Intel, может, даже какой-нибудь экзотический GPU в ноутбуке, всё это потенциально должно заработать.
Пока что это, правда, не полноценный релиз, а эксперимент. Версия 0.12.6-rc0
доступна только тем, кто собирает Ollama из исходников. То есть если вы обычный пользователь, придётся немного подождать. Но сам факт, что этот тикет (он висел, кстати, полтора года!) наконец закрыли, то это уже реальное событие.
Что тут такого?
- Больше пользователей. Теперь Ollama смогут запускать не только счастливые обладатели NVIDIA.
- Больше гибкости. Vulkan это кроссплатформенный, а значит и в будущем Ollama будет легче портировать на разные системы.
- Меньше боли с драйверами. Теоретически. На практике, подождем и увидим как оно пойдёт.
Если честно, я ждал чего-то подобного давно. Ведь идея Ollama это дать каждому возможность работать с большими языковыми моделями без облаков и ограничений. И поддержка Vulkan это как раз тот мостик, который соединяет «хочу попробовать» с «а теперь действительно работает».
Конечно, пока всё это звучит как «альфа-версия с предупреждением: используйте на свой страх и риск». Но зная Ollama, они доведут дело до ума. Тем более что интерес к локальным моделям сейчас только растёт и особенно после того, как народ понял, что GPT можно держать под рукой и без интернета.
Так что если у вас валяется видеокарта AMD или Intel, то возможно, пришло её время. А там, глядишь, и бинарники с Vulkan выйдут. И тогда Ollama наконец станет по-настоящему универсальной площадкой для запуска ИИ-моделей. Ну а пока можно просто порадоваться: прогресс есть, пусть и маленькими шагами.
Подробнее о релизе Ollama 0.12.6-rc0 можно почитать на официальной странице проекта. Но честно — гораздо интереснее будет дождаться момента, когда это всё реально заработает «из коробки».
Понравилась статья?
Помогите Setiwik.ru создавать больше глубоких обзоров и новостей. Один клик — и ваш вклад помогает держать серверы включёнными и авторов мотивированными!
Поддержать проектСпасибо, что вы с нами!