Как прикрутить свой MCP к ollama llama 3.2?
От: Артём Австралия жж
Дата: 19.11.25 03:33
Оценка:
Есть BFF (backend for frontend), в котором 50 endpoints, каждый с кучей явных и неявных аргументов (вызывается из UI, неявные это какой юзер, подписка и т.п.). Это BFF предоставляет openapi.json описание для swagger-а.

Есть какие-то тулзы/прокси, которые могут завернуть openapi в MCP.

Все примеры MCP с ollama или open-webui оч простые, 1-2 функции каждая с 1-2 явными параметрами вот и вся сигнатура.

open-webui вообще ожидает openapi (завёрнутый из MCP). Я ему скормил openapi из нашего BFF- чат висит, страница не может загрузиться, пока BFF запущен.

Я начинаю подозревать, что готовлю совсем-совсем неправильно?

Правильно- что BFF проксил текст от юзера в ollama с прицепленной доп инфой, которую ollama бы добавляла к каждому вызову MCP, чтоб тот использовал для вызова API других микроскрвисов?
 
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.