Yandex Metrika MCP Server (Node.js)
Представляю вам подробный гайд по запуску сервера на базе Model Context Protocol (MCP), который выступает посредником между AI-ассистентами и API Яндекс Метрики. Теперь вы можете общаться с чат-ботом ИИ и получать подробную аналитику, задавая ему любые вопросы о данных вашего счетчика Яндекс Метрики.
Оно позволяет подключаться к локальным моделям в офлайн-режиме без необходимости использовать платные версии 🔝
Больше никаких отчетов вручную, никакого анализа данных, никаких поисков аномалий, трендов и отклонений. Вы задаете вопросу чат-боту ИИ на естественном языке - он дает вам ответы и помогает в улучшении ваших бизнес-показателей.
Шутка! Конечно, никакой ИИ (Искусственный Интеллект) не заменит опытного веб-аналитика. По крайней мере, сейчас. Но стать его надежным помощником он вполне способен. За последние пару месяцев я опубликовал в своем блоге несколько материалов, которые, если и не переворачивают работу интернет-маркетолога с ног на голову, то как минимум заставляют даже опытных специалистов переосмыслить направление развития и взглянуть иначе на будущее маркетинговых инструментов. Поверьте, я это чувствую на себе.
Среди материалов, заслуживающих отдельного внимания, стоит выделить эти:
- Google Analytics MCP Server - официальное решение от Google, позволяющее подключать ваш ресурс Google Analytics 4 к Gemini и другим большим языковым моделям (LLM), чтобы общаться с ними на привычном языке;
- Нейроаналитика в Yandex DataLens - несколько AI-помощников, которые помогают анализировать проекты, предлагают улучшения и правки, ускоряют и упрощают создание и редактирование визуализаций (Нейроаналитик для создания вычисляемых полей, Нейроаналитик на дашборде, Нейроаналитик в Editor, Нейроаналитик в отчете).
А сегодня вы познакомитесь с Yandex Metrika MCP Server!
Про Model Context Protocol (MCP)
Подход к работе с аналитикой действительно меняется, и Model Context Protocol (MCP) в этом процессе играет заметную роль. Ни Google Analytics 4, ни Яндекс Метрика сами по себе не меняют принципы анализа данных, но то, как специалист взаимодействует с этими данными - меняется радикально.
1. От ручного анализа - к диалоговому взаимодействию
Раньше аналитик открывал интерфейс GA4 или Метрики, строил отчеты, фильтровал данные, экспортировал таблицы и визуализировал графики. Теперь, с MCP и интеграцией ИИ, все это можно делать через диалог:
Покажи, какие источники трафика принесли больше всего конверсий за прошлую неделю? Какие страницы потеряли трафик в последние 30 дней?
ИИ-помощник обращается к API Метрики или Google Analytics 4 через MCP-сервер и возвращает готовый ответ - уже в виде аналитического вывода или отчета.
2. От инструментов - к «умному интерфейсу»
Раньше аналитик выбирал нужный инструмент: отчет, фильтр, сегмент. Теперь MCP позволяет объединить инструменты в контекстную систему. ИИ знает, какие источники данных доступны, какие запросы можно выполнить, и сам решает, в какой момент это необходимо. То есть вместо навигации по интерфейсу - естественный язык и контекстное понимание запроса.
3. От статичных отчетов - к интерактивным инсайтам
С MCP можно запросить данные:
- Почему упала конверсия на лендинге?
- Какие регионы дали всплеск визитов?
- Что повлияло на рост показателя отказов?
ИИ анализирует тренды, сравнивает периоды, выявляет аномалии - и не просто показывает график, а старается интерпретировать полученную информацию. Таким образом, веб-аналитик переходит от ручного анализа к контекстному консультированию на основе данных.
4. Смена роли аналитика
Аналитик перестает быть «оператором отчетов» и становится архитектором данных и смыслов:
- задает ИИ правильные вопросы;
- уточняет гипотезы;
- интерпретирует результаты;
- автоматизирует регулярные проверки и отчетность.
ИИ с MCP берет на себя рутину - сбор, фильтрацию и предварительный анализ. Человек концентрируется на стратегии и принятии решений.
5. Интеграция и будущее
Model Context Protocol превращает GA4 и Метрику из источников данных в активные модули в экосистеме BI-аналитики. В будущем это может означать:
- единый чат-интерфейс для всех источников данных (Google Analytics 4, Яндекс Метрика, CRM-система, рекламные кабинеты, базы данных организации);
- автоматическое выявление трендов и уведомления;
- диалоговые дашборды, где графики строятся и обновляются по запросу.
Таким образом, MCP не меняет сами данные - он меняет интерфейс взаимодействия с ними. Это переход от отчетности к интеллектуальному диалогу с аналитикой, где ИИ становится не просто помощником, а новым уровнем интерфейса между специалистом и данными.
Да, все это уже реальность! Больше не нужно копаться в отчетах и графиках - просто спросите у нейросети и получите ответ за считанные секунды! Как? Используйте Model Context Protocol (MCP). Это открытый протокол, позволяющий напрямую подключать свои данные к большим языковым моделям (LLM), таким как Gemini, Claude, ChatGPT, DeepSeek, Perplexity, Copilot, Grok и другим современным ИИ-ассистентам. MCP был разработан как единый стандарт для интеграции LLM с внешними источниками данных и сервисами, избавляя от необходимости создавать отдельные, пользовательские интеграции для каждого инструмента.
Большие языковые модели (LLM) обладают мощным потенциалом, но у них есть два серьезных ограничения:
- их знания «заморожены» на момент обучения;
- они не могут взаимодействовать с внешним миром.
Это означает, что они не могут получать доступ к данным в режиме реального времени или выполнять такие действия, как запись на встречу или обновление данных клиента.
Протокол контекста модели (MCP) - открытый стандарт, разработанный для решения этой проблемы. Представленный компанией Anthropic в ноябре 2024 года, MCP предоставляет безопасный и стандартизированный «язык» для взаимодействия LLM с внешними данными, приложениями и сервисами. Он служит связующим звеном, позволяя ИИ выйти за рамки статических знаний и стать динамичным агентом, способным получать актуальную информацию и выполнять действия, делая ее более точной, полезной и автоматизированной.
Другими словами, MCP создает стандартизированное двустороннее соединение для приложений ИИ, позволяя LLM легко подключаться к различным источникам данных и инструментам. А что это за источники данных и инструменты? Внешние системы могут быть любыми, с которыми можно обмениваться данными и вызывать какие-то функции. Например:
- базы данных;
- счетчики веб-аналитики;
- CRM-системы;
- таск-трекеры, мессенджеры, репозитории, почта (Zendesk, Intercom, Freshdesk и т.д.);
- файловые системы, сервера, контейнеры;
- BI и аналитические платформы (BigQuery, Looker Studio, Tableau и другие);
- Reddit, YouTube и прочие соцсети;
- инструменты разработчиков и DevOps (GitHub, Jira, Trello);
- +100500 других сервисов.
MCP (Model Context Protocol) создает универсальный мост между данными и искусственным интеллектом, позволяя большим языковым моделям (LLM) «понимать» и использовать данные из внешних систем без ручной настройки или переписывания схем. Именно поэтому во многих компаниях начинают внедрять эту технологию. ИИ гораздо эффективнее, когда его подключают к данным организации для автоматизации отчетов, анализа данных о клиентах и организации рабочих процессов в команде.
Ключевые преимущества MCP:
- Стандартизированный доступ к данным. MCP задает четкий формат, в котором внешняя система (например, Яндекс Метрика, CRM или база данных) передает описание своей структуры - модели данных, поля, связи, типы. Модель не гадает, что значит поле ym:s:visits - она получает описание и знает, как его интерпретировать;
- Глубокое понимание контекста. Благодаря MCP, LLM «понимает», какие сущности важны, как они связаны, и как их использовать в ответах. Это позволяет ИИ отвечать на сложные вопросы по вашим данным (вплоть до объяснения аномалий, предложений по оптимизации и прогнозов);
- Поддержка нескольких систем одновременно. MCP можно использовать как «общий язык» интеграции - например, подключить Google Analytics 4, CRM-систему и Notion, и все это будет доступно в едином контексте модели;
- Гибкость и расширяемость. MCP поддерживает как простые схемы (например, список заказов), так и сложные модели с вложенными структурами, фильтрами, связями;
- Безопасность и контроль доступа. Вся передача данных строится на принципах минимизации доступа - модель видит только те поля и объекты, которые вы явно указали в MCP-контексте. Это снижает риск утечки данных и повышает управляемость;
- Ускорение разработки ИИ-интеграций. Вместо того чтобы писать код для каждой интеграции вручную, достаточно сформировать MCP-контекст - и модель уже «понимает», как с ним работать. Это особенно важно для масштабируемых решений, где нужно быстро внедрять LLM в разные отделы или клиенты.
На Habr опубликовано множество интересных материалов на эту тему от разных авторов. Я рекомендую прочитать хотя бы эти:
- MCP для новичков
- Model Context Protocol, обзор и практика
- Как управлять Notion, GitHub и другими программами через Claude. Показываю свои примеры MCP серверов
- MCP: новая игра на рынке искусственного интеллекта
- Как научить нейросеть работать руками: создание полноценного ИИ-агента с MCP и LangGraph за час
В рамках данного руководства я покажу вам, как практически настроить сервер MCP для Яндекс Метрики, а также подключить к нему своего AI-помощника. За основу я взял решение, которое нашел на GitHub и LobeChat. Его автор - Vadim Bezymiannyi. На данный момент - это единственное публичное решение для Яндекс Метрики. Выражаю Вадиму огромную благодарность за проделанную работу!
Каждый MCP может устанавливаться по-разному. В этой публикации описан один из возможных вариантов. Я старался максимально упростить все процессы. Но уверен, что даже точно следуя всем шагам инструкции, у вас могут возникнуть ситуации, которые не будут освещены в этом руководстве. Это связано с тем, что установка MCP затрагивает области DevOps, backend-разработки и интеграции AI-инструментов, а значит, всегда остается место вариативности и непредсказуемым нюансам. Вы можете попробовать обратиться ко мне за консультацией. Но она точно будет платной.
Примечание: все нижеприведенные действия я выполняю на Windows. Если у вас macOS, пожалуйста, обратитесь к нейросетям для соответствующей адаптации.
Согласно требованиям MCP Server для Яндекс Метрики, необходимо:
- установить Node.js версии 18 и выше - обязательно, чтобы запускать MCP Server;
- получить токен доступа к API Яндекс Метрики - для доступа к счетчику Яндекс Метрики.
Дополнительно мы будем должны установить Git, скопировать репозиторий, установить зависимости и загрузить все необходимые пакеты, запустить MCP Server у себя локально на компьютере, а также выбрать приложение для общения с AI-помощником и выполнить настройку самого AI-помощника, чтобы он подключался к нашему локальному MCP Server.
Выглядит сложным, не правда ли? Так оно и есть! Но мы попробуем разобраться.
Установка Node.js
На JavaScript выполняется большая часть интерактивных элементов на сайтах и в мобильных приложениях. JavaScript отлично работает с HTML/CSS и интегрирован основные браузеры на рынке. Для работы с JavaScript вне браузера разработчики используют различные среды выполнения, например, Node.js.
Node.js - это кроссплатформенная среда выполнения кода JavaScript. Она позволяет использовать JavaScript как язык программирования общего назначения: создавать на нем серверную часть и писать полноценные клиентские приложения.
Для запуска Yandex Metrika MCP Server необходимо установить Node.js на компьютер. Для этого перейдите по ссылке и на главной странице нажмите на кнопку Get Node.js:
Скачайте для своей операционной системы рекомендованную для большинства пользователей версию:
На ваш компьютер загрузится установщик Node.js. После скачивания запустите его и следуйте шагам настройки. Нажмите Next.
Затем примите условия лицензионного соглашения:
Укажите путь установки Node.js на своем компьютере. Можете оставить его без изменений:
Не изменяйте никакие функции и компоненты в следующем окне, просто нажмите Next:
В окне предложения установки нативных модулей нажмите Next:
Подтвердите начало установки, нажав на кнопку Install. Дождитесь ее завершения, а затем нажмите Finish.
После этого откройте PowerShell. PowerShell – это кроссплатформенное решение для автоматизации задач, которое включает оболочку командной строки, скриптовый язык и платформу управления конфигурацией. PowerShell поддерживается в Windows, Linux и macOS. Он позволяет:
- менять настройки операционной системы;
- управлять службами и процессами;
- настраивать роли и компоненты сервера;
- устанавливать программное обеспечение;
- управлять установленным ПО через специальные интерфейсы;
- встраивать исполняемые компоненты в сторонние программы;
- создавать сценарии для автоматизации задач администрирования;
- работать с файловой системой, хранилищем сертификатов и т.д.
Откройте меню Пуск на своем компьютере и начните вводить powershell. В появившихся результатах нажмите на приложение Windows PowerShell (можете запустить от имени администратора):
Откроется окно командной строки. Проверьте установку, выполнив поочередно команды:
|
1 |
node -v |
и:
|
1 |
npm -v |
После каждой из них нажмите Enter. Они должны вернуть версии Node.js и npm.
Если после команды npm -v вы увидите ошибку примерного такого вида:
|
1 2 |
npm : Невозможно загрузить файл C:\XXXXXX\nodejs\npm.ps1, так как выполнение сценариев отключено в этой системе. Для получения дополнительных сведений см. about_Execution_Policies по адресу https:/go.microsoft.com/fwlink/?LinkID=135170 |
Тогда:
- запустите PowerShell от имени администратора
- выполните команду Set-ExecutionPolicy RemoteSigned
- в ответ на запрос подтверждения введите Y и нажмите Enter
Ошибка должна пропасть. После этого повторно выполните вышеприведенные команды.
Установка Git
Теперь необходимо установить Git. Git - это система контроля версий, которая позволяет отслеживать изменения в файлах и управлять разработкой проектов. Проще говоря, это инструмент, который помогает разработчикам работать с кодом и другими файлами совместно и безопасно.
Официальная сборка доступна для загрузки на сайте Git. Скачайте последнюю доступную версию по ссылке Click here to download или воспользуйтесь установщиками ниже:
На ваш компьютер загрузится установщик Git. После скачивания запустите его и следуйте шагам настройки.
Укажите папку, в которую будет установлен Git (можно оставить по умолчанию):
Компоненты установки Git оставьте без изменений:
Текстовый редактор оставьте без изменений:
Когда вы инициализируете репозиторий командой git init, Git создает ветку с именем master по умолчанию. Начиная с версии 2.28, вы можете задать другое имя для создания ветки по умолчанию. В рамках текущей настройки выбор можно не менять, оставьте Let Git decide:
Оставьте рекомендованный вариант использования Git - Git from the command line and also from 3rd-party software. Он позволяет работать с Git из разных оболочек и интегрировать его с другими приложениями.
Изначально Git поставлялся со встроенным SSH-клиентом, но не так давно появилась возможность использования внешнего клиента. Если у вас уже что-то установлено на компьютере - можете выбрать второй вариант. Если вы устанавливаете Git впервые, то оставьте Use bundled OpenSSH:
По умолчанию Git будет использовать библиотеку Windows Secure Channel - встроенное решение Windows, которое использует системное хранилище сертификатов (Windows Credential Store) и обеспечивает централизованное управление сертификатами на уровне всей организации. Это современный подход, который напрямую интегрирован с операционной системой. Для наших задач этого достаточно, поэтому в следующем окне установки оставьте выбор Use the native Windows Secure Channel library:
Существует два основных способа формирования конца строки в файлах - CRLF и LF. Первый используется в Windows, второй - в Unix-like системах. Первая опция позволяет извлекать файлы из репозитория в Windows-стиле, при этом отправлять файлы в репозиторий в Unix-стиле. Для отслеживания чужих контейнеров Google Tag Manager данная настройка особой роли не играет, поэтому вы можете оставить первый вариант Checkout Windows-style, commit Unix-style line endings:
Эмулятор, который будет использоваться в командной строке Git Bash. MinTTY — удобный вариант, поэтому он выбран по умолчанию. Не меняйте его, а просто нажмите Next:
На следующем шаге настройки необходимо задать стратегию git pull. Опция fast-forward or merge будет пытаться обновить историю коммитов без создания коммитов слияния. Это самый часто используемый вариант, поэтому оставьте его:
Настройка Git Credential Manager позволит Git запоминать логины и пароли для подключения к удаленным репозиториям (например, GitHub, GitLab или корпоративное хранилище) и не вводить их постоянно. Это нам подходит:
Кэширование позволит ускорить работу Git, эту опцию оставьте. А вот символические ссылки нам не нужны:
В завершение нажмите Install. Git начнет устанавливаться на ваш компьютер. По окончании снимите галочку с View Release Notes и нажмите Finish:
Проверьте установку Git, открыв PowerShell и введя туда следующую команду:
|
1 |
git --version |
Если Git установлен правильно, вы увидите номер версии:
Клонирование репозитория
Теперь в PowerShell выберите папку, в которую вы хотите скопировать репозиторий Yandex Metrika MCP Server. В PowerShell это означает смену текущей рабочей директории. Делается это командой cd (change directory).
С помощью команды pwd вы можете узнать путь, где вы сейчас находитесь:
Например, вы хотите скопировать репозиторий на диск C. Тогда изменить свой путь вы можете такой командой:
|
1 |
cd C:\ |
После этого вы окажетесь на диске C:
Именно сюда я буду копировать репозиторий. Вы можете выбрать точно такой же путь на своем компьютере. После этого введите такую команду:
|
1 |
git clone https://github.com/Vadosdavos/yandex-metrika-mcp.git |
И нажмите Enter.
После завершения установки вы можете перейти в свою директорию на компьютере (у меня - это диск С) и убедиться, что папка yandex-metrika-mcp была создана:
Внутри нее будут располагаться все файлы скопированного репозитория.
npm install
npm (Node Package Manager) - пакетный менеджер для JavaScript, работающий на Node.js. Менеджер npm состоит из двух частей:
- CLI (интерфейс командной строки) - средство для размещения и скачивания пакетов;
- онлайн-репозитории, содержащие JavaScript-пакеты.
Для запуска нашей программы вам необходимо установить определенные пакеты. Для этого используется команда npm install.
Но перед этим в PowerShell вам необходимо перейти в саму директорию репозитория. Для этого введите команду:
|
1 |
cd yandex-metrika-mcp |
Тогда путь должен измениться на правильный:
Теперь введите команду и нажмите Enter:
|
1 |
npm install |
Это скачает все библиотеки, необходимые для работы MCP Server.
На этом предварительная настройка всех программ завершена. PowerShell можно на время закрыть.
Получение токена для Яндекс Метрики
Читать еще:
- Введение в API Яндекс Метрики
- Создание приложения для API Яндекс Метрики
- Получение OAuth-токена для Яндекса
- Ваш первый запрос к API отчетов Яндекс Метрики
Для работы с API Яндекс Метрики необходима авторизация с помощью OAuth-токена. Он нужен для того, чтобы MCP Server мог получать доступ к аналитическим данным ваших счетчиков через официальный API, аутентифицировать запросы и получать нужные отчеты по посещаемости, источникам трафика, конверсиям и т.д. MCP Server перед запуском получает токен и использует его для всех запросов к API Метрики. Яндекс проверяет валидность токена и разрешает выдачу запрошенных данных только активированным приложениям.
Для регистрации приложения подойдет обычная почта Яндекса (Яндекс ID). Если у вас уже есть аккаунт в Яндексе, на котором размещен ваш счетчик Яндекс Метрики, используйте его. Авторизовавшись под своей учетной записью, перейдите по ссылке.
В открывшемся окне выберите пункт Для доступа к API или отладки:
Нажмите Перейти к созданию.
Заполните поля:
- название - можно указать произвольно;
- почта - укажите предпочтительную почту для связи;
- доступ к данным - укажите набор доступов для вашего приложения.
Какие бывают доступы:
- metrika:read - получение статистики, чтение параметров своих и доверенных счетчиков, получение списка счетчиков;
- metrika:write - создание счетчиков, изменение параметров своих и доверенных счетчиков, загрузка любых данных;
- metrika:expenses - загрузка в счетчики расходов;
- metrika:user_params - загрузка в счетчики параметров пользователей;
- metrika:offline_data - загрузка в счетчики офлайн-данных (данные из CRM, офлайн-конверсии, звонки).
Доступы metrika:expenses, metrika:user_params, metrika:offline_data не обязательны, если используется доступ metrika:write.
Поскольку для нашего MCP Server Яндекс Метрики не требуется никаких изменений и преобразований, достаточно будет указать metrika:read. Но на всякий случай добавьте еще и metrika:write.
Нажмите Создать приложение.
Вас перенаправит на страницу самого приложения. Скопируйте его ClientID:
Перейдите по ссылке, добавив ее в адресную строку браузера:
|
1 |
https://oauth.yandex.ru/authorize?response_type=token&client_id=<application_id> |
, где вместо <application_id> вам необходимо вставить скопированный ClientID приложения.
У вас должно открыться окно авторизации для аккаунта Яндекс Метрики. Нажмите кнопку Войти как… и тогда ваше приложение получит доступ к использованию API Метрики.
На следующей странице отобразится ваш Oauth-токен (авторизационный токен). Он будет также добавлен в адресную строку. Некоторые браузеры могут обрезать часть ссылки, поэтому если вы не видите токен в URL, скопируйте его со страницы.
Установка LobeChat
На данный момент не все инструменты поддерживают MCP (Model Context Protocol) и умеют подключать локальные MCP-серверы типа Yandex Metrika MCP. Еще и отсутствие поддержи и ограничение доступа в РФ затрудняют использование таких технологий.
Поэтому для демонстрации Yandex Metrika MCP Server мне пришлось искать обходные пути. После некоторого анализа я выбрал LobeChat и приложение LobeChat Desktop.
LobeChat - это продвинутый фреймворк и приложение для общения с искусственным интеллектом, которое объединяет несколько моделей ИИ от разных поставщиков (например, OpenAI, Claude 4, Gemini, DeepSeek, Ollama, Qwen и других). Он предоставляет удобный и настраиваемый интерфейс с возможностями голосового общения, мультиформатной поддержки (текст, изображение, аудио) и расширяемостью за счет плагинов и кастомных модулей.
Основные возможности LobeChat:
- поддержка множества моделей ИИ из разных сервисов;
- создание персональных AI-агентов и команд из ИИ для решения конкретных задач;
- работа с мультимодальными входными данными: тексты, изображения, аудио;
- управление знаниями и базами данных для интеллектуальной помощи (RAG-подход);
- расширяемая система плагинов и интеграция с внешними API;
- удобный интерфейс с поддержкой голосовых команд и персонализации.
Другими словами, LobeChat - это не сам искусственный интеллект. Это интерфейс + сервер, через который вы можете:
- подключать любые модели (локальные или облачные);
- использовать их как чат;
- подключать плагины (MCP, API, Яндекс Метрика и т.д.).
Он сам ничего не вычисляет, он просто «соединяет» вас с источником.
LobeChat - бесплатный, потому что это open-source проект и его исходный код открыт на GitHub. Его разработчики не тратят деньги на сервера: все работает на вашем компьютере или через ваш API-ключ. Вы сами платите за тот источник, который выбираете (или не платите вовсе, если он локальный).
Примеры реальных сценариев:
- полностью бесплатное решение - устанавливаете LobeChat + Ollama + модель (LLaMA3, Mistral, Phi3). Все работает без Интернета и бесплатно;
- использование ChatGPT, Claude, Gemini, DeepSeek и т.д. - в LobeChat вы вставляете свой API-ключ, и он через вашу учетную запись обращается к этим ИИ (вы платите им напрямую, если хотите);
- подключение своего источника данных (например, Яндекс Метрику) - используете MCP-сервер, и LobeChat к нему обращается локально.
Для установки LobeChat Desktop перейдите по ссылке и скачайте актуальную версию. Для Windows можно использовать installer с расширением .exe:
Запустите установщик. Выберите, хотите ли вы сделать эту программу доступной для всех пользователей вашего компьютера, или только для себя. Нажмите Далее.
На следующем шаге выберите папку для установки LobeHub:
Нажмите Установить. На последнем шаге нажмите Готово и запустите программу.
Вам откроется окно программы LobeHub/LobeChat. По сути, это интерфейс (чат-платформа) для общения с моделями искусственного интеллекта - вроде ChatGPT, Claude, Gemini, DeepSeek, Perplexity и другими ИИ.
Он позволяет:
- подключить свой API-ключ от OpenAI, Anthropic, Google и других;
- вести чаты с моделями (включая GPT-4, Claude 3, Gemini 1.5 и т.д.);
- создавать агентов, плагины, ассистентов и делиться ими;
- работать локально (на своём компьютере) или через веб-интерфейс;
После установки LobeChat по умолчанию запускает локальный веб-интерфейс, похожий на ChatGPT. Это просто интерфейс, который:
- показывает окно чата;
- инициализирует базового ассистента (пустой бот);
- ждет, пока вы введете текст или подключите свой API-ключ.
Пока оставим программу запущенной и вернемся к запуску MCP Server локально у себя на компьютере.
Внизу диалогового нажмите на иконку плагинов/расширений и выберите Plugin Store:
Вам откроется окно с доступными плагинами для работы. Убедитесь, что у вас выбрана вкладка MCP Plugins. В строке поиска введите Yandex Metrika MCP и напротив появившегося MCP плагина нажмите Install (Установить):
Начнется установка MCP плагина. Через некоторое время вам откроется конфигурация параметров плагина, где вам необходимо будет вставить ваш авторизационный токен API Яндекс Метрики, который вы получили на предыдущем шаге:
Нажмите Continue Installation. С 99% вероятностью у вас появится ошибка примерно такого вида:
Сообщение:
|
1 |
Error: Cannot find module 'C:\Users\user\AppData\Local\Programs\LobeHub\build\index.js' |
говорит о том, что Node.js пытается запустить файл build/index.js внутри папки LobeHub, но такого файла там нет.
LobeChat Desktop - это приложение, а не Node.js-проект, поэтому запускать node build/index.js в его каталоге не нужно. На самом деле этот файл находится в папке вашего MCP Server.
Для этого нам необходимо настроить собственное подключение. Для этого вернитесь на страницу Plugin Store и в правом верхнем углу нажмите Add MCP Plugin:
В открывшемся окне выберите STDIO:
STDIO - это способ (протокол) обмена данными между двумя программами через стандартный ввод/вывод (standard input/output).
То есть:
- программа А пишет текст (запрос) в «стандартный ввод» программы Б;
- программа Б читает этот текст, обрабатывает (например, вызывает ИИ-модель),
А потом возвращает ответ в «стандартный вывод», который снова читает программа А. Так взаимодействуют, например, многие CLI-инструменты, языковые серверы (LSP), и вот теперь - модели ИИ, если они запущены локально.
Примечание:
- LobeChat - это «мозг-оператор», который задает вопросы;
- MCP server - это «локальный помощник» с моделью (например, Llama 3);
- STDIO - это «провод», через который они общаются напрямую.
Теперь вам нужно задать настройки STDIO.
В MCP Plugin name введите название вашего пользовательского MCP плагина. Например, yandex-metrika-mcp:
В поле Command введите/выберите node:
В поле Command Arguments вам нужно указать путь до файла index.js вашего MCP Server. Для этого перейдите в папку с клонированным репозиторием (помните, что мы копировали его на диск С?) и провалитесь внутрь папки build. Там вы найдете файл index.js. Скопируйте путь до этого файла
Вставьте скопированное значение в поле:
Далее вам нужно указать настройки среды, которые позволяют LobeChat (или другой клиент) правильно запускать и подключать локальный сервер модели (MCP Server). В MCP Server Environment Variables нажмите Add a Row и добавьте следующие данные:
- VARIABLE_NAME - YANDEX_API_KEY
- Value - ваш токен доступа API Яндекс Метрики, полученный на предыдущем шаге
В LobeChat это будет выглядеть так:
Все эти настройки прописаны в официальной документации репозитория Yandex Metrika MCP Server на GitHub:
|
1 2 3 4 5 6 7 8 9 10 11 |
"mcpServers": { "yandex-metrika-mcp": { "command": "node", "args": [ "{path-to-repo}/build/index.js" ], "env": { "YANDEX_API_KEY": {your_yandex_api_token_here} } } } |
Когда вы задали все настройки, протестируйте свое подключение, нажав на кнопку Test Connection. Если все прошло успешно, то в правой части окна вы должны будете увидеть основные инструменты для доступа к данным Яндекс Метрики:
Все они описаны в документации автора. Всего их 25:
Аккаунт и базовая аналитика
- get_account_info - Получение основной информации об аккаунте и счетчиках Яндекс Метрики
- get_visits - Получение статистики посещений с возможностью фильтрации по датам (по умолчанию за последние 7 дней)
Анализ источников трафика
- sources_summary - Получение комплексного обзора и сводного отчета по источникам трафика
- sources_search_phrases - Получение поисковых фраз и информации о браузерах из источников трафика
- get_traffic_sources_types - Анализ различных типов источников трафика (органический, прямой, реферальный)
- get_search_engines_data - Получение данных о сессиях и пользователях из поисковых систем с опциональными фильтрами
- get_new_users_by_source - Определение наиболее эффективных источников трафика для привлечения новых пользователей
Аналитика контента
- get_content_analytics_sources - Получение источников, которые приводят пользователей к статьям на сайте
- get_content_analytics_categories - Получение общей статистики по категориям контента
- get_content_analytics_authors - Получение статистики по производительности авторов статей
- get_content_analytics_topics - Анализ производительности по темам статей
- get_content_analytics_articles - Получение детального отчета о просмотрах статей, сгруппированного по статьям
Поведение пользователей и демография
- get_user_demographics - Доступ к демографическим данным пользователей и вовлеченности по категориям устройств
- get_device_analysis - Анализ поведения пользователей по браузерам и операционным системам
- get_mobile_vs_desktop - Сравнение метрик трафика и вовлеченности между мобильными и десктопными пользователями
- get_page_depth_analysis - Получение сессий, где пользователи просмотрели более указанного количества страниц
Географические и региональные данные
- get_regional_data - Получение данных о сессиях и пользователях для конкретных регионов/городов
- get_geographical_organic_traffic - Анализ географического распределения органического трафика
Производительность и конверсия
- get_page_performance - Получение производительности страниц и показателя отказов по URL-путям
- get_goals_conversion - Отслеживание коэффициентов конверсии для указанных целей
- get_organic_search_performance - Анализ производительности органического поиска по поисковым системам и запросам
E-commerce аналитика
- get_ecommerce_performance - Получение производительности e-commerce по категориям продуктов и регионам
Браузеры и технические данные
- get_browsers_report - Получение отчета по браузерам без учета версии браузера
Расширенная аналитика
- get_data_by_time - Получение данных за определенные периоды времени, сгруппированных по дням, неделям, месяцам, кварталам или годам
- get_yandex_direct_experiment - Получение показателя отказов для конкретных экспериментов Яндекс Директа
Эти и другие команды вы будете вводить в самом чате, а AI-помощник на основе информации по вашему счетчику Яндекс Метрики будет выводить вам желаемый результат.
В завершение нажмите Install Plugin. После этого ваш плагин должен установиться корректно:
Вы можете перейти на вкладку Installed и убедиться, что ваш плагин доступен для работы:
Окно Plugin Store можно закрыть.
Подключение AI-помощника
У вас есть установленный MCP Server для Яндекс Метрики, вы создали авторизованный токен, чтобы получать данные по вашему счетчику Метрики, вы установили LobeChat для общения с моделями искусственного интеллекта (ChatGPT, Claude, DeepSeek, Perplexity и др.). Теперь осталось только выбрать самого AI-помощника, с которым вы сможете общаться на естественном языке и получать ответы по данным Яндекс Метрики.
Вам нужно выбрать модель AI-помощника для работы. Как ни странно, но этот заключительный шаг настройки является самым простым, и одновременно сложным. Как вы понимаете, многие GPT недоступны в России, их также нельзя использовать без VPN. А с учетом того, что многие компании не присутствуют на территории РФ, то вы не сможете привязать банковскую карту РФ и оплатить расширенную версию, если она потребуется.
LobeChat поддерживает очень много различных языковых моделей. Откройте настройки всех моделей, перейдя в раздел Settings:
В открывшемся окне вы увидите список AI провайдеров, к которым вы можете подключиться напрямую, используя ключ API.
И тут есть нюанс, который вы сразу должны учесть. Когда вы общаетесь с моделями вроде GPT, Claude, Gemini или DeepSeek через их официальные сайты или приложения - это бесплатно, потому что компания оплачивает вычисления за вас (в рекламных, демонстрационных или ограниченных целях). Но когда вы используете те же модели через API, ситуация меняется:
- теперь вы обращаетесь к модели программно, напрямую к серверам компании;
- за каждый запрос и ответ модель тратит вычислительные ресурсы.
API требует личный ключ (API key) и платежную (привязанную) карту, чтобы оплачивать эти ресурсы. Именно поэтому работа с чат-ботами ИИ:
- в интерфейсе - бесплатно;
- через API - платно.
API - это инструмент для разработчиков и интеграций, а не для бесплатного массового доступа, поэтому компании взимают оплату за его использование.
Поэтому перед тем, как начать работу с чат-ботом ИИ и задавать ему вопросы, вам нужно сделать правильно выбор - какую конкретно языковую модель вы будете использовать. И тут тоже не все так просто.
Посмотрите на список. Напротив каждый модели будет представлена иконка с основными опциями. Нам необходима модель, которая имеет синюю иконку и надпись This model supports function calls:
Эта фраза означает, что эта модель умеет вызывать функции (tools), то есть взаимодействовать с плагинами MCP. Это способность модели не просто генерировать текст, а вызывать внешние функции или плагины, когда это нужно.
LobeChat использует эту механику, чтобы подключать MCP-плагины (например, Яндекс Метрику, Google Analytics 4 и т.д.). Когда модель видит, что вопрос пользователя требует данных (например, Покажи посещаемость за прошлую неделю), она автоматически вызывает нужную MCP-функцию и получает результат от сервера.
Вы можете попросить нейросеть составить краткую таблицу по всем моделям и выбрать для вас оптимальную. В этом руководстве я покажу работу DeepSeek и подключение платного аккаунта через интерфейс API. Однако это вовсе не значит, что вы обязаны поступать именно так. Моделей существует очень много, и у каждой есть свои преимущества и недостатки.
К выбору стоит подходить рационально, учитывая возможности работы и ограничения по оплате квот в вашей стране. Многие мои читатели не находятся в России, поэтому для них подключение модели и привязка карты для оплаты токенов API не составляет проблемы. Для жителей РФ это может быть затруднительно, но существуют обходные пути.
DeepSeek я выбрал по очень простым причинам:
- я его использую в своей работе;
- он доступен в РФ без VPN;
- минимальный базовый платеж - 2$ (да, нужно привязать иностранную карту, но для большинства моделей эта нужно сделать, поскольку это все международные продукты)
Знаю, что даже существуют локальные модели, которые полностью работают офлайн, прямо на вашем компьютере и не требуют постоянного подключения к Интернету. Вы можете скачать такую модель и веса на компьютер и запускать ее через совместимый фреймворк (например, Ollama, Hugging Face, Local LLM). Однако для текущего руководства - это усложнение, поэтому я буду использовать DeepSeek.
Примечание: о том, как привязывать карты и оплачивать разные GPT-модели из России, вы можете найти в Интернете. Там полно руководств о том, как это сделать.
Получение токена API DeepSeek
Для получения токена, который вы могли бы вставить в LobeChat Desktop и подключиться к DeepSeek, вам необходимо перейти на сайт www.deepseek.com. В правом верхнем углу нажмите API Platform:
Зарегистрируйтесь на сайте, используя электронную почту и пароль, либо же воспользуйтесь авторизацией через аккаунт Google:
После регистрации вам откроется интерфейс DeepSeek Platform. Перейдите в раздел API keys:
Создайте ключ API:
Задайте ему название, например - Yandex Metrika MCP:
Нажмите Create API key. После этого вы получите свой ключ API, который обязательно скопируйте к себе в блокно. Если вы этого не сделаете, вам нужно будет сгенерировать новый ключ.
Она вам понадобится для подключения в программе LobeChat Desktop.
Этот ключ API не будет активен до тех пор, пока вы не пополните баланс на платформе DeepSeek. Для этого перейдите в раздел Top up и пополните свой баланс, указав платежные реквизиты. Минимальный платеж - 2$ + VAT(6%). Доступна оплата в USD и CNY:
После оплаты и пополнения баланса в DeepSeek Platform на указанную сумму:
Вы сможете расходовать токены API на работу с моделями DeepSeek, общаться с чат-ботом ИИ и получать подробную аналитику, задавая ему любые вопросы о данных вашего счетчика Яндекс Метрики. Подробнее о тарификации моделей DeepSeek читайте в разделе Pricing.
Подключение DeepSeek в LobeChat Desktop
Вернитесь в LobeChat Desktop и откройте настройки языковых моделей:
В открывшемся окне найдите DeepSeek и активируйте его. В поле API key добавьте ключ, который вы получили в интерфейсе DeepSeek Platform:
После этого нажмите кнопку Check, чтобы проверить соединение. Если все прошло успешно, вы должны увидеть уведомление Check Passed:
Закройте окно настроек и вернитесь на главный экран программы. Теперь вы можете сменить языковую модель с ChatGPT на DeepSeek. Для этого нажмите на иконку OpenAI (по умолчанию) и из выпадающего списка выберите модель DeepSeek с поддержкой function calls. Например, DeepSeek V3.2 Exp:
Осталось только проверить работу нашего пользовательского плагина MCP. Для этого нажмите на иконку расширений и убедитесь, что рядом с вашим плагином стоит галочка, а статус показывает Enabled:
Чат-бот ИИ и ваш счетчик Яндекс Метрики
Вы можете полностью настроить внешний вид окна чата: изменить иконки, цветовую схему, язык и другие элементы. В этом руководстве мы опускаем эти детали - просто откройте официальную документацию LobeChat Desktop и выполните все настройки по своему вкусу.
Теперь вы можете задавать чат-боту вопросы прямо в окне LobeChat DeepSeek по своему счетчику Яндекс Метрики, ориентируясь на 25 инструментов и команд выше (официальная документация MCP Yandex Metrika).
Например, начать диалог можно так:
Выведи мне основную информацию по моему счетчику Яндекс Метрики get_account_info
Результат:
Сначала он у вас попросит идентификатор счетчика Яндекс Метрики, который можно найти в интерфейсе сервиса:
Введите его и отправьте сообщение. DeepSeek буквально через несколько секунд предоставил мне подробную информацию о моем счетчике:
Используя другую команду (get_visits), мы можем получить статистику посещений с возможностью фильтрации по датам (по умолчанию за последние 7 дней):
А сколько было у меня визитов за март 2025 года?
И результат:
Данные с интерфейсными значениями сходятся (1 визит - в пределах допустимой погрешности)!
Если у вас возникают проблемы в общении с чат-ботом, то, вероятно, дело в ограничениях и настройках чата. Для этого зайдите в профиль и перейдите раздел Default Assistant - Chat Preferences:
Там вы увидите такие настройки:
- Limit History Message Count - если включить, то чат будет ограничивать количество сообщений, которые хранятся в истории. Когда история превышает лимит - старые сообщения удаляются или игнорируются при следующем запросе. Это может влиять на работу вашего чат-бота и анализ данных Яндекс Метрики (перестанет работать и отвечать на ваши вопросы), поэтому не сокращайте количество сообщений, если у вас длинный диалог по вашему счетчику;
- Attached History Message Count - этот параметр определяет, сколько последних сообщений из истории передается в каждом запросе модели. Например: если значение = 20, то при каждом ответе модели будут учитываться только 20 последних сообщений (плюс текущее). Это нужно для оптимизации контекста и уменьшения расхода токенов.
- Enable Automatic Summary of Chat History - если включено, то старые сообщения автоматически сворачиваются в краткое резюме (summary), чтобы не терять контекст, но при этом не перегружать модель большим количеством текста. Это помогает сохранять память чата без потери смысла разговора.
Изменив эти настройки, нажмите на кнопку Update Chat Preferences.
Общаться с чатом можно долго. А если быть точнее, пока не закончатся токены и $ 😉 Я записал короткое видео, где на протяжении некоторого времени общаюсь с DeepSeek и задаю ему вопросы по своему счетчику Яндекс Метрики. Уверен, такой формат лучше демонстрирует его работу, чем длинные тексты и скриншоты.
А если кому интересно, то вот сколько я потратил за время написания этого руководства, пока общался с DeepSeek V3.2 Exp.
Понравилось? Уверен, что да! Изучайте лучшие мировые практики вместе со мной и другими слушателями онлайн-курсов!
Примечание: Тахир Гафаров, аналитик из РА «Ковалевы» и активный участник нашего digital-сообщества, выпустил полезное дополнение к этому руководству по Yandex Metrika MCP Server. Подробнее читайте в этом материале.















































































