Введение
Функциональность доступна на платных тарифах.
Data Stream — поток данных, поступающий от приложения и прошедший обработку в AppMetrica. Он доступен для экспорта в виде файлов формата CSV (стандарт RFC 4180) или JSON. Список полей для экспорта можно задавать с помощью запроса к API.
Поток представлен последовательностью 5-минутных окон данных. Каждое окно можно скачать при помощи запроса к API и получить файл в заданном при настройке формате. Все данные потока хранятся 7 суток. Размер данных и состав полей можно узнать при помощи запроса к API.
Неагрегированные данные, собранные для вашего приложения, могут быть использованы для построения собственных отчетов или аудиторий для ретаргетинга. Для выгрузки доступны данные:
- События
- Установки
- Начало сессий
- Push-токены
- Крэши
- Ошибки
- Клики и показы
- Revenue
- Покупки
- Ad Revenue
- Конверсии
- Deeplink
API построен по REST-принципам. С помощью запроса Настройка потока задается конфигурация потоков данных: типы событий, наборы полей и фильтры. После конфигурации потока новые данные начнут записываться в файлы, которые можно загрузить с помощью запроса Скачивание данных.
При изменении конфигурации потока настройки применяются только к новым данным, уже сформированные файлы не изменятся.
Кому подойдет данный продукт
Data Stream API подойдет вам, если:
- необходим регулярный экспорт данных;
- у вас крупное приложение или большой пакет проектов;
- объем выгрузки превышает 500 тысяч записей за раз;
- важна частота выгрузки и отсутствие ограничений.
Данные в настоящем времени
Обычно последние два 5-минутных окна постепенно растут в размере, поскольку в них дописываются данные. Поэтому рекомендуется скачивать поток с отставанием хотя бы в 10 минут. Для проверки, не обновились ли данные после скачивания, можно смотреть на поле update_timestamp
в ответе на запрос Состояние потока. Стоит допускать, что возможны пропуски окон в ситуациях, когда сервис Data Stream находится в нерабочем состоянии, и в таком случае потерь данных нет, однако, первые окна после пропусков будут иметь больший размер данных.
При технических работах в сервисе Data Stream данные будут записаны в файлы, сформированные после их окончания. Поэтому они могут иметь больший размер. При этом исключается потеря данных и гарантируется корректный event_timestamp
во всех записях.
Сравнение Data Stream и Logs API
Характеристика |
Data Stream API |
Logs API |
Для чего используется |
Для регулярной аналитики |
Для выгрузки ретро-данных, при необходимости |
Доступность данных для выгрузки |
С момента конфигурации потока, исторические данные недоступны. Время жизни файлов – 7 суток |
Доступны исторические данные за любой период |
Получение real-time данных |
С задержкой до 10 минут для стабилизации последней пары 5-минутных окон |
Нет возможности получать real-time данные |
Ожидание подготовки данных |
Нет, файлы доступны сразу |
Да |
Конфигурация полей экспорта |
Да |
Да |
Доступное количество полей |
Больше (например, 41 в Событиях, 52 в Установках и т.д.) |
Меньше (например, 32 в Событиях, 42 в Установках и т.д.) |
Фильтрация событий по имени |
Да, с помощью белого и черного списков |
Можно задать только строгое равенство, за один раз доступен фильтр только по одному полю |
Формат выгрузки |
CSV, JSON |
CSV, JSON |
Поддержка сжатия |
Да, с помощью кодека gzip |
Да, с помощью gzip |
Очередь на обработку запроса |
Нет |
Да (максимум 3 запроса одновременно) |
Запросов в сутки |
До 50 000 |
До 5 000 на пользователя |
Количество параллельных запросов на скачивание данных |
До 10 |
Если файл подготовлен — ограничений нет, иначе запросы ограничены очередью |
Узнать больше
Если вы не нашли ответ на свой вопрос, то вы можете задать его через форму обратной связи. Пожалуйста, опишите возникшую проблему как можно подробнее. Если возможно, приложите скриншот.