Введение

Функциональность доступна на платных тарифах.

Data Stream — поток данных, поступающий от приложения и прошедший обработку в AppMetrica. Он доступен для экспорта в виде файлов формата CSV (стандарт RFC 4180) или JSON. Список полей для экспорта можно задавать с помощью запроса к API.

Поток представлен последовательностью 5-минутных окон данных. Каждое окно можно скачать при помощи запроса к API и получить файл в заданном при настройке формате. Все данные потока хранятся 7 суток. Размер данных и состав полей можно узнать при помощи запроса к API.

Неагрегированные данные, собранные для вашего приложения, могут быть использованы для построения собственных отчетов или аудиторий для ретаргетинга. Для выгрузки доступны данные:

  • События
  • Установки
  • Начало сессий
  • Push-токены
  • Крэши
  • Ошибки
  • Клики и показы
  • Revenue
  • Покупки
  • Ad Revenue
  • Конверсии
  • Deeplink

API построен по REST-принципам. С помощью запроса Настройка потока задается конфигурация потоков данных: типы событий, наборы полей и фильтры. После конфигурации потока новые данные начнут записываться в файлы, которые можно загрузить с помощью запроса Скачивание данных.

При изменении конфигурации потока настройки применяются только к новым данным, уже сформированные файлы не изменятся.

Кому подойдет данный продукт

Data Stream API подойдет вам, если:

  • необходим регулярный экспорт данных;
  • у вас крупное приложение или большой пакет проектов;
  • объем выгрузки превышает 500 тысяч записей за раз;
  • важна частота выгрузки и отсутствие ограничений.

Данные в настоящем времени

Обычно последние два 5-минутных окна постепенно растут в размере, поскольку в них дописываются данные. Поэтому рекомендуется скачивать поток с отставанием хотя бы в 10 минут. Для проверки, не обновились ли данные после скачивания, можно смотреть на поле update_timestamp в ответе на запрос Состояние потока. Стоит допускать, что возможны пропуски окон в ситуациях, когда сервис Data Stream находится в нерабочем состоянии, и в таком случае потерь данных нет, однако, первые окна после пропусков будут иметь больший размер данных.

При технических работах в сервисе Data Stream данные будут записаны в файлы, сформированные после их окончания. Поэтому они могут иметь больший размер. При этом исключается потеря данных и гарантируется корректный event_timestamp во всех записях.

Сравнение Data Stream и Logs API

Характеристика

Data Stream API

Logs API

Для чего используется

Для регулярной аналитики

Для выгрузки ретро-данных, при необходимости

Доступность данных для выгрузки

С момента конфигурации потока, исторические данные недоступны. Время жизни файлов – 7 суток

Доступны исторические данные за любой период

Получение real-time данных

С задержкой до 10 минут для стабилизации последней пары 5-минутных окон

Нет возможности получать real-time данные

Ожидание подготовки данных

Нет, файлы доступны сразу

Да

Конфигурация полей экспорта

Да

Да

Доступное количество полей

Больше (например, 41 в Событиях, 52 в Установках и т.д.)

Меньше (например, 32 в Событиях, 42 в Установках и т.д.)

Фильтрация событий по имени

Да, с помощью белого и черного списков

Можно задать только строгое равенство, за один раз доступен фильтр только по одному полю

Формат выгрузки

CSV, JSON

CSV, JSON

Поддержка сжатия

Да, с помощью кодека gzip

Да, с помощью gzip

Очередь на обработку запроса

Нет

Да (максимум 3 запроса одновременно)

Запросов в сутки

До 50 000

До 5 000 на пользователя

Количество параллельных запросов на скачивание данных

До 10

Если файл подготовлен — ограничений нет, иначе запросы ограничены очередью

Узнать больше

Если вы не нашли ответ на свой вопрос, то вы можете задать его через форму обратной связи. Пожалуйста, опишите возникшую проблему как можно подробнее. Если возможно, приложите скриншот.

Написать в службу поддержки
Предыдущая
Следующая