Новости трендов

Как использовать RStudio для создания моделей прогнозирования трафика

В SEO-индустрии сейчас много энтузиазма по поводу Python.

Это сравнительно простой язык программирования для изучения, и он стал доступен для SEO-сообщества через руководства и блоги.

Но если вы хотите изучить новый язык для анализа и визуализации данных поиска, рассмотрите возможность изучения R.

В этой статье рассматриваются основы того, как вы можете создавать прогнозы временных рядов в RStudio на основе данных о кликах в Google Search Console.

Но сначала, что такое R?

Согласно The R Project for Statistical Computing, R — это «язык и среда для статистических вычислений и графики».

R не нов и существует с 1993 года. Тем не менее, изучение некоторых основ R, в том числе способов взаимодействия с различными API Google, может быть полезным для SEO-специалистов.



Если вы хотите изучить R как новый язык, хорошими курсами для изучения являются:

Но если вы понимаете основы и хотите изучить основы визуализации данных в R, я рекомендую управляемый проект Coursera «Применение анализа данных в бизнесе с программированием на R».

И тогда вам также необходимо установить:

Ниже приведены шаги по созданию моделей прогнозирования трафика в RStudio с использованием данных о кликах.

Шаг 1. Подготовьте данные

Первый шаг — экспортировать данные из Google Search Console. Вы можете сделать это через пользовательский интерфейс и экспортировать данные в формате CSV:

Экспорт GSX

Или, если вы хотите получить свои данные через RStudio непосредственно из API Google Search Console, я рекомендую вам следовать этому руководству от JC Chouinard.

Если вы сделаете это через интерфейс, вы загрузите zip-файл с различными CSV-файлами, из которых вам нужна рабочая книга с именем «Даты»:

Как использовать RStudio для создания моделей прогнозирования трафика

Ваш диапазон дат может быть от квартала, шести месяцев или 12 месяцев — все, что имеет значение, это то, что у вас есть значения в хронологическом порядке, который легко выдает этот экспорт. (Вам просто нужно отсортировать столбец A, чтобы самые старые значения были вверху.)


Получайте ежедневный информационный бюллетень, на который полагаются поисковые маркетологи.


Шаг 2. Нанесите данные временного ряда в RStudio.

Теперь нам нужно импортировать и построить наши данные. Для этого мы должны сначала установить четыре пакета, а затем загрузить их.

Первая команда для запуска:

## Install packages
install.packages("tidyverse")
install.packages("tsibble")
install.packages("fabletools")
install.packages("bsts")

С последующим:

## Load packages
library("tidyverse")
library("tsibble")
library("fabletools")
library("bsts")

Затем вы хотите импортировать свои данные. Единственное изменение, которое вам нужно внести в приведенную ниже команду, — это имя типа файла (с сохранением расширения CSV), выделенное красным цветом:

## Read data
mdat <- read_csv("example data csv.csv",
col_types = cols(Date = col_date(format = "%d/%m/%Y")))

Затем последние две команды при построении ваших данных должны сделать временной ряд объектом, а затем построить сам график:

## Make time series object
ts_data <- mdat %>%
as_tsibble(index = "Date")

С последующим:

## Make plot
autoplot(ts_data) +
labs(x = "Date", subtitle = "Time series plot")

И в вашем интерфейсе RStudio у вас появится график временных рядов:

Как использовать RStudio для создания моделей прогнозирования трафика

Шаг 3. Смоделируйте и спрогнозируйте данные в RStudio

На данном этапе важно признать, что прогнозирование не является точной наукой и опирается на несколько истин и предположений. Это:

  • Предположения о том, что исторические тенденции и закономерности будут повторяться с разной степенью в течение долгого времени.
  • Прогнозирование будет содержать ошибки и аномалии, потому что ваш набор данных (ваши реальные данные о кликах) будет содержать аномалии, которые могут быть истолкованы как ошибки.
  • Прогнозы обычно основаны на среднем значении, что делает групповые прогнозы более надежными, чем серию микропрогнозов.
  • Краткосрочные прогнозы обычно более точны, чем долгосрочные.

После этого мы можем начать моделировать и прогнозировать данные о трафике.

В этой статье я буду визуализировать наши данные в виде прогноза байесовского структурного временного ряда (BSTS), одного из пакетов, которые мы установили ранее. Этот график используется большинством методов прогнозирования.

Большинство маркетологов видели или, по крайней мере, знакомы с этой моделью, поскольку она широко используется во многих отраслях для целей прогнозирования.

Первая команда, которую нам нужно выполнить, — это привести наши данные в соответствие с моделью BSTS:

ss <- AddLocalLinearTrend(list(), ts_data$Clicks)
ss <- AddSeasonal(ss, ts_data$Clicks, nseasons = 52)
model1 <- bsts(ts_data$Clicks,
state.specification = ss,
niter = 500)

А затем постройте компоненты модели:

plot(model1, "comp")

И теперь мы можем визуализировать прогнозы на один и два года.

Возвращаясь к ранее упомянутым общим правилам прогнозирования, чем дальше в будущее вы прогнозируете, тем менее точным он становится. Таким образом, я придерживаюсь двух лет, когда делаю это.

И поскольку BSTS рассматривает верхнюю и нижнюю границы, после определенного момента это также становится довольно бессмысленным.

Приведенная ниже команда создаст прогноз BSTS на один год для ваших данных:

# 1-year
pred1 <- predict(model1, horizon = 365)
plot(pred1, plot.original = 200)

И вы вернете такой график:

График прогноза на 1 год

Чтобы создать график прогнозирования на два года из ваших данных, вы хотите запустить следующую команду:

pred2 <- predict(model1, horizon = 365*2)
plot(pred2, plot.original = 365)

И это создаст такой график:

График прогноза на 2 года

Как видите, верхняя и нижняя границы в годовом прогнозе были в диапазоне от -50 до +150, тогда как в двухлетнем прогнозе — от -200 до +600.

Чем дальше в будущее вы прогнозируете, тем больше становится этот диапазон и, на мой взгляд, тем менее полезным становится прогноз.


Мнения, выраженные в этой статье, принадлежат приглашенному автору, а не обязательно поисковой системе. Штатные авторы перечислены здесь.


Новое в поисковой системе

Об авторе

Дэн Тейлор

Дэн Тейлор — руководитель отдела технического SEO в SALT.agency, британский специалист по техническому SEO и обладатель премии Queens Award 2022. Дэн работает и руководит командой, работающей с компаниями, начиная от технологических и SaaS-компаний и заканчивая корпоративной электронной коммерцией.


Подборка статей о ИТ компаниях. Обмен опытом. Обучение востребованным профессиям в сфере IT. Маркетинг. Анализ рынка. Полезная информация. Подпишитесь на нас в социальных сетях, что бы не пропустить важное.

Информация для Вас была полезна?
0
0
0
0
0
0
0

Похожие статьи

Кнопка «Наверх»