За обратными ссылками нужен постоянный контроль и не всегда краулеры сразу же показывают потерю обратных ссылок. Все зависит от того, посещают ли сайт-донор быстроботы, ну а если это ссылка с сетки, еще и чужой, не факт, что мы вообще увидим в Ahrefs или Serpstat эти ссылки.
Но без контролья такие ссылки не оставить, так как возможны варианты покупки ссылки и снятия ее в первые несколько дней. Не исключаю также факта того, что чужую сетку могут взломать и ссылка на ваш сайт больше не будет существовать. Это не касается только сеток, но и крауда или оутрича. В первом случае, хочется знать что ссылка стоит на форуме и ее не сняли и не удалили, а во втором, хочется всегда контролировать ссылки за которые заплатил деньги.
Поэтому сегодня мы содадим небольшой скрипт, который пройдет по сайтам-донорам и проверит их на наличие обратных сслок на ваш сайт и сразу же сообщит вам, где ссылки больше нет.
Для использования данного скрипта, необходима библиотека python - requests, если она у вас не установлена, откройте командную строку или терминал и установите ее с помощью набора команд - pip install requests
После чего импортируем библиотеку в наш скрипт:
import requests
Далее создадим функцию, она будет получать данные с сайта-донора и искать нашу сслыку:
def check(url, backlink):
find = requests.get(url)
all_data = find.text
return all_data.find(backlink)
Ниже необходимо указать все урлы сайтов-доноров и присвоить их переменной url и все обратные ссылки, присвоив их переменной backlink. Обязательно нужно указывать урл и бэклинк последовательно (первый урл и первая ссылка) в примере, мы просто проверяем ссылки с нашего сайта:
url = "https://4python.pythonanywhere.com/proxy-parser.html", \
"https://4python.pythonanywhere.com/python.html"
backlink = "https://ru.wikipedia.org/wiki/User_agent", \
"https://ru.hexlet.io/?ref=280660"
УРЛ https://4python.pythonanywhere.com/proxy-parser.html будет соответствовать ссылке - https://ru.wikipedia.org/wiki/User_agent
А https://4python.pythonanywhere.com/python.html соответствует - https://ru.hexlet.io/?ref=280660.
Ссылки можно указывать в кавычках через запятую в любом количестве, придерживаясь последовательности.
Теперь создадим цикл который переберет все url и проверит есть ли ссылка на сайте, после чего создадим условие, которое поможет скрипту вывест нужную нам информацию.
for x in range(len(url)):
result = check(url[x], backlink[x])
if result < 0:
print(url[x], "Обратная ссылка не найдена")
else:
print(url[x], "Ссылка найдена")
Подписывайтесь на наш телеграм канал @py4seo, мы уже работаем над следующим контентом...если код был вам полезен, отправьте его своим друзьям и знакомым, это поможет узнать о нашем канале, а нам публиковать больше нового полезного контента.
Как всегда, не забудьте про отступы в коде, проверьте чтобы после вставки, код полностью соответствовал коду, который указан на сайте.
import requests
def check(url, backlink):
find = requests.get(url)
all_data = find.text
return all_data.find(backlink)
url = "https://4python.pythonanywhere.com/proxy-parser.html", \
"https://4python.pythonanywhere.com/python.html"
backlink = "https://ru.wikipedia.org/wiki/User_agent", \
"https://ru.hexlet.io/?ref=280660"
for x in range(len(url)):
result = check(url[x], backlink[x])
if result < 0:
print(url[x], "Обратная ссылка не найдена")
else:
print(url[x], "Ссылка найдена")