Проверка обратных ссылок используя Python


Проверка обратных ссылок с помощью Python

За обратными ссылками нужен постоянный контроль и не всегда краулеры сразу же показывают потерю обратных ссылок. Все зависит от того, посещают ли сайт-донор быстроботы, ну а если это ссылка с сетки, еще и чужой, не факт, что мы вообще увидим в Ahrefs или Serpstat эти ссылки.

Но без контролья такие ссылки не оставить, так как возможны варианты покупки ссылки и снятия ее в первые несколько дней. Не исключаю также факта того, что чужую сетку могут взломать и ссылка на ваш сайт больше не будет существовать. Это не касается только сеток, но и крауда или оутрича. В первом случае, хочется знать что ссылка стоит на форуме и ее не сняли и не удалили, а во втором, хочется всегда контролировать ссылки за которые заплатил деньги.

Поэтому сегодня мы содадим небольшой скрипт, который пройдет по сайтам-донорам и проверит их на наличие обратных сслок на ваш сайт и сразу же сообщит вам, где ссылки больше нет.

Для использования данного скрипта, необходима библиотека python - requests, если она у вас не установлена, откройте командную строку или терминал и установите ее с помощью набора команд - pip install requests

После чего импортируем библиотеку в наш скрипт:


    import requests

Далее создадим функцию, она будет получать данные с сайта-донора и искать нашу сслыку:


    def check(url, backlink):
        find = requests.get(url)
        all_data = find.text
        return all_data.find(backlink)

Ниже необходимо указать все урлы сайтов-доноров и присвоить их переменной url и все обратные ссылки, присвоив их переменной backlink. Обязательно нужно указывать урл и бэклинк последовательно (первый урл и первая ссылка) в примере, мы просто проверяем ссылки с нашего сайта:


    url = "https://4python.pythonanywhere.com/proxy-parser.html", \
    "https://4python.pythonanywhere.com/python.html"
    backlink = "https://ru.wikipedia.org/wiki/User_agent", \
    "https://ru.hexlet.io/?ref=280660"

УРЛ https://4python.pythonanywhere.com/proxy-parser.html будет соответствовать ссылке - https://ru.wikipedia.org/wiki/User_agent

А https://4python.pythonanywhere.com/python.html соответствует - https://ru.hexlet.io/?ref=280660.

Ссылки можно указывать в кавычках через запятую в любом количестве, придерживаясь последовательности.

Теперь создадим цикл который переберет все url и проверит есть ли ссылка на сайте, после чего создадим условие, которое поможет скрипту вывест нужную нам информацию.


    for x in range(len(url)):

        result = check(url[x], backlink[x])

        if result < 0:
            print(url[x], "Обратная ссылка не найдена")
        else:
            print(url[x], "Ссылка найдена")

Подписывайтесь на наш телеграм канал @py4seo, мы уже работаем над следующим контентом...если код был вам полезен, отправьте его своим друзьям и знакомым, это поможет узнать о нашем канале, а нам публиковать больше нового полезного контента.

Как всегда, не забудьте про отступы в коде, проверьте чтобы после вставки, код полностью соответствовал коду, который указан на сайте.


    import requests


    def check(url, backlink):
        find = requests.get(url)
        all_data = find.text
        return all_data.find(backlink)


    url = "https://4python.pythonanywhere.com/proxy-parser.html", \
    "https://4python.pythonanywhere.com/python.html"
    backlink = "https://ru.wikipedia.org/wiki/User_agent", \
    "https://ru.hexlet.io/?ref=280660"

    for x in range(len(url)):

        result = check(url[x], backlink[x])

        if result < 0:
            print(url[x], "Обратная ссылка не найдена")
        else:
            print(url[x], "Ссылка найдена")