• /

Проверка сайта на вирусы и меры по безопасности ресурса

Безопасность сайта – один из показателей ранжирования. Наличие вредоносного кода – причина для того, чтобы поисковые системы пометили ресурс как небезопасный, что существенно отразится на посещаемости, а после – и на позициях. Однако стандартные компьютерные антивирусы на «видят» вредоносный код в файлах сайта. Почему?
Наличие вредоносного кода

Чем проверять сайты на вредоносный код?

Действительно, антивирусное ПО, предназначенное для десктопов и ноутбуков, не всегда способно обнаружить вирусы, специально написанные для сайтов. Дело в том, что у них иной подход к функционированию. Поэтому на практике компьютерные антивирусы способны обнаружить всего до 40% хакерских perl и php скриптов. Вывод тут один – использовать такие программы для диагностики веб-проекта небезопасно.

Если пропустить хоть один хакерский бэкдор либо веб-шелл, реурс будет заражен заново. А там и до санкций поисковиков недалеко. Следовательно, нужно применять только специализированные инструменты и сервисы для проверки сайтов. Причем, их применение должно быть регулярным, чтобы можно было вовремя обнаружить опасность. Приведу список проверенных и действующих сервисов, обеспечивающих быструю диагностику интернет-ресурсов:

  • https://2ip.ru/site-virus-scaner/ - ресурс, проверяющий сайт на вирусы по мнению поисковых систем. Учитываются все возможные пометки в поиске и выдаётся уведомление о них;
  • virustotal.com – сервис, обеспечивающий проверку сайта на наличие в черных списках десятков антивирусов и антивирусных сервисов;
  • DrWeb - онлайн сканер от популярного в России одноимённого антивируса. Отличается оперативным обновлением сигнатур и поиском замаскированных зловредов;
  • ReScan.pro – веб-проект для проверки страниц на вирусы, наличие недобросовестной рекламы, скрытых редиректов, опасных виджетов и санкций от поисковиков;
  • Quttera.com – веб проект для проверки нескольких десятков страниц ресурсов на наличие вредоносных скриптов и файлов;
  • sitecheck.sucuri.net – веб-проект, детектирующий инжекты фарм-партнерок, спамных ссылок и прочих сигнатур вредоносного кода, которые часто используют на Западе. Работает с различными юзер-агентами и реферами. Дополнительно сканирует известные уязвимости веб-сервера и CMS сайта;
  • SiteSecure - проверка на вирусы, руткиты и прочие зловреды;
  • http://xseo.in/viruscan - последний в списке, но не последний по значимости сервис проверки. Отлично умеет находить воровство трафика, скрытые рассыльщики спама. Задействует технологии отзывов от реальных пользователи.

    Разница в восприятии вирусов поисковиками и антивирусами

    В чем отличия в определении вирусов на сайтах роботами поисковых систем и компьютерными антивирусами? Вот несколько факторов:

    1. Механизмы распространения вирусов на пораженных интернет-ресурсах. Вирус способен определять браузер и набор плагинов, проверяя их по списку исключений. К примеру, если у вируса не получается заразить браузер, он выдает ему «чистый» сайт без вредоносного кода. Робот поисковика в такой список часто не попадает, поэтому «видит» вредоносный код. Часто вирус способен выдавать зараженный сайт не все клиентам, а с определенной выборкой – к примеру, одному из ста. Это позволяет вирусу долго оставаться необнаруженным.
    2. Антивирусы проверяют сайты, используя свои базы, которые обновляются с определенной задержкой. Из-за этого разные антивирусы детектируют вирусы на сайте в разное время, с разницей в несколько дней… иногда недель.
    3. Поисковые системы, как и антивирусы, анализируют поведение скриптов сайта. Результаты этого анализа дают возможность сделать выводы о наличии вредоносного кода. Так как у всех антивирусов и поисковых систем разные алгоритмы, и они по-разному воспринимают разные скрипты. В таких ситуациях возможны ложные срабатывания поисковых алгоритмов.
    Разница в восприятии вирусов поисковиками и антивирусами

    Как обеспечить безопасность сайта?

    Есть три ключевых фактора, сочетание которых обеспечивает безопасность сайта:

    1. Хостинг (его серверная часть).
    2. Программная часть (скрипты, движок).
    3. Администрирование (допуск к сайту ответственных и знающих людей).
    Стоит пропустить одно из направлений – и у сайта буду большие проблемы. Защита хостинга – задача его администрирующего персонала (исключение – выделенный сервер. Тогда за его безопасность отвечает владелец). Защита программной части – это выбор надежного движка, его своевременные обновления. Это установка только проверенных плагинов и скриптов, корректная настройка прав доступа к директориям и файлам, надежная защита входа в административную панель.

    При проблемах с безопасностью сайта или наличие подозрений, следует выполнить комплексную автоматическую проверку. Рекомендуется не реже 1 раза каждые 2-3 месяца дополнительно проводить глубокую ручную проверку, с участием опытного специалиста, с целью оперативного поиска и устранения возможных проблем в работе сайта.
    Автор: Евгений Калатушкин
    Задайте свой вопрос удобным способом
    Цель SEO-продвижения – постоянное привлечение целевых посетителей на сайт. Для этого необходимо оставаться в ТОПе поисковой выдачи по ключевым запросам. Поисковое продвижение – это изменение сайта по нескольким видам факторов, в результате которого его позиции улучшаются в выдаче поисковых систем. Преимущества SEO-продвижения:
    • качественно проведенная оптимизация дает долговременный результат – после завершения активных действий позиции не падают;
    • из поиска приходит максимально целевая аудитория – люди, заинтересованные в конкретной информации, продукте или услуге;
    • используя поисковые запросы разной частотности, можно охватить максимум целевой аудитории;
    • SEO – самый недорогой метод рекламы сайта. Значительные финансовые вложения нужны на начальных этапах оптимизации сайта.
    Недостатки SEO-оптимизации:
    • результаты продвижения появляются не сразу: от 2 до 12 месяцев. Нижняя граница обусловлена техническими задержками в работе поисковых алгоритмов, а верхняя наличием высокой конкуренции в продвигаемой отрасли;
    • для некоторых сайтов оптимизация не приносит результата из-за уникальных особенностей (вид «движка», использование flash-технологий, отсутствие контента, жёсткий брендбук касательно вида сайта);
    • поисковые системы не всегда корректно ранжируют сайты клиентов, а динамика роста может быть ниже прогнозируемой;
    • частое низкое качество результатов от работы компаний и специалистов, в виду высокой сложности процессов продвижения;

    Статьи, которые могут быть интересны: