Я пытаюсь сделать хороший фильтр веб-трафика, моя цель — запретить всех ботов, сканеров, пауков, нереальных пользователей и разрешить только определенный браузер.
Я провел некоторые тесты в PHP, другие — в JavaScript, но я не чувствую, что все сделано хорошо. Мне бы хотелось мнение какого-то эксперта. Я думаю, что с помощью комбинации PHP + JavaScript + robots.txt + .htaccess это можно сделать.
Я знаю, что пользовательский агент может быть подделан, но я хотел бы знать, есть ли лучший способ обнаружить его. Например, я бы хотел, чтобы только пользователи могли использовать Mozilla Firefox (независимо от версии).
Все остальные браузеры должны идти в список исключений или что-то вроде этого, это как фильтр.
Каков наилучший способ сделать это? Короче говоря, определите браузер, чтобы разрешить только Firefox, и избегайте всех фальшивых пользователей, роботов, пауков, сканеров и прочего дерьма.
Хорошо, тогда позвольте мне попытаться представить некоторые идеи здесь.
Вы должны использовать комбинацию методов:
Чтобы немного подробнее рассказать о # 2, ваша целевая страница может использовать JavaScript для удаления файла cookie с «известным» значением, которое может быть сопоставлено с отправителем. Один из примеров — взять пользовательский агент и IP-адрес и вычислить хеш. Это все еще может быть подделано, но большинство нарушителей просто решили игнорировать ваш сайт, а не пытаться обойти ваши меры защиты.
Надеюсь это поможет.
Других решений пока нет …