BLOG

Jak chronić swoje zaplecze

Jak wiadomo zaplecze dla każdego pozycjonera odgrywa kluczową rolę w jego „być albo nie być” w biznesie SEO, ponieważ pozwala generować moc docelowo kierowaną na pozycjonowane strony i zapewne także takowe zaplecze również samo na siebie zarabia.

 

         jak chronić zaplecze  

Niewątpliwie dużo jest osób, które działają w sposób nieetyczny, piszą różnego rodzaju roboty i crawlery, które przeszukują internet szukając ofiar i działają na szkodę m.in. właśnie osób, które skrzętnie i z mozołem tworzą swoje wsparcie zapleczowe dla stron internetowych docelowych. Jak zatem chronić swoje zaplecza przed działaniami takich osób? O tym postaramy się odpowiedzieć w poniższym artykule. Zapraszamy do lektury!

 

Robots.txt czy htaccess?

            Dobrym sposobem jest ograniczanie wejścia przez różne niechciane roboty w pliku zwanym robots.txt, wszak jeszcze lepszym rozwiązaniem jest niewątpliwie wpisanie w pliku htaccess niechcianych robotów, ponieważ zawsze mamy pewność, że od strony serwera taki plik będzie przeczytany i zaakceptowany, podczas gdy od strony pliku robots.txt nigdy nie mamy takiej pewności.

 

A może by tak dać dostęp wybranym botom?

            Słusznie, lepiej było by napisać i taki plik, w którym dajesz dostęp, nie musisz wtedy martwić się, że z jakiejś innej lokalizacji wejdzie na stronę inny robot i zacznie spamować. Warto zatem przemyśleć sprawę, które roboty powinny być dodane do listy. Najlepiej jest dodawać tylko takie boty, które są nam znane i pewne np. Google, Yahoo, Bing, Msn i właśnie te pozycje warto jest wpisać w naszym pliku, który może wyglądać przykładowo tak:

SetEnvIfNoCase User-Agent .*google.* search_robot

SetEnvIfNoCase User-Agent .*Msn.* search_robot

SetEnvIfNoCase User-Agent .*yahoo.* search_robot

SetEnvIfNoCase User-Agent .*BingBot.* search_robot

SetEnvIfNoCase User-Agent .*Mozilla.* search_robot #przeglądarki

 

Order Deny,Allow

Deny from All

Allow from env=search_robot

Jak widzisz, mamy wpisane tylko te opcje, które są mile widziane, reszta robotów nie będzie miała dostępu do strony. Aby sprawdzić, czy dana kombinacja wpisana w pliku htaccess działa, trzeba wpisać taką linijkę kodu: curl -A „AhrefsBot” http://www.twojanazwadomeny.pl

To wszystko, teraz może sprawdzić, czy plik jest czytany a następnie możesz spać spokojnie, mając pewność, że żaden spam-bot nie wejdzie na stronę zaplecza i nie zaspamuje komentarzy na stronie.  Błędem, który powinien się pojawić jest oczywiście 403 i tak ma być. Bywa czasami jednak też, że na niektórych serwerach będziesz musiał dodać jeszcze linijkę z zapytaniami dla przeglądarek, tak aby poprawnie wszystko czytały.

 

Podsumowanie

            Niewątpliwie warto jest dbać za wczasu o kondycję swoich stron zapleczowych, tak aby nie dać się zaspamować i mieć dużo przy tym pracy. Wiele osób zaniedbuje ten fakt i dopiero po fakcie zaczyna działać, często mało profesjonalnie próbując instalować różnego rodzaju dodatki do swoich stron zapleczowych bazujących np. na Wordpress itp., itd. Jak się jednak okazuje tego typu działania dodatkowo obciążają niepotrzebnie strony i sam serwer co też ma wpływ na szybkość  ładowania strony i jak wiadomo nie jest to dobre rozwiązanie, bo jak widzisz można sobie z tym problemem poradzić dużo lepiej. Tak i ty możesz być mądry za wczasu i poradzić sobie z tym zagadnieniem profesjonalnie!

 

 


Głosów: 10.0/10 (40 Głosujących)



Skontaktuj się z nami

Infolinia 0801 011 742
tel 74 831 64 67
tel. kom. 608 054 626




Wyrażam zgodę na przetwarzanie moich danych osobowych w celu przedstawienia oferty handlowej oraz usług firmy.

Ciekawostki z bloga

 

ZAUFAJ DOŚWIADCZENIU

SitePromotor : strony, sklepy, seo - 14 lat doświadczenia
Rzetelna Firma

Miło nam poinformować, że przeszliśmy pozytywnie weryfikację i uzyskaliśmy certyfikat "Rzetelna Firma" KRD.

Google Advertising Professional

Doświadczenie naszego konsultanta SEM zostało potwierdzone poprzez przyznanie Certyfikatu Google Advertising Professional.

Pozycjonowanie stron internetowych - najlepsze agencje w Poznaniu

W 2020 roku zostaliśmy wyróżnieni jako jedna z najlepszych agencji interaktywnych na terenie Poznania i okolic!

ZAUFALI NAM

Uniwersytet Wrocławski Politechnika Wrocławska WP money Dospel Magellan Dolnośląska Szkoła Wyższa Castrol eGospodarka OEX

Referencje


Średnia ocena jakości usług SitePromotor     Głosów: 5/5 (17 Głosujących)

Sitepromotor