Mariusz Gąsiewski
cze 8th, 2006
cze 8th, 2006
24 najczęściej popełnianych błędów przy próbach pozycjonowania witryny internetowej – część 2
- Kupno wygasłej domeny, która miała jakieś backlinki w nadziei na wysoką siłę linków z strony.
Już od jakiegoś czasu wyszukiwarka Google (a za nią pewnie również inne wyszukiwarki) ignoruje wartość linków, które idą do domeny, która wygasła i została na nowo aktywowana. Wyszukiwarka uznaje, że stare linki, które kiedyś do niej prowadziły nie mają nic wspólnego z teraźniejszym wykorzystaniem. - Kupno wygasłej domeny, która miała wpis do katalogu DMOZ
Katalog DMOZ używa robota przeszukującego o nazwie Robozilla który okresowo sprawdza wszystkie adresy wpisane do katalogu i zaznacza nie działające lub nieaktualne wpisy. Robozilla oznacza strony, które zostały przeniesione pod nowy adres lub nie mogą zostać odnalezione. W ten sposób serwisy, które przestały istnieć natychmiast są usuwane z DMOZ-u - Tworzenia zaplecza na jednym i tym samym serwerze
Każdy początkujący pozycjoner wie, że olbrzymi (w sumie największy) wpływ na pozycję serwisu internetowego w wynikach wyszukiwania ma ilość i jakość linków kierujących do tego serwisu. Z tego względu wiele osób decyduje się na własnego tworzenie zaplecza pozycjonerskiego, czyli swoich stron www. Większość osób jednak wstawia wszystkie swoje strony na te same konto hostingowi, do którego przypisane jest ten sam adres IP. Google sprawdzając jakość linków prowadzących do serwisu zwraca uwagę również na to z ilu unikalnych adresów IP ( tzn. o różnych klasach C ). Aby podnieść wartość takiego zaplecza warto podzielić swoje konto na mniejsze podkonta i powymieniać się nimi z innymi osobami, które mają ten sam problem – nie powinno być z tym problemu w takich miejscach jak:- Forum.Optymalizacja.com
- Forum.Kataloog.info
- Tworzenie wielu subdomen ze słowa kluczowymi
Tworzenie subdomen ma tylko sens w przypadku tworzenia odrębnych tematycznie serwisów. Nazwy subdomen z słowami kluczowymi mają już znikom wpływ na wyniki wyszukiwania o ile nie niosą za soba wartościowej i unikalnej treści - Dodawanie linków na adres strony z „www” i bez „www”
Dla Googla i innych wyszukiwarek adres strony z www i bez www to dwie różne strony (tzn. dla nich www.pf.pl to nie to samo co pf.pl ). W sytuacji, kiedy Google zaindeksuje zarówno adresy z www jak i z www może uznać jedne z nich za Duplicate Content. Aby uniknąc tych problemów należy spójnie dodawać linki (tzn. dodajemy przez cały czas linki na www.pf.pl lub na pf.pl). W przypadku, kiedy chcemy być całkowicie bezpieczni warto stworzyć tzw. przekierowanie 301 z jednego adresu na drugi, które mówi wyszukiwarce, że oba adresy to jedna i tam sama strona).
Poniżej przedstawiam przykład takiego przekierowania:Ustawiamy w .htaccess
[code lang=”html”]
RewriteEngine On
RewriteCond %{HTTP_HOST} ^pf.pl
RewriteRule ^(.*)$ http://www.pf.pl/$1 [R=permanent,L][/code] - Zdobywanie linków na „podejrzanych serwisach”
Wśród wielu osób, które zaczynają swoje doświadczenie z SEO funkcjonuje przekonanie, że każdy zdobyty link przyda się do pozycjonowania serwisu. Generalnie jest to prawda. Jeżeli jednak masz naprawdę poważny serwis powinieneś też dbać o to, kto do Ciebie linkuje. Linki przychodzące do serwisu z zewnątrz nie mają w zbyt dużym stopniu zaszkodzić witrynie (inaczej każdy konkurent by to wykorzystywał do zniszczenia pozycji strony, co było bo dość łatwe w takiej sytuacji) jednak linki z „podejrzanych serwisów”, np. (spamerskie serwisy, serwisy wykonane za pomocą Cloakingu) wzbudzają podejrzliwość wyszukiwarek i w dłuższej perspektywie czasowej mogą osłabić znaczenie strony. - Osłabianie siły witryny głównej
Bardzo często witryny dodają linki np. na adres
[code lang=”html”]
www.mojastrona.pl
[/code]
pozycjonując domenę (słusznie oczywiście) po czym strona główna ich witryny ma adres
[code lang=”html”]
www.mojastrona.pl/cos/cos.html
[/code].
W ten sposób bardzo osłabiamy siłę linków wychodzących z strony główne, ponieważ nagle się okazuje, że
[code lang=”html”]
www.mojastrona.pl
[/code]
ma PR4, przy czym strona główna (która teoretycznie powinna mieć siłę domeny) ma PR3 (dodatkowo może dojść wspomniany już problem Duplicate Content).
Rozwiązaniem tego problemu jest ponowanie stworzenia przekierowania 301 z
[code lang=”html”]
www.mojastrona.pl/cos/cos.html [/code]na
[code lang=”html”]
www.mojastrona.pl
[/code][code lang=”html”]
Redirect permanent www.mojastrona.pl/cos/cos.html http://www.nowastrona.pl/[/code]
- Niewłaściwe linkowanie wewnętrzne
Temat powiazany z poprzednimi. Wielokrotnie się zdarza, że serwis internetowy ma na stronie głównej odnośnik do strony głównej (inna sprawa, że od strony użyteczności to ten link powinien być nieaktywny lub nie powinno go być w ogóle) linkuje do
[code lang=”html”]
www.mojastrona.pl/index.php
[/code]
a później w głębi serwisu do strony głównej prowadzi odnośnik
[code lang=”html”]
www.mojastrona.pl/index2.php
[/code]
W ten sposób nie tylko tworzy się Duplicate Content, ale również osłabia się siłę linkowania wewnętrznego). - Umieszczanie treści strony bardzo nisko w źródle strony
Dla wyszukiwarki im wyżej jest treść umieszczona w treści strony tym jest ona ważniejsza. W tej sytuacji błędem jest umieszczanie całego kody graficznego i template całkowicie ponad tekstem strony. Najlepiej jest poprzez zastosowanie stylów CSS umieścić treść ponad źródłem szablonu - Zamykanie dostępu do całej treści serwisu
Wyszukiwarka teoretycznie nie powinna indeksować treści chronionej hasłem (w praktyce różnie się to zdarza, ale są to raczej sytuacje wyjątkowe). W tej sytuacji jeżeli pozycjonujemy stronę, w której treści są np. tylko dla członków płacących abonament powinniśmy w serwisie umieścić sekcję artykułów ogólnie dostępnych, aby wyszukiwarka nie uznała nasz serwis za pozbawiony unikalnej treści. - Oszczędzanie na hostingu
Niektóre bardziej zaawansowane wyszukiwarki (jak np. dominująca na rynku Google) prz określaniu pozycji w wynikach biorą pod uwagę również szybkość wczytywania strony i to jak często strona nie jest dostępna z powodu kiepskiego serwera, na którym się znajduje - Ujawnianie informacji WHOIS o swoich domenach
Nie ma to generalnie zby wielkiego znaczenia, ale jeżeli tworzymy zaplecze pozycjonerskie, które będzie się składało z wielu wzajemnie linkujących do siebie serwisów, warto ukrywać informacje WHOIS, ponieważ daje one wyszukiwarkom do zrozumienia, że te serwisy nie są podlinkowane wzajemnie tak całkowicie bez powodu i z przypadku (w 99% przypadkach nie trzeba jednak przejmować się ujawnianiem WHOIS)
Zobacz też:
W przypadku, kiedy uznasz strone za przydatna dodaj na swojej stronie link do niej.
Po prostu skopiuj i wklej link podany nizej (Ctrl+C to copy)
Wyglad linku po wklejeniu na stronie: 24 najczęściej popełnianych błędów przy próbach pozycjonowania witryny internetowej – część 2
Dodaj link do:
| | | Y! MyWeb | +Google
Fajny artykuł i ciekawe
http://inter7net.pl
Cieszę się, że się podoba. Starałem się w dość krótki i bez wgłębiania się w szczegóły przedstawić najważniejsze sprawy związane z tym tematem. W przypadku jednak jakiś pytań dodatkowych, jestem do dyspozycji i chętnie dopowiem, jeżeli będę znał odpowiedź 🙂
Bardzo mi się podoba, że użyłeś wypunktowania, miło się czytało
Staram się stosować listy jak najczęściej. Nieraz może się troche cieżko czyta ze względu na małą szerokość strony. Ale mam nadzieję, że jest ok 🙂
Artykuł jest bardzo ciekawy – podoba mi sie to że zawierasz w nim informacje które dla niektórych ludzi z branży SEO to wielka tajemnica 🙂
Bardzo dziękuję panu za ten artykuł ponieważ wiele się z niego dowiedziałem i wyłapałem swoje błędy przez co moja strona z PR0 wskoczyła na PR2 całkiem niedawno niedawno i sam jestem pozytywnie zaskoczony 😀
Witam.
Zapytam tak z ciekawości, kupiłem książkę m.in. o optymalizacji i widzę że jest tam praktycznie to samo. Aż się zdziwiłem 🙂
Jesteś być może jednym z jej autorów ? 🙂
Z poważaniem
Darek
[…] NIE pozycjonować stron? 24 porady Krótko: część pierwsza i część druga – znalezione na blogu ittechnology.us. Jeśli cokolwiek pozycjonujesz – chociaż […]
Witam, bardzo ciekawe uwagi. Warto przeczytać. Pozdrawiam.
Rewelacyjny artykuł,kawał dobrej roboty. Właśnie zastosowałem się do większości Twoich wskazówek i poczekam na efekty…mam nadzieję pozytywne 🙂
Serdecznie pozdrawiam
Takie błędy chyba każdy popełnia na początku, ale nie wszystkie są aż tak szkodliwe, na błędach też trzeba się uczyć i wiedzieć gdzie są granice. Co do www i bez www to nie do końca się zgodzę