filis
04-03-2010, 09:55
Witam,
Mocno szukałem na forum artykułów o podobnej tematyce. Wszystko co znalazłem zweryfikowałem na własnej stronie i nadal nie wiem co jest źle.
Mam problem z indeksacją strony przez Google. Googlebot odwiedza stronę kilka razy dziennie, wytwarza ruch rzędu paru mega a strona nadal nie została zaindeksowana.
Operacje, które wykonałem:
1. założyłem konto w centrum dla webmasterów
2. zweryfikowałem stronę na 2 sposoby - przy użyciu pliku html oraz przy użyciu metatagu. Metatag umieściłem za pomocą pluginu google verification - pokazuje, że wszystko jest w porządku
3. przy użyciu Xmap dodałem mapę witryny - 0 błedów, widzi wszystkie linki
4. przy każdym artykule są metadane (słowa kluczowe, opisy, etc..)
5. użyłem SEF - 3x tak (htaccess.txt zmieniłem na .htaccess)
6. przy metadanych w artykułach dałem w polu wyszukiwarka index
strona: www.domenergooszczedny.com.pl (http://www.domenergooszczedny.com.pl)
Jest tam stosunkowo dużo tekstu, są linki z innych stron - dlatego bot wchodzi na nią kilka razy dziennie. Nie wiem w czym jest problem, bo wszystko na pierwszy rzut oka wygląda dobrze.
Nadmienię, że stronka została zweryfikowana po raz pierwszy ponad tydzień temu, mapa też jest od tego czasu w centrum dla webmasterów.
Proszę o pomoc i wskazówki.
edit: może wina leży po stronie pliku robots.txt? Jego zawartość wygląda następująco:
User-agent: *
Allow:/index.php?option=com_xmap&sitemap=1&view=xml
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /xmlrpc/
Allow:/
Mocno szukałem na forum artykułów o podobnej tematyce. Wszystko co znalazłem zweryfikowałem na własnej stronie i nadal nie wiem co jest źle.
Mam problem z indeksacją strony przez Google. Googlebot odwiedza stronę kilka razy dziennie, wytwarza ruch rzędu paru mega a strona nadal nie została zaindeksowana.
Operacje, które wykonałem:
1. założyłem konto w centrum dla webmasterów
2. zweryfikowałem stronę na 2 sposoby - przy użyciu pliku html oraz przy użyciu metatagu. Metatag umieściłem za pomocą pluginu google verification - pokazuje, że wszystko jest w porządku
3. przy użyciu Xmap dodałem mapę witryny - 0 błedów, widzi wszystkie linki
4. przy każdym artykule są metadane (słowa kluczowe, opisy, etc..)
5. użyłem SEF - 3x tak (htaccess.txt zmieniłem na .htaccess)
6. przy metadanych w artykułach dałem w polu wyszukiwarka index
strona: www.domenergooszczedny.com.pl (http://www.domenergooszczedny.com.pl)
Jest tam stosunkowo dużo tekstu, są linki z innych stron - dlatego bot wchodzi na nią kilka razy dziennie. Nie wiem w czym jest problem, bo wszystko na pierwszy rzut oka wygląda dobrze.
Nadmienię, że stronka została zweryfikowana po raz pierwszy ponad tydzień temu, mapa też jest od tego czasu w centrum dla webmasterów.
Proszę o pomoc i wskazówki.
edit: może wina leży po stronie pliku robots.txt? Jego zawartość wygląda następująco:
User-agent: *
Allow:/index.php?option=com_xmap&sitemap=1&view=xml
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /xmlrpc/
Allow:/