PDA

Zobacz pełną wersję : Google nie indeksuje wszystkich nowo dodanych stron



zaba600
22-03-2013, 22:22
Witam
www.wybierzagd.com.pl

Witryna na joomla 1.5.26 , mapa strony jest dodana do google webamaster, niestety dodajac co miesiac nowe artykuly w ilosci okolo 100
nie indeksowane sa wszystkie przez google, wiem ze mozna to zrobic recznie ale nie tedy droga.

korzystam z SEF SERVICE map ,oraz RS SEO

podaje moj plik htaccess moze tu lezy problem?

##
# @version $Id: htaccess.txt 10492 2008-07-02 06:38:28Z ircmaxell $
# @package Joomla,
# @copyright Copyright (C) 2005 - 2008 Open Source Matters. All rights reserved.
# @license http://www.gnu.org/copyleft/gpl.html GNU/GPL
# Joomla! is Free Software
##


################################################## ###
# READ THIS COMPLETELY IF YOU CHOOSE TO USE THIS FILE
#
# The line just below this section: 'Options +FollowSymLinks' may cause problems
# with some server configurations. It is required for use of mod_rewrite, but may already
# be set by your server administrator in a way that dissallows changing it in
# your .htaccess file. If using it causes your server to error out, comment it out (add # to
# beginning of line), reload your site in your browser and test your sef url's. If they work,
# it has been set by your server administrator and you do not need it set here.
#
################################################## ###

## Can be commented out if causes errors, see notes above.
Options +FollowSymLinks

#
# mod_rewrite in use

RewriteEngine On

########## Begin - Rewrite rules to block out some common exploits
## If you experience problems on your site block out the operations listed below
## This attempts to block the most common type of exploit `attempts` to Joomla!
#
# Block out any script trying to set a mosConfig value through the URL
RewriteCond %{QUERY_STRING} mosConfig_[a-zA-Z_]{1,21}(=|\%3D) [OR]
# Block out any script trying to base64_encode crap to send via URL
RewriteCond %{QUERY_STRING} base64_encode.*\(.*\) [OR]
# Block out any script that includes a ********** tag in URL
RewriteCond %{QUERY_STRING} (\<|%3C).*script.*(\>|%3E) [NC,OR]
# Block out any script trying to set a PHP GLOBALS variable via URL
RewriteCond %{QUERY_STRING} GLOBALS(=|\[|\%[0-9A-Z]{0,2}) [OR]
# Block out any script trying to modify a _REQUEST variable via URL
RewriteCond %{QUERY_STRING} _REQUEST(=|\[|\%[0-9A-Z]{0,2})
# Send all blocked request to homepage with 403 Forbidden error!
RewriteRule ^(.*)$ index.php [F,L]
#
########## End - Rewrite rules to block out some common exploits

# Uncomment following line if your webserver's URL
# is not directly related to physical file paths.
# Update Your Joomla! Directory (just / for root)

# RewriteBase /


########## Begin - Joomla! core SEF Section
#
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteCond %{REQUEST_URI} !^/index.php
RewriteCond %{REQUEST_URI} (/|\.php|\.html|\.htm|\.feed|\.pdf|\.raw|/[^.]*)$ [NC]
RewriteRule (.*) index.php
RewriteRule .* - [E=HTTP_AUTHORIZATION:%{HTTP:Authorization},L]
#
########## End - Joomla! core SEF Section

## Blokuje dostęp plikom do skryptów CGI, Perl, Python i plików tekstowych
<FilesMatch "\.(cgi|pl|py|txt)">
Deny from all
</FilesMatch>

## Jeśli używasz plików robots.txt dopisz te 3 linie do pliku .htacces
## by umożliwić poprawną pracę temu plikowi
<FilesMatch robots.txt>
Allow from all
</FilesMatch>

# Blocking with RewriteCond

RewriteCond %{HTTP_USER_AGENT} ^.*(craftbot|download|extract|stripper|sucker|ninj a|clshttp|webspider|leacher|collector|grabber|webp ictures).*$ [NC]
RewriteRule . - [F,L]

# Blocking based on User-Agent Header

SetEnvIfNoCase ^User-Agent$ .*(craftbot|download|extract|stripper|sucker|ninja |clshttp|webspider|leacher|collector|grabber|webpi ctures) HTTP_SAFE_BADBOT
SetEnvIfNoCase ^User-Agent$ .*(libwww-perl|aesop_com_spiderman) HTTP_SAFE_BADBOT
Deny from env=HTTP_SAFE_BADBOT

<Files .htaccess>
order allow,deny
deny from all
</Files>

# php_flag register_globals off

<FilesMatch "configuration.php">
Order allow,deny
Deny from all
</FilesMatch>

SetEnvIfNoCase User-Agent libwww-perl bad_bots
order deny,allow
deny from env=bad_bots

zeki
23-03-2013, 01:16
Problem leży w google raczej ;) Ostatnimi czasy wszyscy narzekają na powolną indeksację. Mapa nie pomaga i pingowanie też dość często nie daje razy. Albo to dopalisz SWLem albo spróbuj poprawić linkowanie wewnętrzne. Możesz dać np powiązane artykuły przy każdym, możesz dać na głównej jakiś losowy art. Grunt żeby roboty miały po czym biegać. Ofc pingowanie też warto uskuteczniać. No i pamiętaj, że 100% indeksacji nie było nigdy i pewnie nie będzie.

mickpl
18-06-2013, 10:21
Witam
Podpinam się pod ten temat mam pewien problem.
Stronka na Jomla 1.5.26 adres strony http://www.ssww.pdg.pl/ po w pisaniu w google do wyszukania adresu stowarzyszenie szkoła weglowicach adres jest w pierwszej 3
https://www.google.pl/search?q=stowarzyszenie+szko%C5%82a+weglowicach+&ie=utf-8&oe=utf-8&aq=t&rls=org.mozilla:pl:official&client=firefox-a

Niestety po kliknięciu adresu w google przekierowuje na jakieś bzdetne strony.

Co może być problemem i jak to rozwiązać?

corractiv
02-07-2013, 11:00
Google długo indeksuje strony, trochę cierpliwości... w końcu zaskoczy :)

momomi
24-09-2014, 12:17
tak jak ktoś wyżej napisał - indeksowanie w Google trwa więc nie jesteśmy w stanie przyspieszyć tego procesu. Trzeba uzbroić się w cierpliwość i czekać ;)

zeki
24-09-2014, 21:51
O masz następny odgrzewany post.

Umówmy się, że zaindeksować można wszystko ręcznie. Bez najmniejszego problemu przez GWT podaje się konkretny link, przepisuje token re-captcha i w jednej chwili wszystko siedzi w indexie. Przy rozbudowanej witrynie to wyjątkowo męczące by było, ale da się. Tylko zasadniczo ta opcja nie jest dla zapleczy itp. bo to wystawienie tego typu stron na odstrzał. Ewentualnie jeśli mamy podpięte więcej stron to i pozostałe mogą być zagrożone.

Gall Anonim
25-09-2014, 10:49
więc nie jesteśmy w stanie przyspieszyć tego procesu
Żebyś się nie zdziwił :blink:
Idę o zakład że da się tak zrobić aby pojawienie się nowych stron w index'ie pojawiało się najdalej po 48 godzinach.
1. Aktualizujesz mapę (odświeżając/pobierając ponownie) w narzędziach google.
2. Dodajesz nowe strony ręcznie do index'u google - darmowo możesz wykonać dodanie 50 stron dziennie
all

zeki
26-09-2014, 11:58
@Gall
Jak ręcznie indeksujesz to są od razu. I to jest najskuteczniejsza metoda bo mapę masz dodaną a przez rok nawet wszystkich stron robot nie odwiedzi... W zasadzie to permanentny stan jest, że jakieś strony z mapy są niezaindeksowane. Przynajmniej u mnie.

Gall Anonim
26-09-2014, 12:03
@zeki - teoretycznie tak, tyle że jakoś tak ostatnio kilkakrotnie podawało mi info "w trakcie" czy coś w tym stylu ale nie przejmowałem się tym i robiłem swoją robotę dalej :-)
więc te 48 godzin to taki zapas po którym sprawdzam czy wszystko gra

grazynakat
25-12-2019, 02:29
A jak działa u was indeksowanie stron na joomalu poprzez indeksery ? Ostatnio google jakoś ogólnie mi anemicznie indeksuje strony u was też tak jest ?

Crmad
20-02-2020, 09:37
Najlepiej zaindeksować stronę poprzez Google Search Console. Natomiast jeśli miałbym polecić zewnętrzny indekser, który przyspiesza indeksowania to warto wypróbować <link usunięty>

kajaborek1986
10-04-2020, 12:45
Już wcześniej wydawało mi się że strony się anemicznie indeksują ale ostatnio się nie indeksują prawie wcale. Zaobserwowałam to zjawisko na wielu stronach.