PDA

Zobacz pełną wersję : pozycjonowanie



abc
09-02-2006, 16:47
Witam,

minelo poltora miesiaca od kiedy postawilem strone. Niestety nie jest ona widoczna w zadnych wyszukiwarkach. W miedzyczasie dodawalem ja manualnie do katalogow i witryn, m.in google i onet. Opisywalem poszczegolne artykuly metakeywords i content jak rowniez i cala witryne w global configuration spod poziomu joomla. Zainstalowalem mape serwisu. Uzylem automatycznego dodawania do 15 wyszukiwarek.
Dlaczego moja strona jest nadal nie znajdowana przez wyszukiwarki?

Aha, jakis czas temu usunalem z glownego katalogu plik robots, ktory chyba nie pozwalal na przekopanie tresci.
Problem w tym, ze sie nie znam na pozycjonowaniu, moze ktos cos poradzi? Albo odesle do tutoriali, forum itp. Bylem na kilku (optymalizacja.com, searchengines.pl), ale nie wiem czy uwagi tam sa adekwatne do joomla - robilem kilka rzeczy i nadal nic.

A jak wy zadbaliscie o to, by wasza strona znajdowana byla przez wyszukiwarki?

Mam tez crawler alert, i jeszcze zadnego maila nie dostalem ze cos 'chodzilo' po mojej stronie.

Slowem probowalem na rozne sposoby i nadal probuje, ale jak na razie trace juz pomysly. Mowi sie, ze moze trwac to do 3 mies. Tylko dlaczego inne strony, ktore powstawaly w tym samym czasie co moja, juz widac?
Nie chce tez obudzic sie za nastepny miesiac czy dwa, w momencie gdy hipotetycznie wyszukiwarki nie beda mnie znajdywaly, i dowiedziec sie o czyms, co musialem wpierw zrobic by w ogole byc uwzglednionym w wyszukiwarce.

Podsumowujac: co zrobic, by byc widzianym w sieci?

ekspert
09-02-2006, 17:08
może to wina tego usuniętego pliku.

abc
09-02-2006, 17:17
E, chyba nie, bo usunalem go niedawno, a strona juz byla w sieci przez 4 tygodnie. Oto zawartosc pliku robots.txt:
User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /editor/
Disallow: /help/
Disallow: /images/
Disallow: /includes/
Disallow: /language/
Disallow: /mambots/
Disallow: /media/
Disallow: /modules/
Disallow: /templates/
Disallow: /installation/

Radef
09-02-2006, 17:28
Po pierwsze czy masz statystyki na serwerze żeby zobaczyć czy jakiś robot zaglądał? Wiem że masz jakiś skrypt, ale statystyki serwera są najlepsze.

Z praktyki wiem, że czasmi trzeba czekać kilka miesięcy żeby zobaczyć wyniki.

AQQry
09-02-2006, 18:58
wejdz na optymalizacje i czytaj forum powinno pomoc... bo tu samych bredni narazie sluchasz.... pzdr

nexus246
09-02-2006, 21:38
ten plik robots.txt to jest ok i nawet wskazany, zobacz czy w znacznikach meta nie masz noindex,nofollow przy robots

appaloosa
09-02-2006, 22:37
E, chyba nie, bo usunalem go niedawno, a strona juz byla w sieci przez 4 tygodnie. Oto zawartosc pliku robots.txt:
User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /editor/
Disallow: /help/
Disallow: /images/
Disallow: /includes/
Disallow: /language/
Disallow: /mambots/
Disallow: /media/
Disallow: /modules/
Disallow: /templates/
Disallow: /installation/

Te wpisy odpowiadają za to żeby roboty wyszukujące nie indexowały ci plików/treści znajdujących się w tych katalogach właśne i plik powinien dla twojego bezpieczeństwa się znajdować gdzie znajdował

hazael
09-02-2006, 22:48
Plik robots.txt powinien znajdować się w głównym katalogu witryny, tzn. w przypadku witryny o nazwie www.witryna.pl powinien mieć adres www.witryna.pl/robots.txt.
W pliku robots.txt można zabronić wchodzenia do witryny wszystkim robotom lub tylko niektórym. Można zabronić im wchodzenia w ogóle lub tylko do niektórych katalogów, jakie się w niej znajdują.
Dokładny opis (po angielsku) pliku robots.txt znajduje się pod adresem: http://www.robotstxt.org/wc/norobots.html (http://www.robotstxt.org/wc/norobots.html)
Poniżej podajemy kilka najprostszych przykładów.
Plik o poniższej treści POZWALA wszystkim robotom wchodzić do witryny i czytać wszystkie pliki, jakie w niej są:


User-agent: *
Disallow:


Plik o poniższej treści ZABRANIA wszystkim robotom wchodzić do witryny i czytać cokolwiek:


User-agent: *
Disallow: /


Plik o poniższej treści ZABRANIA robotowi o nazwie googlebot wchodzić i czytać cokolwiek:


User-agent: googlebot
Disallow: /


Plik o poniższej treści ZABRANIA robotom wchodzić do katalogu /administrator, /cache, /components



Disallow: /administrator/
Disallow: /cache/
Disallow: /components/



W ten sposób można dość dokładnie określić, co robotom wolno czytać, a czego nie.
Jeśli w witrynie nie ma w ogóle pliku robots.txt, roboty stwierdzają, że wolno im wchodzić do witryny i czytać wszystkie pliki.


Uwaga: Jeśli serwer www na pytanie naszego robota o plik robots.txt odpowiada, że nie ma on prawa dostępu do tego pliku (kod 403 oznaczający "Access forbiden"), nasz robot NIE WCHODZI do tej witryny i niczego z niej nie indeksuje.

---------------------


Jesli chcesz aby Twoja strona znalazła się szybko w indeksach wyszukiwarek, powinieneś umiescic linki do twojego serwisu na innych stronach najlepiej z wysokim PageRank. Z takich witryn roboty czesciej zaglądają na Twoją strone.

w sekcji meta umiesc

<meta name="googlebot" content="index,follow,all" />
Pamientaj tez o przyjaznych linkach generowanych przez Twoja witryne.
Pobaw się troche mod_rewrite, aby linki były łatwiej przyswajalne dla robotów.
Roboty chetniej indeksują linki krótkie i z koncówką .html
Dobrze aby witryna miala poprawny kod html - niech bedzie lepiej czytelna dla robotów.

magic
09-02-2006, 23:38
1. Poczytaj na http://www.optymalizacja.com/
2. Zamów sobie dobry SEO newsletter (warto) np. http://www.sitepronews.com/
3. Na początek (jeśli nie znasz się na pozycjonowaniu) nie kombinuj za dużo - Joomla! jest tak zrobiona, że serwis sam się będzie pozycjonował dobrze - warunek jest prosty: dużo dobrych treści (artykułów głównie) na tematy związane z tematem w/g którego się chcesz pozycjonować.
4. Zadbaj o dobre opisywanie artykułów na swojej stronie w polach Description i Keywords, właściwe Tytuły artów, pozycji menu, mapę serwisu ...
5. Schody ( z pozycjonowaniem) zaczynają się wyłącznie wtedy, kiedy Twój serwis ma mało treści (artykułów, ale nie tylko...). Wtedy (jeśli chcesz być No1) - musisz (możesz) zacząć kombinować - stosując dostępne techniki, modyfikując kod oprogramowania ...
6. Śledź statystyki odwiedzin na stronie. Masz do dyspozycji te, które udostępnia Twój usługodawca, a także wbudowane w Joomla!. Możesz doinstalować również specjalizowane komponenty jak np. TSF (uwaga - za kilka tygodni / miesięcy może Ci zabraknąć miejsca w bazie ;) )
7. Jeśli po półtora miesiąca od zgłoszenia np. na google dalej "nie istniejesz" w wynikach wyszukiwanie - coś jest nie tak. Użyj narzedzi dostępnych jak wyżej (pkt. 1. i 2.) do sprawdzenia czy twoja strona jest w ogóle indeksowana. Najprościej np. tutaj: (ggogle) http://www.google.pl/advanced_search?hl=pl

P.S. Jest parę możliwości dot. SEO w Joomla! Począwszy od zastosowania wbudowanego SEF (w konfiguracji witryny), po komponenty typu SEF (OpenSEF, 404_SEF), SiteMap's itd ... Warto - choć nie zawsze i nie zawsze od samego początku - patrz pkt.3

appaloosa
09-02-2006, 23:45
Możesz doinstalować również specjalizowane komponenty jak np. TSF (uwaga - za kilka tygodni / miesięcy może Ci zabraknąć miejsca w bazie ;) )


Niestety potwierdzam- prowadzę mały serwis a baza po 1,5 miesiącu rozrosła się o prawie 1000% :eek: .
Komponent daje obszerne statystyki, ale bardzo zżera bazę.
Znacie może jakiś lepszy ?

hazael
09-02-2006, 23:51
Najlepsze statystyki to zewnetrzne statystyki.
Ja korzystam ze Stat4U i nie narzekam - zupełnie wystarczające.
Po co montowac sobie takie kombajny i to jescze na swoim serwerku, który jest przez nie powaznie obciązany?

magic
09-02-2006, 23:55
TSF się przydaje - np. możesz patrzeć w czasie rzeczywistym co robią ludzie (roboty też)na Twojej witrynie ... itp.
Natomiast - jak napisałem wyżej - coś za coś, baza "puchnie" z godziny na godzinę :D

hazael
10-02-2006, 00:00
roboty mozna ogladac w prostrzym skrypcie, ktory nie jest zapisywany w bazie danych lecz w zwyklym pliku tekstowym:
Dla przykładu pokaze moj skrypcik:

http://les.piekielko.pl/roboty.php

Zablokowałem zbieranie danych na temat pozytecznych robotów a te ktore tu trafiaja mają pozniej u mnie bana na serwerze, przez co jest on mniej obciązany. Pozniej czyszcze plik i łapie roboty dalej ;-)

keny
11-02-2006, 12:50
3. Na początek (jeśli nie znasz się na pozycjonowaniu) nie kombinuj za dużo - Joomla! jest tak zrobiona, że serwis sam się będzie pozycjonował dobrze - warunek jest prosty: dużo dobrych treści (artykułów głównie) na tematy związane z tematem w/g którego się chcesz pozycjonować.
4. Zadbaj o dobre opisywanie artykułów na swojej stronie w polach Description i Keywords, właściwe Tytuły artów, pozycji menu, mapę serwisu

święte słowa. Jak ktoś nie pisze artykuły nie używając w nich ani jednego słowa kluczowego (choćby w nazwie) to potem się dziwi, że ma problemy :D

wpisz wogóle w google adres Twojej strony - czy wogóle jest w tym google a potem myśl nad pozycjonowaniem :P

livio
11-02-2006, 13:53
Wpisz "site:adres bez www" i wyszukaj.
Ja jak swoją testową witrynkę dodałem to kilka dni i jest...

ajma
28-02-2006, 11:34
w sekcji meta umiesc

<meta name="googlebot" content="index,follow,all" />

Gdzie to umieścić jeśli chodzi o joomla w template, czy gdzie?:(

hazael
28-02-2006, 11:40
Jak chcesz zeby kazdy robot wszystko indeksował to w templatce wstaw w sekcji meta:

<meta name="Robots" content="ALL" />

zwiastun
28-02-2006, 14:02
Warto wszakże zajrzeć do pliku robots, by przekonać się, że to, co ma być zindeksowane jest indeksowane bez takich wpisów. Konsekwencją indeksowania wszystkiego jest przy bezmyślności robocików, indeksowanie także zasobów, w którychjest guzik z pętelką, a więc i obniżenie jakości wyników.

hazael
28-02-2006, 14:31
i tu słuszna uwaga. lepiej poblokowac linki do mało istotnych miejsc wzmacniajac tym samym istotną tresc strony, ktorą mamy zamiar opublikowac i udostepnic wyszukiwarkom internetowym.

Niektorzy pewnie sami nie wiedzą, ze robociki trafiają zawsze po linkach, adresach obrazkow itd. Zwrocmy np uwage na publikowanie linkow do miejsc dostepnych jedynie po zalogowaniu. Taki robot zaindeksuje nam zupełnie niepotrzebnie link, ktory w rezultacie wyswietli jedynie "nie masz dostępu do tego miejsca, musisz sie zalogowac". Np takimi linkami moze byc lista zalogowanych uzytkownikow, gdzie kazda nazwa usera jest linkiem do jego profilu. wypadałoby takie linki poblokowac nie tracąc tym samym skupianie sie robota na cyzms bardziej istotnym :)

viper
28-02-2006, 18:58
Google Sitemap Generator jest to komponet którym wygenerujesz mape witryny w specjalnym pliku XML. Przeczytaj sobie ten artykół Google Sitemap (http://www.simplemachines.pl/content/view/60/2/) .
Jesli chcesz mieć większo swobode i dodać do sitemap jeszcze coś więcej niż joomle np forum to skozystaj z programu SOFTplus GSiteCrawler ma olbrzymie możliwości. Dzięki sitemap moge postawić serwis z 100 artykułami i dać do indeksacji w pierwszej kolejności 50 z nich i to one się jako pierwsze pojawią w google.

hazael
28-02-2006, 19:02
o dobrze ze o tym napisałes. :) własnie sobie niedawno to zainstalowałem i nie wiem teraz gdzie mam ten plik xml wstawic?

viper
28-02-2006, 19:06
w głównym katalogu i jego lokalizacje podajesz tutaj (http://www.google.com/webmasters/sitemaps/login?hl=en)

hazael
28-02-2006, 19:07
super - wielkie dzikei za podpowiedz :)

viper
01-03-2006, 01:53
Zapomniałm napisać ,że przy okazji dostaniesz statystyki Top search queries Top search query clicks i pare innych ciekawych rzeczy tam znajdziesz.

hazael
04-03-2006, 21:35
wszystko dziala jak napisałeś, ale jest jedno wielkie ale. Te GSG nie wspolpracuje z komponentami takimi jak SEF lub XANEON

viper
04-03-2006, 21:58
Wiem , i paru innych komponentów nie lubi.:(

Mam drugą propozycjie SOFTplus GSiteCrawler (http://johannesmueller.com/gs/) , jest to program windosowski o dużych możliwościach do robienia sitemapa. Ściągnij zobacz a może go polubisz. Ja go używam i nie narzekam, mogę zrobić sitemapa z wszystkim co można w witrynie odczytać i zindeksować:cool:
Pozdrawiam

jahu
05-03-2006, 20:58
w sekcji meta umiesc
<meta name="googlebot" content="index,follow,all" />

to wstawiac do templatki - czyli wlaze do templatki, wklejam ten fragment w dowolnym miejscu "head", pred body?

Lemik
18-03-2006, 02:53
Wiem , i paru innych komponentów nie lubi.:(

Mam drugą propozycjie SOFTplus GSiteCrawler (http://johannesmueller.com/gs/) , jest to program windosowski o dużych możliwościach do robienia sitemapa. Ściągnij zobacz a może go polubisz. Ja go używam i nie narzekam, mogę zrobić sitemapa z wszystkim co można w witrynie odczytać i zindeksować:cool:
Pozdrawiam

No ja ten program staram się okiełznąć i nici.
w GSG indeksuje mi artykuły, dodatków nie chce, a ten programik nie daje mi ani jednego linka. Wie ktoś jak to ustawić, moze jakiś link do tutka na temat tego programu?

viper
18-03-2006, 19:39
W zakładce Projekt wpisz adres tak jak tutaj w przykładzie:
http://www.twojastrona.pl

Na samej stronie programu jest dobry tutorial a na http://groups.google.com/group/gsitecrawler jest grupa dyskusyjna

Trintaga
29-10-2006, 14:11
W zakładce Projekt wpisz adres tak jak tutaj w przykładzie:
http://www.twojastrona.pl

Na samej stronie programu jest dobry tutorial a na http://groups.google.com/group/gsitecrawler jest grupa dyskusyjna

Witam,
skorzystałem z Twojej porady :) i zainstalowałem program GSiteCrawler...
utworzyłem nowy projekt wpisałem adres strony www ofeonline.info
program wygenerował mi mapę witryny po czym wrzucił pliki na serwer ...

I teraz mam problem bo gogle po dodaniu witryny najpierw bezproblemowo zaczytał plik po czym po 56 minutach zgłosił błędy.
Po wykasowaniu "błędnej mapy witryny" chciałem dodąć ją ponownie i tutaj ZONK :eek: nie chce przyjąc pliku xml wygenerowanego w dokładnie taki sam sposób
Pokazuje mi taki oto kom:

Napotkaliśmy błąd podczas próby dostępu do tej mapy witryny. Sprawdź, czy mapa witryny jest zgodna z naszymi wymogami i można do niej uzyskać dostęp w podanej lokalizacji, a następnie prześlij ponownie.
Plik wrzucony jest do gółownego katalogu.
Wiesz możę w czym "żecz" ??

Pozdrawiam

yacenty
04-11-2006, 11:12
nie wiem czemu ale w momencie kiedy pojawiaja ci sie dynamiczne linki (bodajze z kilkoma parametrami) to taka mapa jest zle wygenerowana - nie spelnia schematy xmla, ja recznie wyszukalem te wpisy i je wywalilem, trzeba miec ciut pojecia o xml i schema :)
pojawilo mi sie cos takiego na forum punbb i kilka linkow w coppermine gallery

Trintaga
05-11-2006, 19:32
nie wiem czemu ale w momencie kiedy pojawiaja ci sie dynamiczne linki (bodajze z kilkoma parametrami) to taka mapa jest zle wygenerowana - nie spelnia schematy xmla, ja recznie wyszukalem te wpisy i je wywalilem, trzeba miec ciut pojecia o xml i schema :)
pojawilo mi sie cos takiego na forum punbb i kilka linkow w coppermine gallery
dzieki za info ...
błędy wysypało mi przy kolejnych stronach ... znaczy się że mogę GSiteCrawler'a wywalic do kosza :D :(


EDIT ... praktycznie każde narzędzie on line - z katalogu gogla - ma z tym problemy ;/

gielo
07-11-2006, 02:51
Więc tak. Zrób sobie mod rewrite. Postaraj się o tresc na stronie z zawartościa słów kluczowych. Poczytaj sobie o wstepie do pozycjonowania np, na www.linux-serwer.info. Czytaj forum http://forum.optymalizacja.com/ Tak na marginesie to wszystkie moje domeny znalazły sie w google do 5ciu dni gdy zacząłem je linkować. Jeśli twoich tam nie ma to do złych katalogów linki dodajesz :o

qba_avs
15-11-2006, 15:41
Szanowni koledzy i koleżanki.

W aspekcie pozycjonowania bardzo dużo zostało już tutaj powiedziane, lektury w Internecie również nie brakuje. Chciałbym w tym miejscu podzielić się swoimi doświadczeniami z pozycjonowaniem stron.

Należy zdawać sobie sprawę, iż pozycjonowanie jest przy obecnym nasyceniu Internetu treścią dużym wyzwaniem. Jest czasochłonne i wymaga koncepcji.

Przede wszystkim ogromną rolę odgrywa nasza domena. Jeżeli jest słownie słabo związana z treściami, jakie przekazujemy to już mamy pierwszy problem. Polecam wybór domen zbliżonych do słowa kluczowego najlepiej określającego cel istnienia witryny. Wiem, że to trudne, ale jak wcześniej wspomniałem pozycjonowanie w dzisiejszych czasach to sztuka.

Zatem jeżeli chcemy promować joomle to domena joomla.pl jest w tym aspekcie najlepszym wyborem (1 miejsce w google). Dodatkowo należy zwracać uwagę na fakt, iż nasi Użytkownicy słysząc np. o joomla w pierwszej kolejności, - jeżeli ominą wyszukiwanie po tym słowie Google - właśnie joomla.pl wpiszą w adresie.

Nie nadmieniłem tego wcześniej, a powinienem iż pozycjonowanie jest dzisiaj głownie ukierunkowanie na algorytmy Googla. W końcu 80% Użytkowników nie może się mylić ;)
Po wybraniu odpowiedniej domeny przyjrzyjmy się treściom. Koledzy wcześniej wspominali również o grafikach. Nazewnictwo obu tych elementów jest bardzo ważne, a niedoceniane zwłaszcza grafiki. W treści tekstu bezwzględnie muszą występować słowa kluczowe, na których nam zależy, grafiki zaś winny posiadać nazwę pliku odpowiadającą tym słowom. Proszę pamiętać o altach. Napisanie tekstu zarówno dobrego dla oka jak i dla googlebota jest sztuką, którą warto rozwijać.

Dodatkowo należy mieć świadomość, iż Google zwraca uwagę na ilość treści - mam wątpliwości czy również na ich aktualność (znam z autopsji przykłady staroci lepiej wypozycjonowanych od super nowości notabene na lepszych domenach). To może sugerować, iż ilość linków, które kierują na naszą stronę jest jeszcze ważniejsza.

Tutaj dochodzimy do kolejnego niezbędnego elementu, jaki są linki prowadzące do naszej witryny. Powiedzieć, iż im ich więcej tym lepiej to wprowadzać w błąd, ponieważ musimy zwracać uwagę na PageRank stron, na których są linki do naszej witryny. Im wyższy PageRank tym lepiej.

Zachęcam dodawać strony do katalogów, ale z głową, bo może to przynieść odwrotny skutek.

Poza opisanymi powyżej elementami na pewno zrobić należy mapę strony i to zarówno na naszej witrynie jak i XMLowa dla Googla.

Nie wypowiadam się, co do tak zwanego zaplecza każdy niech to oceni sam.

Trochę lektury dodatkowej:
http://www.google.com/support/webmasters/?hl=pl (http://www.google.com/support/webmasters/?hl=pl)

Sprawdź na pewno dla swój witryny:


site:www.twojadomena.pl (http://www.twojadomena.pl) - Zaindeksowane strony tej witryny

link: www.twojadomena.pl (http://www.twojadomena.pl) - Strony zawierające linki do tej witryny
cache: www.twojadomena.pl (http://www.twojadomena.pl) - Aktualna kopia tej witryny w pamięci podręcznej
info:www.twojadomena.pl (http://www.twojadomena.pl) - Informacje jakie ma Google o tej witrynie
related: www.twojadomena.pl (http://www.twojadomena.pl) - Strony podobne do tej witryny

Bezwzględnie również PageRank www.optymalizacja.com/pagerank.php (http://www.optymalizacja.com/pagerank.php)

Co do wspominanego pliku robots.txt to ciekawostką jaką zaobserwowałem jest to że bez niego googlebot nieindeksował witryny, po jego wgraniu od razu zaindeksował (robot skanuje plik mniej więcej co 24 do 48 godzin)

Zorientowałem się wówczas, gdy zauważyłem jego brak w podstawowym drzewie joomla 1.0.11. W wersji 1.0.8 był standardowo. Co się stało, że go niebyło/nie ma?

Polecam Wam sprawdzić główny katalog czy macie ten plik.

PS. Przeczytałem gdzieś, iż Google na nowe witryny nakłada miesięczny okres nie indeksowania ich treści. Sprawdziłem i zaprosiłem robota. Po 48 godzinach witryna była w spisie Googla.

Być może ktoś z Was ma informacje, o co chodzi. że jednak się pojawiają witryny szybciej, bo to że Google blokuje witryny nowe (miesiąc) i te które łamią zasady pozycjonowania (6 miesięcy) to oczywiste.

Wiadomości, jakie tutaj zwarłem wynikają z doświadczenia dnia codziennego. Serwis, który prowadzę od ponad trzech lat jest oparty o joomle, wczesniej o mambo. Możecie sami sprawdzić jego wypozycjonowanie w Google.

Jeżeli macie jakieś pytania z przyjemnością pomogę.

www.spoleczenstwoinformacyjne.pl (http://www.spoleczenstwoinformacyjne.pl/)
www.uniqe.pl (http://www.uniqe.pl)

Pozdrawiam
Jakub Giza

feronek
15-11-2006, 18:23
No właśnie ja mam Jooomla 1.0.11 i nie ma tam robot.txt co ma zrobić sąd go wziąć i gdzie wkleić???

zwiastun
15-11-2006, 18:54
Sory, nie mam pojęcia, jak to się stało, że "wcięło" plik z pakietu instalacyjnego. Jest tu w załączeniu

feronek
15-11-2006, 19:07
zwiastunie a trzeba do disalow dodawac te wszystkie pliki? czy boty moga cos zlego z nimi zrobic? ja dodalam administratora tylko czy reszte tez warto?

qba_avs
15-11-2006, 22:32
Zachęcam do blokowania stron zawierających treści, które nie są interesujące dla czytelników. Mam wątpliwości co do standardowego blokowania przez defaultowy plik katalogu images.

Powodzenia. Zachęcam Was podzielcie się doświadczeniami. Niech joomlowe witryny są czołowką Googla.

feronek
16-11-2006, 12:26
Dzięki wielkie za pomoc - wszystko już gra :) Mam nadzieję, że szybko pojawię się w wyszukiwarce :)

dorek
22-03-2007, 02:22
Plik o poniższej treści ZABRANIA robotom wchodzić do katalogu /administrator, /cache, /components



Disallow: /administrator/
Disallow: /cache/
Disallow: /components/



W ten sposób można dość dokładnie określić, co robotom wolno czytać, a czego nie.


A jak udostępnić googlebotowi jeden podkatalog z zablokowanego katalogu, np. wymienionego powyżej /components/?

hazael
27-03-2007, 14:24
Ale po co się męczyć z ręcznym wpisywaniem robotów

Jak niby chcesz wpisać robota, gdzie i w jakim celu? Wiesz o czym piszesz?
Chyba pomyliłeś pojecia - to nie robota się wpisuje, tylko strone www umieszcza się w miejscu dostępnym dla tych robotów po to, aby umozliwić im dostanie się na Twoją zgłaszaną witryne.

A to co polecasz, sam osobiscie nikomu bym nie polecił. W tym skrypcie są same odwołania do zbędnych wyszukiwarek internetowych, z których statystycznie nikt z Polski z nich nie korzysta. Zrobisz dzięki temu jedynie zbędny, sztuczny ruch na swojej stronie, który jedynie pożre Ci transfer, na który masz zapewne nałozony limit przez providera. W tym skrypcie jest tylko jedna pożyteczna dla polskich zasobów wyszukiwarka internetowa - google. Tyle że można bez tego się obejść, bo w tym przypadku googlebot sam odwiedzi Twoją witrynę - wystarczy, że na zaindeksowanej dla google stronie umiescisz link skierowany na swoją witryne. A im wiecej tych linkow, tym lepiej :-)

dorek
27-03-2007, 23:11
Ale po co się męczyć z ręcznym wpisywaniem robotów jak można wejść na http://www.joomla.pl/index.php/index.php/component/option,com_docman/task,doc_details/gid,46/Itemid,58/ pobrać, zainstalować, i po chwili będzie można cieszyć się swoją stroną w piętnastu wyszukiwrkach bez konieczności rejestrowania ich w nich - komponent zrobi to za nas! Polecam!

Nie chodziło mi o rejestrację w wyszukiwarkach!
Stronę mam zaindeksowaną. Pytałam, jak mozna wpuścić robota do jednego katalogu, który jest podkatalogiem katalogu zablokowanego.
Dokładnie chodzi mi o umożliwienie robotowi przeglądania katalogu
"/images/stories/josdirectory/docs/" w sytuacji gdy katalog "/images/" jest zablokowany (Disallow: /images/)

mtx
12-07-2007, 20:25
Polecam wszystkim zainwestowanie w Addera (http://www.seoadder.info/). Nie muszę siedzieć i klepać wpisów do katalogów. Strona praktycznie sama mi się pozycjonuje.

zoltar83
19-04-2008, 11:22
Jeśli ktoś szuka nadal dobrego komponentu do tworzenia mapy witryny dla Google lub Yahoo! to polecam to:

Xmap (http://extensions.joomla.org/component/option,com_mtree/task,viewlink/link_id,3066/Itemid,35/)

nadmienię, że komponent jest w pełni po polsku :)

crazyluki
19-04-2008, 13:16
fun.kubera.org > komponent rodzimego autora
Sef Service Map v.1.0.4 (http://fun.kubera.org/content/view/21/45/lang,iso-8859-2/)
najlepszy z jakim się spotkałem:)
pozdrawiam

gielo
19-04-2008, 19:49
Zamiast mapy strony lepiej linkować podstrony w celu indeksacji serwisu. Mapa strony jest oki jak masz mały serwis ale jak masz serwis z kilkomaset podstronami to zgadnij ile taka mapa będzie ważyć ? tzn ile mb będzie miała ?

Linkujcie serwis jak najbardziej w głąb a i mapa nie będzie wam potrzebna. Tak na marginesie to obecnie mam wątpliwości, że mapa strony w jakikolwiek sposób pomaga w indeksacji. No chyba że masz źle zlinkowany serwis wewnętrznie i w taki sposób chcesz umożliwić botom wstęp na głebsze podstrony.

Co do addera to dobry jest dla dzieci sprzedających pozycjonowanie za 5zł na allegro. Jest on g..o warty i taka jest prawda.

nexus246
19-04-2008, 20:23
tzn ile mb będzie miała ?
Ani jednego, warto sprawdzić.


... i taka jest prawda.
Kwestia dobrej bazy w tymże adderze, do budowania zaplecza jak znalazł, oczywiście w połączeniu z innymi narzędziami.

michal11
16-02-2009, 22:34
Mam pytanie(jooma 1.5)
a jak i gdzie mam ustawić dane by wyszło tak:

Polskie Centrum Joomla! - 20 odwiedzin - 21:09
Serwis Polskiego Centrum Joomla! - systemu CMS upowszechnianego na warunkach licencji GNU GPL. Aktualności, zasoby, plikownia, forum, serwer pomocy.
www.joomla.pl/ - 26k - Kopia - Podobne strony1.0.15-pl
Forum
Zasoby
Demo Pomoc
Czym jest Joomla
Pliki główne
Przegląd możliwości

to jest kopia tego co pokazuje google po wpisaniu "joomla". Nie wiem jak dodać opis(i gdzie) by były odośniki to poszczeólnych działów strony...
Tak w ogóle to pomimo opisu strony w ustawieniach joomla nie mam opisu w google tylko fragment jakiejś losowej treści...

muminux
04-08-2009, 23:33
to wracajac do dyskusji o robots.txt , co sugerujecie z wlasnego doswiadczenia, lepiej zostawic standardowy plik


User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /xmlrpc/


czy lepiej cos zmienic by bylo milsze dla googli. Jesli tak to co z gory dziekuje za sugestie i porady

Nuntaro
02-11-2009, 12:40
Uwaga: Jeśli serwer www na pytanie naszego robota o plik robots.txt odpowiada, że nie ma on prawa dostępu do tego pliku (kod 403 oznaczający "Access forbiden"), nasz robot NIE WCHODZI do tej witryny i niczego z niej nie indeksuje.


Jak można "spowodować" taką sytuację? Jakie uprawnienia powinien miec nadane ten plik?



meta name="googlebot" content="index,follow,all"


a gdzie należny edytować metadane skoro w konfiguracji witryny (zaplecze) występują tylko opis i słowa kluczowe?