PDA

Zobacz pełną wersję : Optymalizacja i pozycjonowanie witryn opartych o Joomla



kacper1972
12-10-2013, 19:08
Hej Panowie i Panie

Dziś po południu, tydzień po czerwonej sobocie, postanowiłem stworzyć mini kursik o optymalizacji i pozycjonowaniu stron, głównie w Joomla. Powody są dwa - mamy Pandę 2.1 i znów płacz że naszej witryny nie ma w indeksie a była - jak wiadomo panda to linki, zaś pingwin to treść. Powód dwa to niewiedza właścicieli witryn, którzy zlecają pozycjonowanie stron bez konieczności optymalizacji strony. Proszę mi wierzyć ale sa firmy, które nie starają się zmienić adresów na proste tylko nawalają linkami zakupionymi allegro lub z rumaków, wiadomo o co chodzi. :P
Potem jest płacz bo przyjdzie pingwin i wywali nam sklep w otchłań na stoentą pozycję bo opis produktu jest na 50 innych witrynach taki sam i mamy duplikowanie treści.

Niestety aby strona pod względem SEO miała ręce i nogi trzeba popracować i jest to nie mniej ważna praca niż nad grafiką, wyglądem strony. Niestety nie rozumiem dlaczego wielu klientów sie czepia bardziej odcienia tła strony niż jej optymalizacji. Proszę mi wierzyć lepiej poświęcić godzinę na alty dla obrazków niż zastanawiać się godzinę czy tło strony ma mieć 80% szarości czy 80,5 w sumie i taktego nie widać. A jak strony nikt nie znajdzie to tło moze być czare w kropki bordo jak krowa.:lol: jeśli podoba się zleceniodawcy.

Tutaj link do listy filmów na youtube - dzielmy się pomysłami odnośnie optymalizacji witryn.

https://www.youtube.com/playlist?list=PLV3QVhKboxY4gH-8Gk_iBiErUTxNbDHw_


Swoją drogą dlaczego tutaj jest tak mało tematów, w tym dziale? czyżby świadomość optymalizacji była taka? to prowokacyjne pytanie:podstep:

Jac
12-10-2013, 23:09
Niestety aby strona pod względem SEO miała ręce i nogi trzeba popracować i jest to nie mniej ważna praca niż nad grafiką, wyglądem strony. Niestety nie rozumiem dlaczego wielu klientów sie czepia bardziej odcienia tła strony niż jej optymalizacji.
Dobrze napisane. Nie każdy klient ma świadomość, że być w internecie nie znaczy na pierwszym miejscu mieć mega odjechaną stronę. Świadomość klientów to jedno. Świadomość wykonawców to drugie. Wykonanie przynajmniej podstawowej optymalizacji powinno być w tej pracy standardem. Klient nie musi się znać. To my mamy znać się za niego i dobrze mu doradzić/dobrze wykonać pracę.

Nawiasem mówiąc ja tam wcale nie narzekam, że wiele witryn nie jest dobrze zbudowanych/dobrze zoptymalizowanych pod kątem wyszukiwarek. Wręcz przeciwnie, skoro konkurencja nie ma dobrze zoptymalizowanych dla wyszukiwarek witryn, łatwiej z nimi konkurować, wykonując optymalizację SEO SEF. A jeszcze robiąc to w sposób przemyślany, można zdziałać bardzo dużo na poletku wyszukiwarek internetowych.

kamyk8
15-12-2013, 15:00
Można zrobić stronę niezoptymalizowaną, a potem jeszcze zgarnąć parę stówek za optymalizację. Sama to rozważałam, ale sumienie mi na to nie pozwala - zrobić w dzisiejszych czasach niezoptymalizowaną stronę (przynajmnie w podstawach) to moim zdaniem brak profesjonalizmu. Albo chciwość i próba wyciągnięcia od klienta więcej kasy.

zeki
15-12-2013, 23:11
Szczerze powiem, że faktycznie optymalizacja J! leży i to juz na starcie. Taki WP od samego zainstalowania na byle jakim hostingu jest już w dużo lepszej sytuacji niż J!. Choćby linki - zdecydowanie łatwiej nad nimi zapanować niż w J! Ja w tej chwili rzeźbię jak tu K2 ogarnąć żeby duplikatów w obrębie witryny nie było. A funkcjonalność K2 taka jak choćby tagi i łatwość zarządzania treścią powinna być w ogóle częścią jakiejś rozbudowanej wersji J!. Do prostych stron ofc wystarcza goła wersja ale coś bardziej zaawansowanego zdecydowanie łatwiej oprzeć na K2. Twórcy komponentu jednak jakoś dziwnie do tematu optymalizacji podeszli. Chyba, że to wina templatki. W każdym razie masa zduplikowanej treści się tworzy i kij wie jak to obejść.
W tej chwili z mojego punktu widzenia to powinna być główna sprawa w rozwoju tego dobrego CMSa.

I drugi wątek bym chciał pociągnąć. Czy nie uważacie, ze daliśmy się zapędzić w kozi róg? Człowiek siedzi godzinami nad zagadnieniami optymalizacji a strona i tak może oberwać bo gdzieś przeoczyliśmy, że tworzy się jakiś duplikat, bo strony tagów tworzą duplikaty bo coś tam srośtam. A nie mógłby algorytm tego ogarnąć? Chyba nie bardzo bo ostatnio nawet linki złe trzeba wyszukiwarce wskazywać. Sama nie odróżnia. Dochodzi do paranoi. Obrywają strony tworzone dla ludzi, w TOPach siedzą zaplecza i to naprawdę niskiej jakości. Nikt z nas nie jest w stanie spełnić wskazówek google. Taka prawda. Możemy rzeźbić ale to wszystko i tak o kant jak na nas trafi. Albo AdWords albo nowa domena.