Strona główna forum E-commerce SEO, Pozycjonowanie Problem z Duplicate Content i podwójnymi meta-tagami

Problem z Duplicate Content i podwójnymi meta-tagami

Metody, sposoby i czasy pozwalające sprawnie pozycjonować...

jemoon Avatar użytkownika
Administrator

Posty: 529
Lokalizacja: Gdańsk
Gadu-Gadu: 0

witam,
Po dodaniu stronki do google i odczekaniu kilku dni zauważyłem, że w "Narzędziach Google dla Webmasterów" pojawiło się wiele alertów nt. podwójnej zawartości stron oraz zdublowanych i za krótkich meta-tagów. Aby temu zaradzić należy w głównym katalogu sklepu utworzyć plik o nazwie robots.txt i wypełnić go następującą zawartością:
User-agent: Googlebot
Disallow: /*?
Disallow: /*.js$
Disallow: /*.css$
Disallow: /checkout/
Disallow: /catalogsearch/
Disallow: /review/
Disallow: /app/
Disallow: /downloader/
Disallow: /images/
Disallow: /js/
Disallow: /lib/
Disallow: /media/
Disallow: /*.php$
Disallow: /pkginfo/
Disallow: /report/
Disallow: /skin/
Disallow: /var/
Disallow: /catalog/
Disallow: /customer/
Sitemap: http://adres_sklep.pl/folder_sitemapy/sitemap.xml

Powyższy plik spowoduje, że googlebot nie będzie indeksował niepotrzebnych rzeczy, a przede wszystkim nie będzie indeksował linków z wielowarstwowego menu co w przypadku posiadania wielu cech może być naprawdę problemem i spamem dla Google. Zalecałbym również ujednolicenie wyświetlania adresu produktu poprzez przejście do PA -> System -> Konfiguracja gdzie w zakładce "Sklep" i pod linkiem "Sklep" znajduję się "Optymalizacja dla wyszukiwarek (SEO)" tam należy ustawić "Użyj ścieżek kategorii dla adresów produktów" na "Nie" po czym należy zresetować cache dla przepisanych już adresów (System -> Cache Management i tam klikamy "Odśwież" przy "Catalog Rewrites").

Problem z Duplicate Content i podwójnymi meta-tagami

PostTeraz jest 22 gru 2024, o 09:52
Google

Posty: 427
Lokalizacja: Internet


Posty: 50
Gadu-Gadu: 2471309

A te reguły nie wywalą z googla produktów w kategoriach ze stronicowaniem '?p=2' ?

jemoon napisał(a):
witam,
tam należy ustawić "Użyj ścieżek kategorii dla adresów produktów" na "Nie"

co to zmienia dla google? dobrze nazwane kategorie nie są lepszymi linkami?
sklep keebee.pl - ubranka dla niemowląt


Posty: 50
Gadu-Gadu: 2471309

hmm.. nikt nie wie?

A to rozwiąże problem?

User-agent: Googlebot
Disallow: /*?
Allow: /*?p=2$
Allow: /*?p=3$
Allow: /*?p=4$
Allow: /*?p=5$
sklep keebee.pl - ubranka dla niemowląt


Posty: 12
Gadu-Gadu: 0

Pod:
Disallow: /*?


wstaw:
Allow: /*?p=
Disallow: /*?p=*&
Disallow: /*&p=


i będzie przechodził po podstronach :) nie wiem na ile jest to optymalne ale powinno działać


Posty: 73
Gadu-Gadu: 277722

Dodałem powyższe, faktycznie indeksuje mi ładnie wszystkie podstrony, ale tak poindeksowane strony mają wg Narzędzi:
1) Podwójne tagi tytułowe
2) Podwójne meta-opisy
Trudno się z tym nie zgodzić.
Więc pytanie pojawia się - czy lepiej indeksować treść poszczególnych stron (?p=...) czy raczej ważniejsze, aby nie było podwójnych opisów i tytułów?

A może lepiej zamiast tylu stron (?p=...) dodać coś takiego:
Disallow: /*?
Allow: /*?limit=all

Co myślicie?
SingleMalt.pl | The real taste of whisky


Posty: 729
Gadu-Gadu: 0

Ktoś ma na to rozwiązanie?
Magento krok po kroku - aktualne informacje ze świata magento.


Posty: 1
Gadu-Gadu: 0

Działają Wam "wildcards" w robots.txt? Bo w przypadku mojej strony Googlebot w ogóle się nie słucha jak widzi * lub ?. Nie wiem jak to obejść, ma ktoś pomysł?


Posty: 1
Gadu-Gadu: 12345678

mi działą wildcard bez problemu


Powrót do SEO, Pozycjonowanie



cron