seo - czyli jak być pierwszym
TRANSCRIPT
Piramida wartości - Jagram
PIRAMIDA WARTOŚCI na podstawie teorii Maslowa
W 1943 roku amerykański psycholog Abraham Maslow przedstawił po raz pierwszy swoją teorię hierarchii potrzeb ludzkich. Często jest wykorzystywana jako baza do tworzenia modeli opasujących rzeczywistość – również biznesową.
SEO – Search Engine Optimization
Optymalizacja dla wyszukiwarek internetowych, zwana także pozycjonowaniem, działania zmierzające do osiągnięcia przez dany serwis jak
najwyższej pozycji w wynikach organicznych wyszukiwarek internetowych dla wybranych słów i wyrażeń kluczowych.
W Polsce królem wyszukiwarek jest Google. Silnik Google ma w Polsce 98% rynku wyszukiwań.
Podstawa pracy nad SEO
Pamiętaj ! nikt nie zna dokładnie algorytmu działania wyszukiwarek
(poza ich twórcami). nikt nie wie, jak będzie wyglądał ten algorytm za tydzień,
miesiąc czy za rok. Jeśli ktoś mówi, że wie wszystko na temat działania
wyszukiwarek i pozycjonowania to zapomnij o nim. (chyba, że pracuje w Gogle) .
Wiedza na temat działania wyszukiwarek pochodzi głównie z doświadczenia ludzi.
Można opracować ogólne wytyczne. Nic więcej !
Jak Google ustala ranking?
Informacje n/t ustalania rankingu są kluczowe. Przy tworzeniu witryny należy pamiętać, że nadrzędnym celem
każdej wyszukiwarki jest informowanie szukającego o stronach, które dostarczą mu najwięcej
wartościowych informacji na dany temat. Ranking jest przygotowany właśnie po to, aby spełniać to zadanie.
Dla odpowiedniego zaprojektowania serwisu WWW "pod"
Google, należy wiedzieć 2 rzeczy:
jak działa wyszukiwarka co wpływa na ranking
Za ocenę strony odpowiada m.in. program wyszukujący i Page Rank (w Google).
Z czego składa się wyszukiwarka?
WYSZUKIWARKA to zespół serwerów (Google ma ok. 1 000 000) z odpowiednim oprogramowaniem na które składa się z 4 elementy
Pajączek (inaczej: bot, robot, spider, crawler) – program czytający strony internetowe
Baza danych (kopie wszystkich stron WWW znalezionych lub zgłoszonych do Google)
Indeks (spis wszystkich fraz kluczowych z odnośnikami do stron na których się te frazy znajdują)
Programu wyszukującego i klasyfikującego PR
Pajączek, robot, bot, spider, crawler
Pajączek to program, który czyta kod strony, zapamiętuje go i poddaje analizie.
Spider czyści kod ze zbędnych dla niego znaczników HTML i zapisuje tylko interesujący go tekst z właściwymi mu znacznikami oraz gdzie dany fragment tekstu się znajdował w kodzie strony: tytuł, meta opis (description), meta frazy kluczowe(key words) nagłówek H1-H6, zwykły tekst anchor tekst (tekst zakotwiczenia - linkujący) podpis pod zdjęciem.
Crawler po przeczytaniu strony podąża kolejno po linkach znajdujących się na stronie a nastepniie opuszcza ją linkiem wychodzącym
Baza danych i indeks
Baza danych - to zebrane przez robota informacje o słowach występujących na poszczególnych stronach www Na zindeksowane (czyli przeczytane i opisane) strony
roboty wracają po pewnym (określonym) czasie lub przy ponownym zaproponowaniu strony do indeksacji. Sprawdzają wówczas, czy strony się zmieniły i ewentualnie aktualizują swoje zasoby.
Baza danych jest indeksowana - czyli jest tworzony indeks,
Indeks - to spis wszystkich słów wraz z odnośnikami do miejsc występowania ich w bazie danych.
Indeks wyszukiwarki można porównać do indeksu, który można znaleźć w książkach - idea działania jest w zasadzie identyczna.
Program wyszukujący + Page Rank
Kiedy internauta wpisuje jakieś słowo / frazę w wyszukiwarce, program wyszukujący przeszukuje indeks w poszukiwaniu tego słowa /zwrotu. Jeśli dane słowo zostanie znalezione, program wyszukujący czyta wszystkie strony z bazy danych oznaczone w indeksie jako zawierające dane zapytanie.
Następnie ocenia wartość każdej strony – czyli Page Rank w skali szacunkowej od 0 do 10
dla przykładu Google ma PR - 8, a Jagram – 4 Oceną strony zajmują się algorytmy w samym programie
wyszukującym.
Na ocenę ma wpływ również występowanie w DMOZ dla Google –czyli w katalogu stron internetowych stworzonym przez Google
Liczba linków Link Popularity prowadzących do strony
Oraz ponad 200 innych parametrów
Na podstawie ocen jest tworzony ranking i wyświetlana kolejność propozycji wyszukiwań.
Autorytet domeny- Trust authority
Autorytet domeny określany jest przez Google poprzez ocenę liczby linków przychodzących z wartościowych stron do witryny.
Istotny jest również sposób linkowania oraz miejsce, w którym znajdują się odsyłacze.
Wiek domeny.
Link Popularity, czyli - link linkowi nie równy
Link Popularity jest to ilość zindeksowanych stron czyli zidentyfikowanych i opisanych przez Google, które posiadają
linki do naszej. Liczą się oczywiście tylko te strony, które nie są częścią naszego
serwisu.
Najważniejsze czynniki, stanowiące o sile danego linku: brak atrybutu ”no follow” (ten atrybut blokuje śledzenie linku
przez robota) wartość strony, na której znajduje się link do naszego
serwisu powiązanie tematyczne linkującej i linkowanej strony tzw. anchor tekst, czyli treść zakotwiczenia /tytuł linka/ miejsce umieszczenia linka na stronie wymiana linków po przez strony zapleczowe – unikanie
wymiany linków
Treść linka - Anchor tekst
Roboty wyszukiwarek zapamiętują anchor text, czyli frazę która jest odsyłaczem do naszej strony.
Jest to treść zawarta pomiędzy znacznikami <a>…</a> . Gdy do strony prowadzi link zawierający słowo lub frazę kluczową,
np.: altany ogrodowe to ma on o wiele większą wagę, niż link zawierający np. adres serwisu: www.jagram.com.pl
Tekst na stronie - treść – kontent
Wyszukiwarki indeksują cały tekst, /to co znajduje się w sekcji body/
Dlatego frazy kluczowe, muszą znajdować się w treści strony !!!
Tytuł strony
Znacznik >title/< Wszystkie roboty zapamiętują tytuł strony, ponieważ jest on
jednym z głównych i najważniejszych kryteriów rankingu.
Pozostałe elementy strony, a PR
Nagłówki h1-h6 Są to tytuły poszczególnych akapitów (części strony). Słowa tam
użyte maja znacznie większe znaczenie niż to samo w treści strony. Znaczniki meta
Informacje z meta description (opis strony) są ważne jedynie ze względu na treść skierowana do czytelnika wyniku wyszukiwania (wpływają na konwersję kliknięć w wynik)
meta keywords (sowa kluczowe). Aktualnie Google nie bierze ich pod uwagę. Jednakże dla spójności strony słowa kluczowe tam wpisane muszą apotem pojawiać się w treści strony.
Linki wewnętrzne Należy zadbać, aby strony były połączone ze sobą (najważniejszy
jest anchor tekst). Linki zewnętrzne - wychdzące
Musi być przynajmniej 1, ogólnie im mniej tym lepiej
Słowa kluczowe - czyli od czego zacząć pozycjonowanie Pozycjonowanie serwisu WWW zawsze MUSI
rozpocząć się od doboru słów kluczowych!
FILM_ 3_Dobór słów kluczowych
Dobór słów kluczowych
Na początku warto zająć się słowami lub frazami nieco mniej popularnymi (niszowymi). Najczęściej składających się z kliku słów – „długi ogon”
Walka o wysokie pozycje dla słów /fraz bardzo popularnych może - zakończyć się porażką.
Pamiętaj: lepiej być w Top10 na 10 mniej popularnych fraz, niż w drugiej dziesiątce na 1 bardzo popularne słowo.
Jak wybrać słowa kluczowe?
znać swoje produkty i przewagi konkurencyjne
znać swój rynek i przeanalizować konkurencję
skorzystać z GoogleTrends i KeywordToolExternal
Wybrać najmocniejsze słowa /frazy kluczowe najlepiej opisujące nasz biznes (z punktu widzenia klienta)
Znaj swój biznes
co oferujesz (w jaki sposób)
komu to oferujesz, - grupa docelowa
co chcesz osiągnąć (udział w rynku, marża)
jak szybko chcesz to osiągnąć
jakimi dysponujesz środkami.
Analiza konkurencji
Sprawdź kod źródłowy tych stron. Zobacz, jak są zbudowane. Zwróć uwagę zarówno na treść
tych serwisów, znaczniki meta, rodzaj i ilość słów kluczowych: w tytule, opisie, tagu keywords, nagłówkach i treści. Przyjrzyj się linkom na stronie (anchor tekst) itp
SeoQuake - Badanie stron internetowych
Dodatek SeoQuake to proste narzędzie do dokłądnego badania
odwiedzanych stron (zarówno własnych jak i tych konkurencji)
Narzędzia doboru słów kluczowych
https://adwords.google.com/select/KeywordToolExternal - zdecydowanie najważniejsze narzędzie!
boksy.onet.pl/ranking.html - Najczęściej wpisywane słowa i frazy w przeglądarce tego portalu. Wyniki cechuje sezonowość, więc należy być ostrożnym w ocenie sytuacji.
szukaj.wp.pl/najpop.html - najpopularniejsze strony wg Wirtualnej Polski.
szukaj.wp.pl/zapytania.html (ostatnie 10 zapytań w WP). www.google.com/trends - Można porównywać słowa kluczowe
pod względem popularności Dodatkowo dobrym pomysłem jest pytanie znajomych, rodziny,
przyjaciół, robienie testów, quizów etc.
KeywordToolExternal - interpretacja wyników
Mamy 4 rodzaje dopasowań:
dopasowanie zbliżone - oznaczone jako – przybliżoneBrane są pod uwagę wszystkie wyszukiwania, które nie są w cudzysłowie i w których
występuje to słowo lub jego synonim
dopasowanie do frazy - oznaczone jako - ”do wyrażenia”Są to dokładne frazy, muszą być w określonej kolejności, ale mogą też występować inne
dodatkowo wyrazy np. "używane książki” - używane książki promocja
Dopasowanie dokładne - oznaczone jako - [ścisłe]Są to dokładne słowa lub frazy w określonej kolejności bez żadnych dodatkowych słów
wykluczenie- oznaczone jako - wykluczenie
KeywordToolExternal - interpretacja wyników funkcja - Wykluczenie Zdecydowanie najlepiej jest wybierać typ ”do wyrażenia”
lub - [ścisłe] i użyć funkcji – wykluczenie
Przykład dla strony o operacjach plastycznych nosa
Optymalizacja stron internetowych
Właściwa kolejność działań:
Budowa lub instalacja serwisu Optymalizacja stron serwisu Pozycjonowanie
Wszystko w celu bycia pierwszym
na liście wyszukiwań
Optymalizacja etap techniczny
Przyjazne adresy URL - przyjaznych linkach można umiejętnie przemycić słowa kluczowe, co pomaga (i to znacząco) w pozycjonowaniu
HTML i CSS - Style umieszczaj w osobnym pliku - dzięki czemu nie obciążą samej strony
skrypty stosować tylko w razie konieczności - Niepotrzebnie obciążą stronę i wydłużą czas jej ładowania
Technologia Flash nie jest dobrym rozwiązaniem - trudno się je nawiguje, pozycjonuje, w przeglądarkach są często blokady aplikacji Flash.
Ramki (frames) – nie stosuj ramek, sztucznie dzielą serwis na pojedyncze strony i trudno uzyskać dużą moc dla całego serwisu.
Zrób mapę strony - może pomóc w całościowym zindeksowaniu serwisu
Logiczna i spójna nawigacja - ważne zarówno ze względu na jego użytkowników, jak roboty
Strona musi być lekka - powinna szybko się ładować, to też ocenia Google
Meta robots uzupełnione - dzięki temu znacznikowi sterujemy robotem wyszukiwarki.
Domena internetowa - najlepsza jest domena z końcówką .pl (lub inną narodową
Domena
Domena internetowa - najlepsza jest domena narodowa – dla Polski z końcówką .pl lub com.pl . Ważne aby nie była zbyt długa i łatwa do zapamiętania.
Dobrze aby zawirała słowo/słowa kluczowe – ponieważ jeśli domena to www.jakas_strona.pl, to będziesz wypozycjonowany na pewno na... "jakaś strona".
Dostępność domen
sprawdzić można na
http://www.dns.pl/cgi-bin/whois.pl
Optymalizacja treści – content
Meritum pozycjonowania - Treść. Jak nie umiesz dobrze pisać – to masz problem. Są 2 wyjścia:
naucz się pisać – bardzo dobre rozwiązanie zleć copywriting – trochę gorzej – bo i tak musisz to potem
poprawić pod kątem SEO
Optymalizacja treści - Tytuł strony
Jest najważniejszy. Powinien zawierać 5-10 słów (około 65-75 znaków).
Tytuł strony - elementy
Metoda WIELKIEJ TRÓJKIChodzi o to, żeby pierwsze 3 słowa tytułu były dobrane w ten sposób,
aby dowolna ich kombinacja dawała frazę kluczową
Oraz aby te słowa wstępowały w treści strony
Meta tag description – opis strony
Jest bardzo ważny bo pojawia się jako opis serwisu w wynikach wyszukiwania.
Musi zawierać słowa kluczowe - najlepiej 4-6 fraz kluczowych (najważniejsze - na początku). Opis nie może być dłuższy niż 255 znaków. Najlepiej 150-200 znaków
Meta tag keywords
To słowa kluczowe opisujące Twój serwis (konkretną podstronę). Należy podkreślić: w meta tagach strony muszą znajdować
się słowa / frazy, które występują w treści strony (w sekcji body). Inaczej możesz zostać oskarżony o SPAM.
Wpisując słowa kluczowe powinieneś mieć na uwadze:
liczbę pojedynczą i mnogą wyrazy pisane z małej i wielkiej litery wyrazy z błędami literowymi i ortograficznymi.
Nagłówki h1.... h6, Opisy Alt
Całkowita ilość słów zawarta w nagłówkach nie powinna przekraczać 10 i powinna zawierać frazy kluczowe.
Główny tekst strony – sekcja body
Każda podstrona powinna się składać z około 250 do 800 słów z podziałem na sekcje w znacznikach H1-H6.
Dobre nasycenie słowami kluczowymi, ale nie za wysokie – najlepiej ok. 3-6%.
Najważniejsze słowa kluczowe powinny znajdować się blisko góry kodu strony
Tekst musi być dobry pod każdym względem: treści, sensu, układu, łatwości zrozumienia, przejrzystości, gęstości słów / fraz kluczowych itd.
Treść musi być aktualizowana i często zmieniana
Algorytm Google PANDA bardzo mocno promuje
unikalną i świeżą treść
Zdobywanie linków - zwykłe katalogi
Zwykły katalog to witryna, na której znajdują się linki do
różnych stron internetowych pogrupowanych tematycznie np.
Google - Open Directory Project: www.dmoz.orgOnet.pl - Ogólnopolski Katalog Onetu: katalog.onet.plWirtualna Polska - Katalog WP - katalog.wp.pl
katalogi umożliwiają również umieszczanie linków w treści opisu – zwrócić należy uwagę na to aby nie było atrybutu „no follow”
Presell pages – katalogi specjalne
To katalog stron, w którym umieszczane są artykuły
A z kolei w tych artykułach znajdują się linki z odpowiednimi anchor tekstami. (odnośnikami zawierającymi frazę kluczową)
zwrócić uwagę aby nie było atrybutu „no follow” umieszczaj unikatową treść za zduplikowaną treść
można dostać bana
Błędy przy zdobywaniu linków Unikaj linków:
ze stron kompletnie nie związanych z tematyką serwisu - takie linki są zazwyczaj mało wartościowe
ze stron o charakterze erotycznym /pornograficznym - unikaj ich jak ognia,
z tzw. farm linków - czyli serwisów tworzonych tylko w jednym celu: upychania możliwie największej ilości łączy – takie linki nie mają wartości
Inne techniki zdobywania linków
blogi, fora, księgi gości, komentarze darmowe ogłoszenia płatne katalogi stron kupowanie linków wymiana partnerska (cross linking) artykuły tematyczne (direct linking) systemy wymiany linków
Zaplecze pozycjonerskie
Jest to zestaw stron WWW utworzonych dla jednego głównego celu: pozycjonowania wybranego serwisu / serwisów.
blogi własne forum niezależne dodatkowe strony tematyczne na osobnych domenach i IP własny katalog stron
Staraj się nie linkować 2 stron wzajemnie. Zasada a-b,b-c,c-a
Zalety posiadania własnego bloga
Google uwielbia serwisy, które są często aktualizowane (Algorytm PANDA) Uzyskanie miejsca do umieszczania b.mocnych linków – wzrost PR Przekierowanie targetowane - wzrost wartościowego ruchu na sklepie Pisząc bloga - ludzie zaczną kojarzyć: "To ten od altan i pergoli". Budowanie opinii eksperta w danej dziedzinie.
Ekspert = zaufanie, autorytet
Kary przy pozycjonowaniu - ban
Tuczenie znaczników meta i title słowami kluczowymi (powinno być max 4-6)
Umieszczanie w meta tagach słów kluczowych, których nie ma na stronie
Niewidzialny – np. w kolorze tła strony lub "Malutki tekst".- czcionka 1pxl
Jump pages -ustawienie meta refresh na bardzo krotki czas na stronie przejściowej sztucznie wypozycjonowanej na 1 słowo
Farmy linków – sztucznie stworzone strony wyłącznie z samymi odnośnikami
Duplikowanie treści
– kopiowanie cudzych tekstów BAN
Błędy przy pozycjonowaniu Pozycjonowanie strony bez uprzedniej optymalizacji
Zbyt popularne (ogólne) frazy kluczowe – lepiej zaczynać od fraz „długiego ogona”
Robienie kopii innych stron – chodzi oczywiście o tekst (duplicate conntent)
Długie domeny ze słowami kluczowymi – domena nie może być zbyt długa (max 2-3słowa)
Umieszczanie treści na dole w kodzie strony – najcenniejsza treść powinna być u góry strony
Zbyt szybkie zdobywanie linków – powinno być kilka dziennie nowych
Wymiana linków z kiepskimi serwisami – oraz z ograniczeniami nofollow
Wzajemne linkowanie w obrębie własnych serwisów z zaplecza A-A, B-B, C-C - zawsze powinno być A-B, B-C, C-A
Zaplecze na jednym serwerze – strony zapleczowe musza mieć różne IP
Ograniczony dostęp do serwisu – np. po przez konieczność logowania (tam nie zaglądają roboty)
Kiepski serwer – słabe łącze
Zlecenie pozycjonowania amatorom
Podstawowe narzędzia SEM
www.google.com/analytics - podstawa analizy wyników
www.google.com/trends - szukanie optymalnych słów kluczowych
www.adwords.google.com/select/KeywordToolExternal - dobór słów kluczowych
www.firefox.pl - najlepsza dla pozycjonera przeglądarka WWW
www.addons.mozilla.org/pl/firefox/ - dodatki do liska
http://www.seoquake.com / - program do analizy SEO w czasie rzeczywistym
www.seocentro.com - serwis z narzędziami do użycia on-line.
www.seolight.pl - program służący do półautomatycznego katalogowania i preclowania.
www.semonitor.pl – do analizy SEM
Google Analitics – podstawa analizy ruchu na stronie
Ruch na stronie - Jest to liczba unikalnych użytkowników odwiedzających dany serwis. Nie mylić z liczbą kliknięć (odsłon).
Strony o pozycjonowaniu www.katalogiseo.info - spis katalogów.
www.seo.net.pl/spis_presellpage/ - spis katalogów Presell Pages.
www.ebiznesy.pl – blog Pawła Krzyworączki
www.forum.ebiznesy.pl – forum Pawła Krzyworączki
www.cneb.pl - płatne forum -masa wiedzy, w tym również sporo np. o SEO
www.seoadder.info – automatyczne dodawanie do katalogów
www.publiker.pl - automatyczne dodawanie do katalogów
www.ittechnology.us - świetny blog. Mnóstwo cennych informacji
www.seoportal.pl - serwis o SEO
www.seo24.com.pl - serwis o SEO
www.forum.optymalizacja.com , http://interaktywnie.com/biznes/raporty
Książki o pozycjonowaniu
Marketing z Google.
Paweł Kobis - najlepsza, najbardziej kompleksowa
Pozycjonowanie i optymalizacja stron WWW. Jak to się robi? Bartosz Danowski, Michał Makaryk