› Kategoria › Pozycjonowanie strony w google

Strona internetowa – mobilna czy responsywna?

Strona internetowa – mobilna czy responsywna?

Konieczność tworzenia użytecznych stron internetowych zgodnie z zasadami Responsive Web Design (RWD) nie powinna nikogo dziwić. Coraz większy ruch w sieci pochodzący z urządzeń mobilnych sprawia, że Google niejako wymusza na stronach internetowych bycia przyjaznymi dla smartfonów i tabletów.

Czym jest Responsive Web Design ?

RWD jest metodą projektowania stron internetowych, w ramach której wykorzystuje się style CSS oraz reguł Media Queries. Służą one do modyfikacji układu witryny, który dopasowuje się do środowiska, rozdzielczości, rozmiaru, a także orientacji ekranu. Oznacza to, że jedna i ta sama strona internetowa będzie odpowiednio wyświetlać się na każdym urządzeniu, jednocześnie posiadając ten sam adres URL, treść i kod HTML.  czytaj całość

Katalog elitarnych stron www

Dziś został uruchomiony nasz darmowy i otwarty katalog stron www! Jak wiadomo katalog stron to doskonała metoda promocji strony www oraz zdobycia cennego linka przychodzącego.

Spośród różnych typów katalogu wybraliśmy model, który jest najbardziej efektywny (najlepsze efekty SEO) oraz przyjazny dla użytkowników – wordpress.

Aby uniknąć “spamu” oraz niskiej jakości wpisów wprowadziliśmy konieczność umieszczenia linka zwrotnego do katalogu oraz filtrowanie dodanych stron.

Preferowaną metodą dodawania wpisu jest wymiana “artykuł za artykuł” : dodajesz na swojej stronie artykuł, podstronę np. “piszą o nas”, na której umieszczasz link zwrotny do katalogu. W zamian otrzymujesz pełno wartościowy wpis do katalogu.

Prosto, szybko i za darmo 😉

Przejdź do katalogu  czytaj całość

[html] Ukrywanie linków w Google

Prosty, szybki, skuteczny i przede wszystkim legalny sposób na ukrycie linków w wyszukiwarce google.

Dlaczego ukrywać linki przed wujem Google? Oczywiście ukrywanie linków nie jest dozwoloną praktyką, ale niektóre linki np. nie są całkowicie związane z tematyką strony (button statystyk odwiedzin), lub są zaczepione o banner reklamowy, itp..

W takich przypadkach Google pozwala na dodanie atrybutu, dzięki któremu silnik wyszukiwarki traktuje link jako “odnośnik bez pokrycia” czyli praktycznie brak odnośnika. Takim atrybutem jest rel=”nofollow”.

Jednak nawet po dodaniu rel-a większość botów (np. systemy wymiany linków) nadal będzie traktować link jako “zwykły link wychodzący” obniżający wartość SEO strony. Jest na to prosty sposób! Wystarczy…  czytaj całość

Katalog wartościowych stron

Zaznaczenie_006
Obecnie katalogów stron www jest cała masa.. Nie ma takiego dużego katalogu stron, który pomieściłby wszystkie katalogi stron 😉 Powstawanie nowych katalogów z zastraszającym tempie przyhamowało samo Google, ograniczając “moc pozycjonującą” katalogów praktycznie do minimum.

Obecnie na wartości zyskują prywatne, płatne lub elitarne katalogi stron, które skupiają swoją działalność na katalogowaniu tylko tych stron, które spełniają określone warunki tematyczne.   czytaj całość

[php] wyświetlanie RSS na stronie internetowej

Prosty i funkcjonalny skrypt PHP wyświetlający kanał RSS dowolnej strony internetowej.

Dodatkowo kod JavaScript do wyświetlania RSS na stronach z systemami CMS (PHPfusion, Joomla), blogami, forami dyskusyjnymi, itp.
  czytaj całość

google oczyszcza internet?

Niemal wszystkie blogi oraz fora o pozycjonowaniu wręcz krzyczą o nowych zmianach w silniku wyszukiwarki google. Niecały rok temu dostało się farmom linków, pół roku temu duża część stron internetowych musiała zostać gruntownie zoptymalizowanych. Teraz google nakłada na webmasterów kolejne utrudnienie w walce o wysokie pozycje w wynikach wyszukiwania.

Od kilku dni wartość wszystkich typowo zapleczowych stron gwałtownie poszybowała w dół. Już nie wystarczy zwykły skrypt generujący portal, czy samo prowadzący się blog, lub też niczym nie wyróżniające się forum, precel, katalog stron itp.. Wszystkie strony, które na 1szy rzut oka wyglądają na strony zapleczowe – straciły na wartości, nawet do 80% !

  czytaj całość

Kody szpiegujące – optymalizacja strony

Ciągnąc dalej temat kodów wychodzących / kodów szpiegujących, nie można pominąć chyba najważniejszej kwestii czyli optymalizacji kodu.

Jeszcze jakiś czas temu, powiedzmy przed dwoma laty, projektowanie stron internetowych sprowadzało się jedynie do poprawności wizualnej, opcjonalnie standaryzacją kodu wg W3C, kilka dni spędzonych nad kursem HTML-a, podstawowe informacje o CSS, i własna strona internetowa nie stanowiła już większego problemu.

 

Jednak dziś, aby móc dopisać do swoich osiągnięć kolejną witrynę www, należy nico bardziej się wysilić, oprócz oprawy graficznej godnej XXI wieku, niebanalnych stylów CSS, fruwających bajerów JavaScript czy w końcu całych systemów CMS, musimy zadbać o to aby nasza strona była “dobrze zoptymalizowana” – przyjazna zarówno użytkownikowi jak i botom wyszukiwarek, tak aby użytkownik miał możliwość szybkiego i bezproblemowego dotarcia do strony.

 

Dziś skupimy się na powiązaniu optymalizacji strony z kodami zewnętrznymi.

Każdy kod wychodzący z naszej witryny to kolejny tzw “obiekt”, który przeglądarka musi pobrać, aby wyświetlić stronę użytkownikowi. W przypadku obiektów wewnętrznych, czyli: stylów CSS, kodów JS, obrazków, które są na serwerze razem ze stroną, przeglądarka pobiera je wszystkie hurtem, czyli w 1 sesji, co sprawia, że pobierają się dość szybko i bezproblemowo.

W przypadku obiektów wychodzących, przeglądarka jest zmuszona nawiązać całkiem nowe połączenie z serwerem, na którym dany obiekt się znajduje, pobrać go, dołączyć do strony i dopiero zabrać się za pobieranie dalszej części witryny. Jest to więc kolejne zbędne połączenie jakie wykonuje przeglądarka.

 

Kody szpiegujące – obiekty wychodzące, o tyle są niebezpieczne dla optymalizacji, że nigdy nie wiadomo ile dokładnie czasu będą się ładować.

Przykładów nie trzeba wcale długo szukać, wystarczy przeglądnąć kilka najpopularniejszych stron. Dość łatwo zauważymy, że jakaś strona ładuje się długo.. Jest to właśnie przyczyna kodów szpiegujących.

 

Podsumowując: im mniej wychodzących obiektów na naszej stronie, tym szybciej ona będzie się ładować naszym użytkownikom, oraz automatycznie tym większą popularność będzie miała nasza strona. Nie zapominajmy, że użytkownicy lubią szybkie strony!

 

Szybkość wczytywania strony – kody szpiegujące

Szybkość uruchamiania strony Szybkość uruchamiania strony

Tym razem skupimy się na kodach zewnętrznych, które tak chętnie i bez żadnych zastanowień umieszczamy na swojej stronie internetowej czy blogu.

Na początek definicja kody szpiegujące. Są to kody, które po umieszczeniu w kodzie strony, uruchamiają się wraz z wejściem każdego użytkownika na witrynę, wykonują określone operacje (pobierają wszystkie możliwe informacje o użytkowniku, przetwarzają je oraz wyrzucają jakiś rezultat swojej pracy w postaci obrazka z licznikiem odwiedzin, lub też działają całkowicie “w tle”).

Przykłady:

1. Najbardziej oczywistym przykłądem jest gigant Google, którego produkty: Google analytics, Google adsense, Google apps, są niezwykle chętnie aprobowane przez webmasterów.

2. Systemy statystyk internetowych: stat4u, stat24, itp.

3. Darmowe licnziki online, komponenty jako “iframe” (np. nowy kod playerka youtube), oraz wszelkiego rodzaju skrypty “javascript” .

4. Reklamy

 

Zalety?

Chyba oczywiste 😉 Szybki, ładny i przejrzysty panel do zarządzania wszystkimi witrynami oraz aktualny podgląd na liczbę użytkowników.. Zarabianie na reklamach.. Nowe usługi: poczta w domenie.. Można wymieniać i wymieniać…

 

Wady?

W tym artykule skupimy się na jednej z wielu wad posiadania kodów zewnętrznych – zmniejszenie wydajności witryny!

Każdy kod zewnętrzny (uruchamiany z zewnętrznego serwera) musi się uruchomić w przeglądarce użytkownika. Jest to o tyle ważne, bo czas wczytywania strony (od strony użytkownika, który odwiedza stronę/blog) wydłuża się dodatkowo o kolejne nadmiarowe części sekundy. Efekt tego jest następujący:

Użytkownik wchodzi na stronę i po załadowaniu się treści, które go najbardziej interesują, w jego pasku postępu uruchamiania danej strony, pojawiają się dziwne adresy, które czasami nawet kilka sekund uniemożliwiają prawidłowe przeglądanie witryny. Dopiero gdy wszystkie kody zewnętrzne się załadują, przeglądarka pozwala na wykonanie się załadowanego javascript, na co reakcja przeglądarki jest najczęściej zauważalna w postaci chwilowego “zacięcia sie”, po czym dopiero można przeglądać stronę www.

Od połowy roku 2011 największa wyszukiwarka internetowa – Google wprowadziła w swój algorytm promowanie stron “szybkich” czyli takich, których czas uruchamiania jest mniejszy od 2sekund (80% witryn). Zakładając, że przeciętny kod szpiegujący (reklama, statystyki odwiedzin) wczytują się w najlepszym przypadku około sekundy, już na samym starcie połowę dopuszczalnego limitu mamy z głowy.. Wystarczą skromne statystyki odwiedzin, kilka reklam i nasza strona wędruje do rankingu internetowych “zamulaczy”..

 

Jak się przed tym uchronić?

Wyjściem może być np. instalacja systemu statystyk ruchu na wewnętrznym serwerze, tak aby serwer przyjmujący ruch generował nam statystyki odwiedzin (chcąc nie chcąc i tak to robi 😉 więc kwestia jest tylko w dostępnie do tych treści). Kolejnym wartym przemyślenia faktem jest rezygnacja ze “Standardowych” reklam zaśmiecających witrynę i drażniących chyba wszystkich użytkowników, w skłonienie się w stronę niestandardowych form pozyskiwania kapitału, np. sms, konta VIP, płatne subskrypcje, promocja gadżetów reklamowych, czy coraz bardziej popularne “dotacje dla autora”. Zobacz jak zarabiać na stronie oraz jak reklamować stronę

 

W kolejnych artykułach będziemy omawiać wpływ kodów szpiegujących na kontrolę ruchu w sieci oraz cenzurowanie internetu za pomocą kodów szpiegujących!

Gorąco zachęcamy do subskrypcji bloga – RSS, oraz odwiedzin.

Blog webmasterski

Witamy wszystkich na blogu webmasterskim webowiec.net

 

Na blogu będziemy umieszczać najnowsze infromacje związane z Internetem a w szczególności z tworzeniem stron www. Tworzenie stron internetowych oraz darmowe komponenty na stronę www to nasze piorytety.

 

Blog stanowi element strony webowiec.net, na której wcześniej mogliście znaleść między innymi:

darmowe szablony stron www

darmowe porady webmasterskie

liczniki stron www

liczniki online na stronę www

oraz wiele innych, równie ciekawych wtyczek i skryptów na własną stronę, bloga, portal.

 

Tematyka strony będzie oczywiście w pełni zachowana!

Postaramy się na bieżąco informować Was, drodzy użytkownicy webowiec.net o wszystkich nowościach w funkcjonalności serwisu!

 

Zapraszamy do odwiedzin, niebawem serwis będzie uzupełniony wyżej wymienionymi działami.

 

Ogłaszamy nabór!!

Chcesz zostać redaktorem? Skontaktuj się z nami > KONTAKT

Kurs css

  • Kurs CSS dla niecierpliwych [cz 1/2]

    Co to jest CSS, po co go używać, jak go używać.. CSS - stylizowanie różnych elementów HTML, inaczej mówiąc: wizualizowanie/nadawanie odpowiedniego wyglądu strony www. Zaczynając kurs…

  • Kurs CSS dla niecierpliwych [cz 2/2]

    Kontynuacja przyspieszonego kursu dla niecierpliwych. Część 1/2 - Kurs CSS dla niecierpliwych 1/2 Zakładam, że znasz lub zapoznałeś/aś się już wstępnie z podstawami HTML, wiesz do czego…