› Tag › kody szpiegujące › 3 wyników
Kody szpiegujące – optymalizacja strony
Kategorie: How-to, Porady dla webmasterów, Pozycjonowanie strony w google, Promowanie strony/bloga, Technologie/Informatyka Dodano: 25 marca 2012 11:44
Ciągnąc dalej temat kodów wychodzących / kodów szpiegujących, nie można pominąć chyba najważniejszej kwestii czyli optymalizacji kodu.
Jeszcze jakiś czas temu, powiedzmy przed dwoma laty, projektowanie stron internetowych sprowadzało się jedynie do poprawności wizualnej, opcjonalnie standaryzacją kodu wg W3C, kilka dni spędzonych nad kursem HTML-a, podstawowe informacje o CSS, i własna strona internetowa nie stanowiła już większego problemu.
Jednak dziś, aby móc dopisać do swoich osiągnięć kolejną witrynę www, należy nico bardziej się wysilić, oprócz oprawy graficznej godnej XXI wieku, niebanalnych stylów CSS, fruwających bajerów JavaScript czy w końcu całych systemów CMS, musimy zadbać o to aby nasza strona była “dobrze zoptymalizowana” – przyjazna zarówno użytkownikowi jak i botom wyszukiwarek, tak aby użytkownik miał możliwość szybkiego i bezproblemowego dotarcia do strony.
Dziś skupimy się na powiązaniu optymalizacji strony z kodami zewnętrznymi.
Każdy kod wychodzący z naszej witryny to kolejny tzw “obiekt”, który przeglądarka musi pobrać, aby wyświetlić stronę użytkownikowi. W przypadku obiektów wewnętrznych, czyli: stylów CSS, kodów JS, obrazków, które są na serwerze razem ze stroną, przeglądarka pobiera je wszystkie hurtem, czyli w 1 sesji, co sprawia, że pobierają się dość szybko i bezproblemowo.
W przypadku obiektów wychodzących, przeglądarka jest zmuszona nawiązać całkiem nowe połączenie z serwerem, na którym dany obiekt się znajduje, pobrać go, dołączyć do strony i dopiero zabrać się za pobieranie dalszej części witryny. Jest to więc kolejne zbędne połączenie jakie wykonuje przeglądarka.
Kody szpiegujące – obiekty wychodzące, o tyle są niebezpieczne dla optymalizacji, że nigdy nie wiadomo ile dokładnie czasu będą się ładować.
Przykładów nie trzeba wcale długo szukać, wystarczy przeglądnąć kilka najpopularniejszych stron. Dość łatwo zauważymy, że jakaś strona ładuje się długo.. Jest to właśnie przyczyna kodów szpiegujących.
Podsumowując: im mniej wychodzących obiektów na naszej stronie, tym szybciej ona będzie się ładować naszym użytkownikom, oraz automatycznie tym większą popularność będzie miała nasza strona. Nie zapominajmy, że użytkownicy lubią szybkie strony!
Kody szpiegujące – cenzura internetu
Kategorie: Niebezpieczeństwo w sieci, poradniki, Porady dla webmasterów, Technologie/Informatyka Dodano: 12 marca 2012 14:48
W kolejnym artykule pokażemy jak najzwyklejsze kody zewnętrznych skryptów javascript mogą się przyczynić do łatwiejszego cenzorowania sieci.
Na początek warto przypomnieć co to są te kody szpiegujące:
– reklamy
– statystyki odwiedzin
– komponenty (liczniki)
– elementy skryptów użytkowych hostingowane na dużych serwerowniach (dobrym przykładem jest google code, które pozwala na hotlink swoich skryptów – zamiast pobierać cały skrypt na dysk, linkować w kodzie strony, uploadować na serwer, po prostu wklejamy gotowy kod html z linkiem zewnętrznym do skryptu i problem transferu oraz aktualizacji skryptu mamy z głowy)
Oczywiście nie można zapomnieć o tzn “cloud”-ingu:
– “chmury” > serwery które oferują przekierowanie całęgo ruchu z naszej witryny na globalny serwer, który np. chroni nas przed DDOC (oraz wiele wiele innych pseudoulepszeń)
Jednak przejdźmy do konkretów.. Jak rzekome ulepszenie Internetu może wpłynąć na jego cenzurę?
Fakty: Czy kiedyś zdarzyło Ci się czekać dość długo na wczytanie jakieś strony www?
W zasadzie to pytanie można by było sformułować inaczej: Ile razy zdarzyło ci się bez jakichkolwiek problemów otworzyć stronę www? 😉
Jak wynika ze statystyk, użytkownicy unikają “zamulaczy” czyli stron które się długo uruchamiają
. Jeśli ktoś ma do wyboru przeglądać np. galerie zdjęć na stronie, której wczytanie zdjęcia zajmuje 10sekund, lub stronę gdzie zdjęcie ładuje się 0.5sekundy, jest oczywiste, że wybierze tę drugą.
Teraz najciekasze, jak owo zamulanie strony przełorzyć na wymuszenie na użytkownikach przeglądanie konkretnych treści?
Okazuje się, że banalnie prosto: mając panel zarządzający sporą ilością stron internetowych, pokatalogowanych wg ścieśle określonych kategorii, grup wiekowych, profili użytkowników, itp. możemy pewne grupy witryn celowo zwolnić, aby wymusić na użytkownikach najzwyklejsze porzucenie przeglądanie konkretnych witryn i tak jakby zmusić go do porzucenia swojej idei i skierowanie go na inny typ stron www.
Przykład: Wracamy ze szkoły, pracy, jesteśmy już trochę zmęczeni, siadamy przed komputer po obiedzie, aby poczytać wiadomości, przeglądać pocztę, poszpiegować znajomych na fb, pościągać ulubioną muzykę, poczytać demoty czy dowcipy..
Wchodzimy na nasz ulubiony portal informacyjny i czekamy aż strona się załaduje.. Czekamy, czekamy, znowu czekamy… Po jakimś czasie stwierdzamy, że jednak nic z tego nie wyjdzie, mając na uwadze cały nasz harmonogram przemieszczania się w sieci, przechodzimy do kolejnego punktu czyli sprawdzamy pocztę..
Bardzo realistyczna sytuacja i jak się okazuje dość często spotykana. Efekt osiągnięty 😉 Przekierowanie użytkownika na inny kanał tematyczny.
Ktoś mógłby powiedzieć CZYŚ TY CZŁOWIEKU ZGŁUPIAŁ! PRZECIEŻ TO ŻADNA CENZURA! I TAK ODWIEDZE MOJE STRONY!
Warto pamiętać, że cenzura to nie tylko bezpośrednie zakazanie przeglądania danej treści, dożo lepszy efekt osiąga się poprzez wpływanie na użytkownika w taki sposób aby on sam stwierdził, że nie potrzebuje przeglądania danych treści. Zachaczamy już o techniki manipulacji tłumem, więc tu się zatrzymamy.
Ten artykuł miał tylko uzmysłowić, że cenzura internetu odbywa się całkowicie z innej strony niż się tego spodziewamy 😉 A dobrym sposobem aby to osiągnać są kody umieszczane coraz częściej na witrynach.
W kolejnych artykułach postaramy się pokazać inne techniki cenzurowania internetu.
Szybkość wczytywania strony – kody szpiegujące
Kategorie: Porady dla webmasterów, Pozycjonowanie strony w google, Technologie/Informatyka, Zarabianie na stronie www Dodano: 26 lutego 2012 13:07
Szybkość uruchamiania strony
Tym razem skupimy się na kodach zewnętrznych, które tak chętnie i bez żadnych zastanowień umieszczamy na swojej stronie internetowej czy blogu.
Na początek definicja kody szpiegujące. Są to kody, które po umieszczeniu w kodzie strony, uruchamiają się wraz z wejściem każdego użytkownika na witrynę, wykonują określone operacje (pobierają wszystkie możliwe informacje o użytkowniku, przetwarzają je oraz wyrzucają jakiś rezultat swojej pracy w postaci obrazka z licznikiem odwiedzin, lub też działają całkowicie “w tle”).
Przykłady:
1. Najbardziej oczywistym przykłądem jest gigant Google, którego produkty: Google analytics, Google adsense, Google apps, są niezwykle chętnie aprobowane przez webmasterów.
2. Systemy statystyk internetowych: stat4u, stat24, itp.
3. Darmowe licnziki online, komponenty jako “iframe” (np. nowy kod playerka youtube), oraz wszelkiego rodzaju skrypty “javascript” .
4. Reklamy
Zalety?
Chyba oczywiste 😉 Szybki, ładny i przejrzysty panel do zarządzania wszystkimi witrynami oraz aktualny podgląd na liczbę użytkowników.. Zarabianie na reklamach.. Nowe usługi: poczta w domenie.. Można wymieniać i wymieniać…
Wady?
W tym artykule skupimy się na jednej z wielu wad posiadania kodów zewnętrznych – zmniejszenie wydajności witryny!
Każdy kod zewnętrzny (uruchamiany z zewnętrznego serwera) musi się uruchomić w przeglądarce użytkownika. Jest to o tyle ważne, bo czas wczytywania strony (od strony użytkownika, który odwiedza stronę/blog) wydłuża się dodatkowo o kolejne nadmiarowe części sekundy. Efekt tego jest następujący:
Użytkownik wchodzi na stronę i po załadowaniu się treści, które go najbardziej interesują, w jego pasku postępu uruchamiania danej strony, pojawiają się dziwne adresy, które czasami nawet kilka sekund uniemożliwiają prawidłowe przeglądanie witryny. Dopiero gdy wszystkie kody zewnętrzne się załadują, przeglądarka pozwala na wykonanie się załadowanego javascript, na co reakcja przeglądarki jest najczęściej zauważalna w postaci chwilowego “zacięcia sie”, po czym dopiero można przeglądać stronę www.
Od połowy roku 2011 największa wyszukiwarka internetowa – Google wprowadziła w swój algorytm promowanie stron “szybkich” czyli takich, których czas uruchamiania jest mniejszy od 2sekund (80% witryn). Zakładając, że przeciętny kod szpiegujący (reklama, statystyki odwiedzin) wczytują się w najlepszym przypadku około sekundy, już na samym starcie połowę dopuszczalnego limitu mamy z głowy.. Wystarczą skromne statystyki odwiedzin, kilka reklam i nasza strona wędruje do rankingu internetowych “zamulaczy”..
Jak się przed tym uchronić?
Wyjściem może być np. instalacja systemu statystyk ruchu na wewnętrznym serwerze, tak aby serwer przyjmujący ruch generował nam statystyki odwiedzin (chcąc nie chcąc i tak to robi 😉 więc kwestia jest tylko w dostępnie do tych treści). Kolejnym wartym przemyślenia faktem jest rezygnacja ze “Standardowych” reklam zaśmiecających witrynę i drażniących chyba wszystkich użytkowników, w skłonienie się w stronę niestandardowych form pozyskiwania kapitału, np. sms, konta VIP, płatne subskrypcje, promocja gadżetów reklamowych, czy coraz bardziej popularne “dotacje dla autora”. Zobacz jak zarabiać na stronie oraz jak reklamować stronę
W kolejnych artykułach będziemy omawiać wpływ kodów szpiegujących na kontrolę ruchu w sieci oraz cenzurowanie internetu za pomocą kodów szpiegujących!
Gorąco zachęcamy do subskrypcji bloga – RSS, oraz odwiedzin.