› Kategoria › Technologie/Informatyka

Google mail poniżej oczekiwań klientów i użytkowników

Jeszcze jakiś czas temu Google słynęło jako potentat nowoych technologii, które sukcesywnie podbijały rynek. Od czasu do czasu pojawiały się kompletnie nieudane projekty, jednak dość szybko znikały one z pozycji usług giganta.

Czy Google Mail podzieli los innych nieudanych usług?

Na początek krótki przedstawienie usługi: Google w ramach “skrzynki elektronicznej” zapewnia obsługę naszych wiadomości e-mailowych. Rejestracja nie odbiega zbytnio od pozostałych, konkurencyjnych usług, podajemy adres i w przeciągu kilku chwil cieszymy się naszym nowym adresem pocztowym..

XXI wiek, masa poradników w sieci na temat konfiguracji własnej skrzynki pocztowej raczej nie służa Google 🙂 Gdy usługa była zdrażana na polski rynek, internauci jeszcze nie zdążyli dobrze obejść się z ofertami onetu, interii czy wirtualnej polski. Tłumaczy to aż taki sukces gmail-a.
Google mail nie odbiega niczym od amatorskich skrzynek pocztowych.

Szyfrowanie danych, obsługa antyspamowa, brak limitu transferu, kilku-gigobajotwa przestrzeń dyskowa, to główne “walory” google mail-a. Spójrzmy jednak na rzeczywistość.. Przeciętna firma posiadająca własny serwer, może sobie taką poczŧę utworzyć w mniej niż kilka minut i wcale nie wymaga to od niej informatycznych zdolności..

Większość użytkowników gmaila chwali sobie filtry antyspamowe.. Faktycznie skrzynka jest w większości przypadków wolna od spamu, lecz jakie są tego konsekwencje? Można się o tym przekonać mailując często z obsługą klienta różnych mniejszych firm.. np. kupiliśmy przedmiot na małym portalu aukcyjnym, podaliśmy swoje dane i czekamy na odpowiedź z terminem wysyłki itp.. Próżno się takiego maila doczekać, od strony obsługi sklepu nasz mail będzie po prostu niedostępny i traktowany na równi z podaniem niewłaściwego adresu..

Kolejny przykład to mailowanie w celu uzyskania jakieś porady przez biuro obsługi firm usługowych. Jak każdy zapewne wie, wymiana zdań może rozciągnąć się nawet na kilkanaście maili, bardzo łatwo można sobie wyobrazić, że np. połowa maili do nas nie dotrze 😉 – nie jest to żadkość w przypadku google mail, lecz smutna rzeczywistość..

 

Dorzucając do tego wręcz śmieszne limity googla w przypadku oferty dla firm, otrzymujemy prawdziwe oblicze Google Mail-a..

Czy można się spodziewać powolnej śmierci usługi google mail?

Spece Googla od marketingu zapewne przeanalizowali problem od potrzewki, więc nie spodziewajmy się jakichkolwiek zmian 😉 Google ma wnakomitą renomę i teraz tę renomę wykorzystuje do własnych celów i maxymalizacji zysków..

 

Google zarabia na naszych e-mailach.

Od czasu zmiany polityki prywatności przez google, wszystkie konta = usługi google są powiązane wspólnym kontem. Oznacza to tyle, że wpis w kalendarzu google, wpisana fraza w wyszukiwarce, czy wysłany e-mail są traktowane na równi i przynoszą dość obszernych informacji o użytkowniku. Informacje te są przetwarzane i na ich podstawie generowany jest “profil klienta” (takie właśnie przetwarzanie to ostatnio szczyt mody na polskim rynku mediów elektronicznych).

Kwiestią czasu jest fakt, kiedy przeglądając strony w sieci natchniemy się na reklamy Google Adsense, w których zobaczymy ofertę firmy, z którą chwilę temu mailowaliśmy, lub ofertę sklepu z meblami, w którym znajdziemy biórko, polubione na g+…

 

Oczywiście wszystko w imię dobra klientów 😉

Kody szpiegujące – optymalizacja strony

Ciągnąc dalej temat kodów wychodzących / kodów szpiegujących, nie można pominąć chyba najważniejszej kwestii czyli optymalizacji kodu.

Jeszcze jakiś czas temu, powiedzmy przed dwoma laty, projektowanie stron internetowych sprowadzało się jedynie do poprawności wizualnej, opcjonalnie standaryzacją kodu wg W3C, kilka dni spędzonych nad kursem HTML-a, podstawowe informacje o CSS, i własna strona internetowa nie stanowiła już większego problemu.

 

Jednak dziś, aby móc dopisać do swoich osiągnięć kolejną witrynę www, należy nico bardziej się wysilić, oprócz oprawy graficznej godnej XXI wieku, niebanalnych stylów CSS, fruwających bajerów JavaScript czy w końcu całych systemów CMS, musimy zadbać o to aby nasza strona była “dobrze zoptymalizowana” – przyjazna zarówno użytkownikowi jak i botom wyszukiwarek, tak aby użytkownik miał możliwość szybkiego i bezproblemowego dotarcia do strony.

 

Dziś skupimy się na powiązaniu optymalizacji strony z kodami zewnętrznymi.

Każdy kod wychodzący z naszej witryny to kolejny tzw “obiekt”, który przeglądarka musi pobrać, aby wyświetlić stronę użytkownikowi. W przypadku obiektów wewnętrznych, czyli: stylów CSS, kodów JS, obrazków, które są na serwerze razem ze stroną, przeglądarka pobiera je wszystkie hurtem, czyli w 1 sesji, co sprawia, że pobierają się dość szybko i bezproblemowo.

W przypadku obiektów wychodzących, przeglądarka jest zmuszona nawiązać całkiem nowe połączenie z serwerem, na którym dany obiekt się znajduje, pobrać go, dołączyć do strony i dopiero zabrać się za pobieranie dalszej części witryny. Jest to więc kolejne zbędne połączenie jakie wykonuje przeglądarka.

 

Kody szpiegujące – obiekty wychodzące, o tyle są niebezpieczne dla optymalizacji, że nigdy nie wiadomo ile dokładnie czasu będą się ładować.

Przykładów nie trzeba wcale długo szukać, wystarczy przeglądnąć kilka najpopularniejszych stron. Dość łatwo zauważymy, że jakaś strona ładuje się długo.. Jest to właśnie przyczyna kodów szpiegujących.

 

Podsumowując: im mniej wychodzących obiektów na naszej stronie, tym szybciej ona będzie się ładować naszym użytkownikom, oraz automatycznie tym większą popularność będzie miała nasza strona. Nie zapominajmy, że użytkownicy lubią szybkie strony!

 

Kody szpiegujące – cenzura internetu


W kolejnym artykule pokażemy jak najzwyklejsze kody zewnętrznych skryptów javascript mogą się przyczynić do łatwiejszego cenzorowania sieci.

Na początek warto przypomnieć co to są te kody szpiegujące:

– reklamy
– statystyki odwiedzin
– komponenty (liczniki)

– elementy skryptów użytkowych hostingowane na dużych serwerowniach (dobrym przykładem jest google code, które pozwala na hotlink swoich skryptów – zamiast pobierać cały skrypt na dysk, linkować w kodzie strony, uploadować na serwer, po prostu wklejamy gotowy kod html z linkiem zewnętrznym do skryptu i problem transferu oraz aktualizacji skryptu mamy z głowy)

Oczywiście nie można zapomnieć o tzn “cloud”-ingu:

– “chmury” > serwery które oferują przekierowanie całęgo ruchu z naszej witryny na globalny serwer, który np. chroni nas przed DDOC (oraz wiele wiele innych pseudoulepszeń)

Jednak przejdźmy do konkretów.. Jak rzekome ulepszenie Internetu może wpłynąć na jego cenzurę?

Fakty: Czy kiedyś zdarzyło Ci się czekać dość długo na wczytanie jakieś strony www?

W zasadzie to pytanie można by było sformułować inaczej: Ile razy zdarzyło ci się bez jakichkolwiek problemów otworzyć stronę www? 😉

Jak wynika ze statystyk, użytkownicy unikają “zamulaczy” czyli stron które się długo uruchamiają
. Jeśli ktoś ma do wyboru przeglądać np. galerie zdjęć na stronie, której wczytanie zdjęcia zajmuje 10sekund, lub stronę gdzie zdjęcie ładuje się 0.5sekundy, jest oczywiste, że wybierze tę drugą.

Teraz najciekasze, jak owo zamulanie strony przełorzyć na wymuszenie na użytkownikach przeglądanie konkretnych treści?

Okazuje się, że banalnie prosto: mając panel zarządzający sporą ilością stron internetowych, pokatalogowanych wg ścieśle określonych kategorii, grup wiekowych, profili użytkowników, itp. możemy pewne grupy witryn celowo zwolnić, aby wymusić na użytkownikach najzwyklejsze porzucenie przeglądanie konkretnych witryn i tak jakby zmusić go do porzucenia swojej idei i skierowanie go na inny typ stron www.

Przykład: Wracamy ze szkoły, pracy, jesteśmy już trochę zmęczeni, siadamy przed komputer po obiedzie, aby poczytać wiadomości, przeglądać pocztę, poszpiegować znajomych na fb, pościągać ulubioną muzykę, poczytać demoty czy dowcipy..

Wchodzimy na nasz ulubiony portal informacyjny i czekamy aż strona się załaduje.. Czekamy, czekamy, znowu czekamy… Po jakimś czasie stwierdzamy, że jednak nic z tego nie wyjdzie, mając na uwadze cały nasz harmonogram przemieszczania się w sieci, przechodzimy do kolejnego punktu czyli sprawdzamy pocztę..

Bardzo realistyczna sytuacja i jak się okazuje dość często spotykana. Efekt osiągnięty 😉 Przekierowanie użytkownika na inny kanał tematyczny.

Ktoś mógłby powiedzieć CZYŚ TY CZŁOWIEKU ZGŁUPIAŁ! PRZECIEŻ TO ŻADNA CENZURA! I TAK ODWIEDZE MOJE STRONY!

Warto pamiętać, że cenzura to nie tylko bezpośrednie zakazanie przeglądania danej treści, dożo lepszy efekt osiąga się poprzez wpływanie na użytkownika w taki sposób aby on sam stwierdził, że nie potrzebuje przeglądania danych treści. Zachaczamy już o techniki manipulacji tłumem, więc tu się zatrzymamy.

Ten artykuł miał tylko uzmysłowić, że cenzura internetu odbywa się całkowicie z innej strony niż się tego spodziewamy 😉 A dobrym sposobem aby to osiągnać są kody umieszczane coraz częściej na witrynach.

W kolejnych artykułach postaramy się pokazać inne techniki cenzurowania internetu.

Szybkość wczytywania strony – kody szpiegujące

Szybkość uruchamiania strony Szybkość uruchamiania strony

Tym razem skupimy się na kodach zewnętrznych, które tak chętnie i bez żadnych zastanowień umieszczamy na swojej stronie internetowej czy blogu.

Na początek definicja kody szpiegujące. Są to kody, które po umieszczeniu w kodzie strony, uruchamiają się wraz z wejściem każdego użytkownika na witrynę, wykonują określone operacje (pobierają wszystkie możliwe informacje o użytkowniku, przetwarzają je oraz wyrzucają jakiś rezultat swojej pracy w postaci obrazka z licznikiem odwiedzin, lub też działają całkowicie “w tle”).

Przykłady:

1. Najbardziej oczywistym przykłądem jest gigant Google, którego produkty: Google analytics, Google adsense, Google apps, są niezwykle chętnie aprobowane przez webmasterów.

2. Systemy statystyk internetowych: stat4u, stat24, itp.

3. Darmowe licnziki online, komponenty jako “iframe” (np. nowy kod playerka youtube), oraz wszelkiego rodzaju skrypty “javascript” .

4. Reklamy

 

Zalety?

Chyba oczywiste 😉 Szybki, ładny i przejrzysty panel do zarządzania wszystkimi witrynami oraz aktualny podgląd na liczbę użytkowników.. Zarabianie na reklamach.. Nowe usługi: poczta w domenie.. Można wymieniać i wymieniać…

 

Wady?

W tym artykule skupimy się na jednej z wielu wad posiadania kodów zewnętrznych – zmniejszenie wydajności witryny!

Każdy kod zewnętrzny (uruchamiany z zewnętrznego serwera) musi się uruchomić w przeglądarce użytkownika. Jest to o tyle ważne, bo czas wczytywania strony (od strony użytkownika, który odwiedza stronę/blog) wydłuża się dodatkowo o kolejne nadmiarowe części sekundy. Efekt tego jest następujący:

Użytkownik wchodzi na stronę i po załadowaniu się treści, które go najbardziej interesują, w jego pasku postępu uruchamiania danej strony, pojawiają się dziwne adresy, które czasami nawet kilka sekund uniemożliwiają prawidłowe przeglądanie witryny. Dopiero gdy wszystkie kody zewnętrzne się załadują, przeglądarka pozwala na wykonanie się załadowanego javascript, na co reakcja przeglądarki jest najczęściej zauważalna w postaci chwilowego “zacięcia sie”, po czym dopiero można przeglądać stronę www.

Od połowy roku 2011 największa wyszukiwarka internetowa – Google wprowadziła w swój algorytm promowanie stron “szybkich” czyli takich, których czas uruchamiania jest mniejszy od 2sekund (80% witryn). Zakładając, że przeciętny kod szpiegujący (reklama, statystyki odwiedzin) wczytują się w najlepszym przypadku około sekundy, już na samym starcie połowę dopuszczalnego limitu mamy z głowy.. Wystarczą skromne statystyki odwiedzin, kilka reklam i nasza strona wędruje do rankingu internetowych “zamulaczy”..

 

Jak się przed tym uchronić?

Wyjściem może być np. instalacja systemu statystyk ruchu na wewnętrznym serwerze, tak aby serwer przyjmujący ruch generował nam statystyki odwiedzin (chcąc nie chcąc i tak to robi 😉 więc kwestia jest tylko w dostępnie do tych treści). Kolejnym wartym przemyślenia faktem jest rezygnacja ze “Standardowych” reklam zaśmiecających witrynę i drażniących chyba wszystkich użytkowników, w skłonienie się w stronę niestandardowych form pozyskiwania kapitału, np. sms, konta VIP, płatne subskrypcje, promocja gadżetów reklamowych, czy coraz bardziej popularne “dotacje dla autora”. Zobacz jak zarabiać na stronie oraz jak reklamować stronę

 

W kolejnych artykułach będziemy omawiać wpływ kodów szpiegujących na kontrolę ruchu w sieci oraz cenzurowanie internetu za pomocą kodów szpiegujących!

Gorąco zachęcamy do subskrypcji bloga – RSS, oraz odwiedzin.

Kurs css

  • Kurs CSS dla niecierpliwych [cz 1/2]

    Co to jest CSS, po co go używać, jak go używać.. CSS - stylizowanie różnych elementów HTML, inaczej mówiąc: wizualizowanie/nadawanie odpowiedniego wyglądu strony www. Zaczynając kurs…

  • Kurs CSS dla niecierpliwych [cz 2/2]

    Kontynuacja przyspieszonego kursu dla niecierpliwych. Część 1/2 - Kurs CSS dla niecierpliwych 1/2 Zakładam, że znasz lub zapoznałeś/aś się już wstępnie z podstawami HTML, wiesz do czego…