› Webmaster Blog

[php] wyświetlanie RSS na stronie internetowej

Prosty i funkcjonalny skrypt PHP wyświetlający kanał RSS dowolnej strony internetowej.

Dodatkowo kod JavaScript do wyświetlania RSS na stronach z systemami CMS (PHPfusion, Joomla), blogami, forami dyskusyjnymi, itp.
  czytaj całość

[linux] Export okładki z pliku mp3

Bardzo prosty sposób na wyjęcie okładki / albumu (FRONT_COVER) z pliku audio mp3.

  czytaj całość

Kurs CSS dla niecierpliwych [cz 2/2]

Kontynuacja przyspieszonego kursu dla niecierpliwych. Część 1/2 – Kurs CSS dla niecierpliwych 1/2

Zakładam, że znasz lub zapoznałeś/aś się już wstępnie z podstawami HTML, wiesz do czego on służy i co się z nim robi 😉 Zakładam również, że wiesz co kryje się pod pojęciem CSS. Jeśli tak nie jest, zapraszam do pierwszej części kursu: kurs css 1/2.

W 2giej części skupię się na połączeniem CSS z HTML. Powiem o tym jak połączyć styl CSS z kodem HTML w prosty i przejrzysty sposób, oraz kilka przydatnych rzeczy dla początkujących.

  czytaj całość

Kurs CSS dla niecierpliwych [cz 1/2]

Co to jest CSS, po co go używać, jak go używać..
CSS – stylizowanie różnych elementów HTML, inaczej mówiąc: wizualizowanie/nadawanie odpowiedniego wyglądu strony www.

Zaczynając kurs CSS (nawet ten, przyspieszony) zakłądam, że znasz podstawowy HTML (a – link, b – pogrubienie, itp). Jeśli tak nie jest, po prostu przeczytaj kurs i spróbuj je poznać, w środkowej części kursu będzie nawiązanie do niektórych znacnzików HTML-a.

  czytaj całość

Google mail poniżej oczekiwań klientów i użytkowników

Jeszcze jakiś czas temu Google słynęło jako potentat nowoych technologii, które sukcesywnie podbijały rynek. Od czasu do czasu pojawiały się kompletnie nieudane projekty, jednak dość szybko znikały one z pozycji usług giganta.

Czy Google Mail podzieli los innych nieudanych usług?

Na początek krótki przedstawienie usługi: Google w ramach “skrzynki elektronicznej” zapewnia obsługę naszych wiadomości e-mailowych. Rejestracja nie odbiega zbytnio od pozostałych, konkurencyjnych usług, podajemy adres i w przeciągu kilku chwil cieszymy się naszym nowym adresem pocztowym..

XXI wiek, masa poradników w sieci na temat konfiguracji własnej skrzynki pocztowej raczej nie służa Google 🙂 Gdy usługa była zdrażana na polski rynek, internauci jeszcze nie zdążyli dobrze obejść się z ofertami onetu, interii czy wirtualnej polski. Tłumaczy to aż taki sukces gmail-a.
Google mail nie odbiega niczym od amatorskich skrzynek pocztowych.

Szyfrowanie danych, obsługa antyspamowa, brak limitu transferu, kilku-gigobajotwa przestrzeń dyskowa, to główne “walory” google mail-a. Spójrzmy jednak na rzeczywistość.. Przeciętna firma posiadająca własny serwer, może sobie taką poczŧę utworzyć w mniej niż kilka minut i wcale nie wymaga to od niej informatycznych zdolności..

Większość użytkowników gmaila chwali sobie filtry antyspamowe.. Faktycznie skrzynka jest w większości przypadków wolna od spamu, lecz jakie są tego konsekwencje? Można się o tym przekonać mailując często z obsługą klienta różnych mniejszych firm.. np. kupiliśmy przedmiot na małym portalu aukcyjnym, podaliśmy swoje dane i czekamy na odpowiedź z terminem wysyłki itp.. Próżno się takiego maila doczekać, od strony obsługi sklepu nasz mail będzie po prostu niedostępny i traktowany na równi z podaniem niewłaściwego adresu..

Kolejny przykład to mailowanie w celu uzyskania jakieś porady przez biuro obsługi firm usługowych. Jak każdy zapewne wie, wymiana zdań może rozciągnąć się nawet na kilkanaście maili, bardzo łatwo można sobie wyobrazić, że np. połowa maili do nas nie dotrze 😉 – nie jest to żadkość w przypadku google mail, lecz smutna rzeczywistość..

 

Dorzucając do tego wręcz śmieszne limity googla w przypadku oferty dla firm, otrzymujemy prawdziwe oblicze Google Mail-a..

Czy można się spodziewać powolnej śmierci usługi google mail?

Spece Googla od marketingu zapewne przeanalizowali problem od potrzewki, więc nie spodziewajmy się jakichkolwiek zmian 😉 Google ma wnakomitą renomę i teraz tę renomę wykorzystuje do własnych celów i maxymalizacji zysków..

 

Google zarabia na naszych e-mailach.

Od czasu zmiany polityki prywatności przez google, wszystkie konta = usługi google są powiązane wspólnym kontem. Oznacza to tyle, że wpis w kalendarzu google, wpisana fraza w wyszukiwarce, czy wysłany e-mail są traktowane na równi i przynoszą dość obszernych informacji o użytkowniku. Informacje te są przetwarzane i na ich podstawie generowany jest “profil klienta” (takie właśnie przetwarzanie to ostatnio szczyt mody na polskim rynku mediów elektronicznych).

Kwiestią czasu jest fakt, kiedy przeglądając strony w sieci natchniemy się na reklamy Google Adsense, w których zobaczymy ofertę firmy, z którą chwilę temu mailowaliśmy, lub ofertę sklepu z meblami, w którym znajdziemy biórko, polubione na g+…

 

Oczywiście wszystko w imię dobra klientów 😉

google oczyszcza internet?

Niemal wszystkie blogi oraz fora o pozycjonowaniu wręcz krzyczą o nowych zmianach w silniku wyszukiwarki google. Niecały rok temu dostało się farmom linków, pół roku temu duża część stron internetowych musiała zostać gruntownie zoptymalizowanych. Teraz google nakłada na webmasterów kolejne utrudnienie w walce o wysokie pozycje w wynikach wyszukiwania.

Od kilku dni wartość wszystkich typowo zapleczowych stron gwałtownie poszybowała w dół. Już nie wystarczy zwykły skrypt generujący portal, czy samo prowadzący się blog, lub też niczym nie wyróżniające się forum, precel, katalog stron itp.. Wszystkie strony, które na 1szy rzut oka wyglądają na strony zapleczowe – straciły na wartości, nawet do 80% !

  czytaj całość

Cenzura w Internecie – “nielagalne” mp3

mp3Strony, które umożliwiają publikowanie nieautoryzowanych plików, powinny być niżej pozycjonowane w wyszukiwarkach – takie propozycje przedstawili posiadacze praw autorskich w Wielkiej Brytanii, a padły one w trakcie poufnych rozmów, wspieranych przez organizację rządową. Wygląda na to, że tego rodzaju tajemnice ma coraz więcej rządów w Europie.

Takimi słowami dziennik internautów zaczyna temat cenzury w wynikach wyszukiwania. Przyjrzyjmy się wstępowi jeszcze raz. Na 1szy rzut oka ta inicjatywa może się wydawać wspaniałomyślna i wręcz porządana przez szerokie grono internautów.

Bo przecież trzeba walczyć z nielegalnymi plikami, których przecież jest tak wiele w internecie! “Wielkie firmy tracą setki milionów dolarów rocznie przez nielegalną działalność małych serwisów z plikami oraz sieci P2P”.. czytamy w nagłówkach różnych artykułów.. Jednak czy to prawda?

Przyjrzyjmy się temu problemowi z poziomu zwykłego użytkownika na przykładzie muzyki. Miłośnik muzyki pop, chce pobrać w sieci najnowszy utwór  Lady Gaga, szuka szuka, korzysta z wieli narzędzi, takich jak np. wyszukiwarka mp3 znajduje mp3 i pobiera za darmo. Jeśli mu się podoba, idzie na koncerty owej “wokalistki”, kupuje płyty czy zapisuje się do różnych “fanpage”-ów.. Jednym słowem jest “dobrym klientem” agencji muzycznej.

Łatwo przewidzieć co się stanie jeśli użytkownik nie będzie mógł pobierać mp3 swoich ulubionych artystów.. Po wpisaniu w wyszukiwarkę www frazy utworu, znajdzie jedynie oficjalne informacje na temat artystki oraz oczywiście płatne mp3.. Nie będzie miał stałego przeglądu utworów (kogo stać na płacenie kilku dolców za każdą mp3? ) więc zacznie szukać innego żródła rozrywki, oczywiście trafi prosto na największą konkurencję wielkich wytwórni muzycznych więc małych twórców, którzy od czasu pierwszych blokach “nielegalnych mp3” w sieci przeżywają prawdziwy BUM popularności.

 

Powracając do tematu ;] Jaki skutek ma wprowadzenie taich blokad na cenzurę z sieci?

Obok twórców muzyki popularnej istnieje wiele młodych zdolnych artystów, niestety bez zaplecza “wielkich” agencji, którzy produkują muzykę o wiele lepszą i “zdrowszą”. Użytkownik wpisując odpowiednie zapytanie w wyszukiwarce, będzie skazany na słuchanie tylko takiej muzyki, jaką agencje muzyczne mu zaserwują.

Co za tym idzie przeciętny użytkownik będzie płacił bardzo duże pieniądze za kupowanie MP3, nie wiedząc nawet, że istnieją o wiele lepsze MP3, które mogą być pobierane całkowicie za darmo..

Kody szpiegujące – optymalizacja strony

Ciągnąc dalej temat kodów wychodzących / kodów szpiegujących, nie można pominąć chyba najważniejszej kwestii czyli optymalizacji kodu.

Jeszcze jakiś czas temu, powiedzmy przed dwoma laty, projektowanie stron internetowych sprowadzało się jedynie do poprawności wizualnej, opcjonalnie standaryzacją kodu wg W3C, kilka dni spędzonych nad kursem HTML-a, podstawowe informacje o CSS, i własna strona internetowa nie stanowiła już większego problemu.

 

Jednak dziś, aby móc dopisać do swoich osiągnięć kolejną witrynę www, należy nico bardziej się wysilić, oprócz oprawy graficznej godnej XXI wieku, niebanalnych stylów CSS, fruwających bajerów JavaScript czy w końcu całych systemów CMS, musimy zadbać o to aby nasza strona była “dobrze zoptymalizowana” – przyjazna zarówno użytkownikowi jak i botom wyszukiwarek, tak aby użytkownik miał możliwość szybkiego i bezproblemowego dotarcia do strony.

 

Dziś skupimy się na powiązaniu optymalizacji strony z kodami zewnętrznymi.

Każdy kod wychodzący z naszej witryny to kolejny tzw “obiekt”, który przeglądarka musi pobrać, aby wyświetlić stronę użytkownikowi. W przypadku obiektów wewnętrznych, czyli: stylów CSS, kodów JS, obrazków, które są na serwerze razem ze stroną, przeglądarka pobiera je wszystkie hurtem, czyli w 1 sesji, co sprawia, że pobierają się dość szybko i bezproblemowo.

W przypadku obiektów wychodzących, przeglądarka jest zmuszona nawiązać całkiem nowe połączenie z serwerem, na którym dany obiekt się znajduje, pobrać go, dołączyć do strony i dopiero zabrać się za pobieranie dalszej części witryny. Jest to więc kolejne zbędne połączenie jakie wykonuje przeglądarka.

 

Kody szpiegujące – obiekty wychodzące, o tyle są niebezpieczne dla optymalizacji, że nigdy nie wiadomo ile dokładnie czasu będą się ładować.

Przykładów nie trzeba wcale długo szukać, wystarczy przeglądnąć kilka najpopularniejszych stron. Dość łatwo zauważymy, że jakaś strona ładuje się długo.. Jest to właśnie przyczyna kodów szpiegujących.

 

Podsumowując: im mniej wychodzących obiektów na naszej stronie, tym szybciej ona będzie się ładować naszym użytkownikom, oraz automatycznie tym większą popularność będzie miała nasza strona. Nie zapominajmy, że użytkownicy lubią szybkie strony!

 

Kody szpiegujące – cenzura internetu


W kolejnym artykule pokażemy jak najzwyklejsze kody zewnętrznych skryptów javascript mogą się przyczynić do łatwiejszego cenzorowania sieci.

Na początek warto przypomnieć co to są te kody szpiegujące:

– reklamy
– statystyki odwiedzin
– komponenty (liczniki)

– elementy skryptów użytkowych hostingowane na dużych serwerowniach (dobrym przykładem jest google code, które pozwala na hotlink swoich skryptów – zamiast pobierać cały skrypt na dysk, linkować w kodzie strony, uploadować na serwer, po prostu wklejamy gotowy kod html z linkiem zewnętrznym do skryptu i problem transferu oraz aktualizacji skryptu mamy z głowy)

Oczywiście nie można zapomnieć o tzn “cloud”-ingu:

– “chmury” > serwery które oferują przekierowanie całęgo ruchu z naszej witryny na globalny serwer, który np. chroni nas przed DDOC (oraz wiele wiele innych pseudoulepszeń)

Jednak przejdźmy do konkretów.. Jak rzekome ulepszenie Internetu może wpłynąć na jego cenzurę?

Fakty: Czy kiedyś zdarzyło Ci się czekać dość długo na wczytanie jakieś strony www?

W zasadzie to pytanie można by było sformułować inaczej: Ile razy zdarzyło ci się bez jakichkolwiek problemów otworzyć stronę www? 😉

Jak wynika ze statystyk, użytkownicy unikają “zamulaczy” czyli stron które się długo uruchamiają
. Jeśli ktoś ma do wyboru przeglądać np. galerie zdjęć na stronie, której wczytanie zdjęcia zajmuje 10sekund, lub stronę gdzie zdjęcie ładuje się 0.5sekundy, jest oczywiste, że wybierze tę drugą.

Teraz najciekasze, jak owo zamulanie strony przełorzyć na wymuszenie na użytkownikach przeglądanie konkretnych treści?

Okazuje się, że banalnie prosto: mając panel zarządzający sporą ilością stron internetowych, pokatalogowanych wg ścieśle określonych kategorii, grup wiekowych, profili użytkowników, itp. możemy pewne grupy witryn celowo zwolnić, aby wymusić na użytkownikach najzwyklejsze porzucenie przeglądanie konkretnych witryn i tak jakby zmusić go do porzucenia swojej idei i skierowanie go na inny typ stron www.

Przykład: Wracamy ze szkoły, pracy, jesteśmy już trochę zmęczeni, siadamy przed komputer po obiedzie, aby poczytać wiadomości, przeglądać pocztę, poszpiegować znajomych na fb, pościągać ulubioną muzykę, poczytać demoty czy dowcipy..

Wchodzimy na nasz ulubiony portal informacyjny i czekamy aż strona się załaduje.. Czekamy, czekamy, znowu czekamy… Po jakimś czasie stwierdzamy, że jednak nic z tego nie wyjdzie, mając na uwadze cały nasz harmonogram przemieszczania się w sieci, przechodzimy do kolejnego punktu czyli sprawdzamy pocztę..

Bardzo realistyczna sytuacja i jak się okazuje dość często spotykana. Efekt osiągnięty 😉 Przekierowanie użytkownika na inny kanał tematyczny.

Ktoś mógłby powiedzieć CZYŚ TY CZŁOWIEKU ZGŁUPIAŁ! PRZECIEŻ TO ŻADNA CENZURA! I TAK ODWIEDZE MOJE STRONY!

Warto pamiętać, że cenzura to nie tylko bezpośrednie zakazanie przeglądania danej treści, dożo lepszy efekt osiąga się poprzez wpływanie na użytkownika w taki sposób aby on sam stwierdził, że nie potrzebuje przeglądania danych treści. Zachaczamy już o techniki manipulacji tłumem, więc tu się zatrzymamy.

Ten artykuł miał tylko uzmysłowić, że cenzura internetu odbywa się całkowicie z innej strony niż się tego spodziewamy 😉 A dobrym sposobem aby to osiągnać są kody umieszczane coraz częściej na witrynach.

W kolejnych artykułach postaramy się pokazać inne techniki cenzurowania internetu.

Szybkość wczytywania strony – kody szpiegujące

Szybkość uruchamiania strony Szybkość uruchamiania strony

Tym razem skupimy się na kodach zewnętrznych, które tak chętnie i bez żadnych zastanowień umieszczamy na swojej stronie internetowej czy blogu.

Na początek definicja kody szpiegujące. Są to kody, które po umieszczeniu w kodzie strony, uruchamiają się wraz z wejściem każdego użytkownika na witrynę, wykonują określone operacje (pobierają wszystkie możliwe informacje o użytkowniku, przetwarzają je oraz wyrzucają jakiś rezultat swojej pracy w postaci obrazka z licznikiem odwiedzin, lub też działają całkowicie “w tle”).

Przykłady:

1. Najbardziej oczywistym przykłądem jest gigant Google, którego produkty: Google analytics, Google adsense, Google apps, są niezwykle chętnie aprobowane przez webmasterów.

2. Systemy statystyk internetowych: stat4u, stat24, itp.

3. Darmowe licnziki online, komponenty jako “iframe” (np. nowy kod playerka youtube), oraz wszelkiego rodzaju skrypty “javascript” .

4. Reklamy

 

Zalety?

Chyba oczywiste 😉 Szybki, ładny i przejrzysty panel do zarządzania wszystkimi witrynami oraz aktualny podgląd na liczbę użytkowników.. Zarabianie na reklamach.. Nowe usługi: poczta w domenie.. Można wymieniać i wymieniać…

 

Wady?

W tym artykule skupimy się na jednej z wielu wad posiadania kodów zewnętrznych – zmniejszenie wydajności witryny!

Każdy kod zewnętrzny (uruchamiany z zewnętrznego serwera) musi się uruchomić w przeglądarce użytkownika. Jest to o tyle ważne, bo czas wczytywania strony (od strony użytkownika, który odwiedza stronę/blog) wydłuża się dodatkowo o kolejne nadmiarowe części sekundy. Efekt tego jest następujący:

Użytkownik wchodzi na stronę i po załadowaniu się treści, które go najbardziej interesują, w jego pasku postępu uruchamiania danej strony, pojawiają się dziwne adresy, które czasami nawet kilka sekund uniemożliwiają prawidłowe przeglądanie witryny. Dopiero gdy wszystkie kody zewnętrzne się załadują, przeglądarka pozwala na wykonanie się załadowanego javascript, na co reakcja przeglądarki jest najczęściej zauważalna w postaci chwilowego “zacięcia sie”, po czym dopiero można przeglądać stronę www.

Od połowy roku 2011 największa wyszukiwarka internetowa – Google wprowadziła w swój algorytm promowanie stron “szybkich” czyli takich, których czas uruchamiania jest mniejszy od 2sekund (80% witryn). Zakładając, że przeciętny kod szpiegujący (reklama, statystyki odwiedzin) wczytują się w najlepszym przypadku około sekundy, już na samym starcie połowę dopuszczalnego limitu mamy z głowy.. Wystarczą skromne statystyki odwiedzin, kilka reklam i nasza strona wędruje do rankingu internetowych “zamulaczy”..

 

Jak się przed tym uchronić?

Wyjściem może być np. instalacja systemu statystyk ruchu na wewnętrznym serwerze, tak aby serwer przyjmujący ruch generował nam statystyki odwiedzin (chcąc nie chcąc i tak to robi 😉 więc kwestia jest tylko w dostępnie do tych treści). Kolejnym wartym przemyślenia faktem jest rezygnacja ze “Standardowych” reklam zaśmiecających witrynę i drażniących chyba wszystkich użytkowników, w skłonienie się w stronę niestandardowych form pozyskiwania kapitału, np. sms, konta VIP, płatne subskrypcje, promocja gadżetów reklamowych, czy coraz bardziej popularne “dotacje dla autora”. Zobacz jak zarabiać na stronie oraz jak reklamować stronę

 

W kolejnych artykułach będziemy omawiać wpływ kodów szpiegujących na kontrolę ruchu w sieci oraz cenzurowanie internetu za pomocą kodów szpiegujących!

Gorąco zachęcamy do subskrypcji bloga – RSS, oraz odwiedzin.

Słowa kluczowe: blog webmasterski, webmaster porady, tworzenie stron www, wtyczki do stron www

Kurs css

  • Kurs CSS dla niecierpliwych [cz 1/2]

    Co to jest CSS, po co go używać, jak go używać.. CSS - stylizowanie różnych elementów HTML, inaczej mówiąc: wizualizowanie/nadawanie odpowiedniego wyglądu strony www. Zaczynając kurs…

  • Kurs CSS dla niecierpliwych [cz 2/2]

    Kontynuacja przyspieszonego kursu dla niecierpliwych. Część 1/2 - Kurs CSS dla niecierpliwych 1/2 Zakładam, że znasz lub zapoznałeś/aś się już wstępnie z podstawami HTML, wiesz do czego…