› Webmaster Blog
Jak wzbogacić stronę internetową
Kategorie: Grafika, Porady dla webmasterów, Promowanie strony/bloga, Technologie/Informatyka Dodano: 12 lipca 2012 20:18
W związku z tym, że wiele osób prowadzi swoje własne strony internetowe, konkurencja staje się coraz większa i nawet jeśli posiadamy bardzo dobrą i merytoryczną treść, którą warto jest przeczytać, tak czy inaczej możemy mieć problemy z ilością osób odwiedzających.
Żeby poprawić tą sytuację należy odpowiednio zoptymalizować naszą stronę pod kątem wyszukiwarek, a po za tym wzbogacić ją o odpowiednie grafiki. czytaj całość
[php] wyświetlanie RSS na stronie internetowej
Kategorie: Darmowe komponenty, google, Pozycjonowanie strony w google, Promowanie strony/bloga, Technologie/Informatyka Dodano: 7 lipca 2012 08:59
Prosty i funkcjonalny skrypt PHP wyświetlający kanał RSS dowolnej strony internetowej.
Dodatkowo kod JavaScript do wyświetlania RSS na stronach z systemami CMS (PHPfusion, Joomla), blogami, forami dyskusyjnymi, itp.
czytaj całość
[linux] Export okładki z pliku mp3
Kategorie: How-to, Porady dla webmasterów, tourtale Dodano: 23 czerwca 2012 13:53
Bardzo prosty sposób na wyjęcie okładki / albumu (FRONT_COVER) z pliku audio mp3.
Kurs CSS dla niecierpliwych [cz 2/2]
Kategorie: kurs css, poradniki, Porady dla webmasterów, Technologie/Informatyka, tourtale Dodano: 12 czerwca 2012 16:40
Kontynuacja przyspieszonego kursu dla niecierpliwych. Część 1/2 – Kurs CSS dla niecierpliwych 1/2
Zakładam, że znasz lub zapoznałeś/aś się już wstępnie z podstawami HTML, wiesz do czego on służy i co się z nim robi 😉 Zakładam również, że wiesz co kryje się pod pojęciem CSS. Jeśli tak nie jest, zapraszam do pierwszej części kursu: kurs css 1/2.
W 2giej części skupię się na połączeniem CSS z HTML. Powiem o tym jak połączyć styl CSS z kodem HTML w prosty i przejrzysty sposób, oraz kilka przydatnych rzeczy dla początkujących.
Kurs CSS dla niecierpliwych [cz 1/2]
Kategorie: How-to, kurs css, poradniki, Porady dla webmasterów, Technologie/Informatyka, tourtale Dodano: 29 maja 2012 07:59
Co to jest CSS, po co go używać, jak go używać..
CSS – stylizowanie różnych elementów HTML, inaczej mówiąc: wizualizowanie/nadawanie odpowiedniego wyglądu strony www.
Zaczynając kurs CSS (nawet ten, przyspieszony) zakłądam, że znasz podstawowy HTML (a – link, b – pogrubienie, itp). Jeśli tak nie jest, po prostu przeczytaj kurs i spróbuj je poznać, w środkowej części kursu będzie nawiązanie do niektórych znacnzików HTML-a.
Google mail poniżej oczekiwań klientów i użytkowników
Kategorie: google, Niebezpieczeństwo w sieci, Technologie/Informatyka, Zarabianie na stronie www Dodano: 13 maja 2012 12:46
Jeszcze jakiś czas temu Google słynęło jako potentat nowoych technologii, które sukcesywnie podbijały rynek. Od czasu do czasu pojawiały się kompletnie nieudane projekty, jednak dość szybko znikały one z pozycji usług giganta.
Czy Google Mail podzieli los innych nieudanych usług?
Na początek krótki przedstawienie usługi: Google w ramach “skrzynki elektronicznej” zapewnia obsługę naszych wiadomości e-mailowych. Rejestracja nie odbiega zbytnio od pozostałych, konkurencyjnych usług, podajemy adres i w przeciągu kilku chwil cieszymy się naszym nowym adresem pocztowym..
XXI wiek, masa poradników w sieci na temat konfiguracji własnej skrzynki pocztowej raczej nie służa Google 🙂 Gdy usługa była zdrażana na polski rynek, internauci jeszcze nie zdążyli dobrze obejść się z ofertami onetu, interii czy wirtualnej polski. Tłumaczy to aż taki sukces gmail-a.
Google mail nie odbiega niczym od amatorskich skrzynek pocztowych.
Szyfrowanie danych, obsługa antyspamowa, brak limitu transferu, kilku-gigobajotwa przestrzeń dyskowa, to główne “walory” google mail-a. Spójrzmy jednak na rzeczywistość.. Przeciętna firma posiadająca własny serwer, może sobie taką poczŧę utworzyć w mniej niż kilka minut i wcale nie wymaga to od niej informatycznych zdolności..
Większość użytkowników gmaila chwali sobie filtry antyspamowe.. Faktycznie skrzynka jest w większości przypadków wolna od spamu, lecz jakie są tego konsekwencje? Można się o tym przekonać mailując często z obsługą klienta różnych mniejszych firm.. np. kupiliśmy przedmiot na małym portalu aukcyjnym, podaliśmy swoje dane i czekamy na odpowiedź z terminem wysyłki itp.. Próżno się takiego maila doczekać, od strony obsługi sklepu nasz mail będzie po prostu niedostępny i traktowany na równi z podaniem niewłaściwego adresu..
Kolejny przykład to mailowanie w celu uzyskania jakieś porady przez biuro obsługi firm usługowych. Jak każdy zapewne wie, wymiana zdań może rozciągnąć się nawet na kilkanaście maili, bardzo łatwo można sobie wyobrazić, że np. połowa maili do nas nie dotrze 😉 – nie jest to żadkość w przypadku google mail, lecz smutna rzeczywistość..
Dorzucając do tego wręcz śmieszne limity googla w przypadku oferty dla firm, otrzymujemy prawdziwe oblicze Google Mail-a..
Czy można się spodziewać powolnej śmierci usługi google mail?
Spece Googla od marketingu zapewne przeanalizowali problem od potrzewki, więc nie spodziewajmy się jakichkolwiek zmian 😉 Google ma wnakomitą renomę i teraz tę renomę wykorzystuje do własnych celów i maxymalizacji zysków..
Google zarabia na naszych e-mailach.
Od czasu zmiany polityki prywatności przez google, wszystkie konta = usługi google są powiązane wspólnym kontem. Oznacza to tyle, że wpis w kalendarzu google, wpisana fraza w wyszukiwarce, czy wysłany e-mail są traktowane na równi i przynoszą dość obszernych informacji o użytkowniku. Informacje te są przetwarzane i na ich podstawie generowany jest “profil klienta” (takie właśnie przetwarzanie to ostatnio szczyt mody na polskim rynku mediów elektronicznych).
Kwiestią czasu jest fakt, kiedy przeglądając strony w sieci natchniemy się na reklamy Google Adsense, w których zobaczymy ofertę firmy, z którą chwilę temu mailowaliśmy, lub ofertę sklepu z meblami, w którym znajdziemy biórko, polubione na g+…
Oczywiście wszystko w imię dobra klientów 😉
google oczyszcza internet?
Kategorie: google, Pozycjonowanie strony w google, Promowanie strony/bloga Dodano: 28 kwietnia 2012 16:13
Niemal wszystkie blogi oraz fora o pozycjonowaniu wręcz krzyczą o nowych zmianach w silniku wyszukiwarki google. Niecały rok temu dostało się farmom linków, pół roku temu duża część stron internetowych musiała zostać gruntownie zoptymalizowanych. Teraz google nakłada na webmasterów kolejne utrudnienie w walce o wysokie pozycje w wynikach wyszukiwania.
Od kilku dni wartość wszystkich typowo zapleczowych stron gwałtownie poszybowała w dół. Już nie wystarczy zwykły skrypt generujący portal, czy samo prowadzący się blog, lub też niczym nie wyróżniające się forum, precel, katalog stron itp.. Wszystkie strony, które na 1szy rzut oka wyglądają na strony zapleczowe – straciły na wartości, nawet do 80% !
Cenzura w Internecie – “nielagalne” mp3
Kategorie: Niebezpieczeństwo w sieci, Wyszukiwarki www Dodano: 10 kwietnia 2012 19:57
Strony, które umożliwiają publikowanie nieautoryzowanych plików, powinny być niżej pozycjonowane w wyszukiwarkach – takie propozycje przedstawili posiadacze praw autorskich w Wielkiej Brytanii, a padły one w trakcie poufnych rozmów, wspieranych przez organizację rządową. Wygląda na to, że tego rodzaju tajemnice ma coraz więcej rządów w Europie.
Takimi słowami dziennik internautów zaczyna temat cenzury w wynikach wyszukiwania. Przyjrzyjmy się wstępowi jeszcze raz. Na 1szy rzut oka ta inicjatywa może się wydawać wspaniałomyślna i wręcz porządana przez szerokie grono internautów.
Bo przecież trzeba walczyć z nielegalnymi plikami, których przecież jest tak wiele w internecie! “Wielkie firmy tracą setki milionów dolarów rocznie przez nielegalną działalność małych serwisów z plikami oraz sieci P2P”.. czytamy w nagłówkach różnych artykułów.. Jednak czy to prawda?
Przyjrzyjmy się temu problemowi z poziomu zwykłego użytkownika na przykładzie muzyki. Miłośnik muzyki pop, chce pobrać w sieci najnowszy utwór Lady Gaga, szuka szuka, korzysta z wieli narzędzi, takich jak np. wyszukiwarka mp3 znajduje mp3 i pobiera za darmo. Jeśli mu się podoba, idzie na koncerty owej “wokalistki”, kupuje płyty czy zapisuje się do różnych “fanpage”-ów.. Jednym słowem jest “dobrym klientem” agencji muzycznej.
Łatwo przewidzieć co się stanie jeśli użytkownik nie będzie mógł pobierać mp3 swoich ulubionych artystów.. Po wpisaniu w wyszukiwarkę www frazy utworu, znajdzie jedynie oficjalne informacje na temat artystki oraz oczywiście płatne mp3.. Nie będzie miał stałego przeglądu utworów (kogo stać na płacenie kilku dolców za każdą mp3? ) więc zacznie szukać innego żródła rozrywki, oczywiście trafi prosto na największą konkurencję wielkich wytwórni muzycznych więc małych twórców, którzy od czasu pierwszych blokach “nielegalnych mp3” w sieci przeżywają prawdziwy BUM popularności.
Powracając do tematu ;] Jaki skutek ma wprowadzenie taich blokad na cenzurę z sieci?
Obok twórców muzyki popularnej istnieje wiele młodych zdolnych artystów, niestety bez zaplecza “wielkich” agencji, którzy produkują muzykę o wiele lepszą i “zdrowszą”. Użytkownik wpisując odpowiednie zapytanie w wyszukiwarce, będzie skazany na słuchanie tylko takiej muzyki, jaką agencje muzyczne mu zaserwują.
Co za tym idzie przeciętny użytkownik będzie płacił bardzo duże pieniądze za kupowanie MP3, nie wiedząc nawet, że istnieją o wiele lepsze MP3, które mogą być pobierane całkowicie za darmo..
Kody szpiegujące – optymalizacja strony
Kategorie: How-to, Porady dla webmasterów, Pozycjonowanie strony w google, Promowanie strony/bloga, Technologie/Informatyka Dodano: 25 marca 2012 11:44
Ciągnąc dalej temat kodów wychodzących / kodów szpiegujących, nie można pominąć chyba najważniejszej kwestii czyli optymalizacji kodu.
Jeszcze jakiś czas temu, powiedzmy przed dwoma laty, projektowanie stron internetowych sprowadzało się jedynie do poprawności wizualnej, opcjonalnie standaryzacją kodu wg W3C, kilka dni spędzonych nad kursem HTML-a, podstawowe informacje o CSS, i własna strona internetowa nie stanowiła już większego problemu.
Jednak dziś, aby móc dopisać do swoich osiągnięć kolejną witrynę www, należy nico bardziej się wysilić, oprócz oprawy graficznej godnej XXI wieku, niebanalnych stylów CSS, fruwających bajerów JavaScript czy w końcu całych systemów CMS, musimy zadbać o to aby nasza strona była “dobrze zoptymalizowana” – przyjazna zarówno użytkownikowi jak i botom wyszukiwarek, tak aby użytkownik miał możliwość szybkiego i bezproblemowego dotarcia do strony.
Dziś skupimy się na powiązaniu optymalizacji strony z kodami zewnętrznymi.
Każdy kod wychodzący z naszej witryny to kolejny tzw “obiekt”, który przeglądarka musi pobrać, aby wyświetlić stronę użytkownikowi. W przypadku obiektów wewnętrznych, czyli: stylów CSS, kodów JS, obrazków, które są na serwerze razem ze stroną, przeglądarka pobiera je wszystkie hurtem, czyli w 1 sesji, co sprawia, że pobierają się dość szybko i bezproblemowo.
W przypadku obiektów wychodzących, przeglądarka jest zmuszona nawiązać całkiem nowe połączenie z serwerem, na którym dany obiekt się znajduje, pobrać go, dołączyć do strony i dopiero zabrać się za pobieranie dalszej części witryny. Jest to więc kolejne zbędne połączenie jakie wykonuje przeglądarka.
Kody szpiegujące – obiekty wychodzące, o tyle są niebezpieczne dla optymalizacji, że nigdy nie wiadomo ile dokładnie czasu będą się ładować.
Przykładów nie trzeba wcale długo szukać, wystarczy przeglądnąć kilka najpopularniejszych stron. Dość łatwo zauważymy, że jakaś strona ładuje się długo.. Jest to właśnie przyczyna kodów szpiegujących.
Podsumowując: im mniej wychodzących obiektów na naszej stronie, tym szybciej ona będzie się ładować naszym użytkownikom, oraz automatycznie tym większą popularność będzie miała nasza strona. Nie zapominajmy, że użytkownicy lubią szybkie strony!
Kody szpiegujące – cenzura internetu
Kategorie: Niebezpieczeństwo w sieci, poradniki, Porady dla webmasterów, Technologie/Informatyka Dodano: 12 marca 2012 14:48
W kolejnym artykule pokażemy jak najzwyklejsze kody zewnętrznych skryptów javascript mogą się przyczynić do łatwiejszego cenzorowania sieci.
Na początek warto przypomnieć co to są te kody szpiegujące:
– reklamy
– statystyki odwiedzin
– komponenty (liczniki)
– elementy skryptów użytkowych hostingowane na dużych serwerowniach (dobrym przykładem jest google code, które pozwala na hotlink swoich skryptów – zamiast pobierać cały skrypt na dysk, linkować w kodzie strony, uploadować na serwer, po prostu wklejamy gotowy kod html z linkiem zewnętrznym do skryptu i problem transferu oraz aktualizacji skryptu mamy z głowy)
Oczywiście nie można zapomnieć o tzn “cloud”-ingu:
– “chmury” > serwery które oferują przekierowanie całęgo ruchu z naszej witryny na globalny serwer, który np. chroni nas przed DDOC (oraz wiele wiele innych pseudoulepszeń)
Jednak przejdźmy do konkretów.. Jak rzekome ulepszenie Internetu może wpłynąć na jego cenzurę?
Fakty: Czy kiedyś zdarzyło Ci się czekać dość długo na wczytanie jakieś strony www?
W zasadzie to pytanie można by było sformułować inaczej: Ile razy zdarzyło ci się bez jakichkolwiek problemów otworzyć stronę www? 😉
Jak wynika ze statystyk, użytkownicy unikają “zamulaczy” czyli stron które się długo uruchamiają
. Jeśli ktoś ma do wyboru przeglądać np. galerie zdjęć na stronie, której wczytanie zdjęcia zajmuje 10sekund, lub stronę gdzie zdjęcie ładuje się 0.5sekundy, jest oczywiste, że wybierze tę drugą.
Teraz najciekasze, jak owo zamulanie strony przełorzyć na wymuszenie na użytkownikach przeglądanie konkretnych treści?
Okazuje się, że banalnie prosto: mając panel zarządzający sporą ilością stron internetowych, pokatalogowanych wg ścieśle określonych kategorii, grup wiekowych, profili użytkowników, itp. możemy pewne grupy witryn celowo zwolnić, aby wymusić na użytkownikach najzwyklejsze porzucenie przeglądanie konkretnych witryn i tak jakby zmusić go do porzucenia swojej idei i skierowanie go na inny typ stron www.
Przykład: Wracamy ze szkoły, pracy, jesteśmy już trochę zmęczeni, siadamy przed komputer po obiedzie, aby poczytać wiadomości, przeglądać pocztę, poszpiegować znajomych na fb, pościągać ulubioną muzykę, poczytać demoty czy dowcipy..
Wchodzimy na nasz ulubiony portal informacyjny i czekamy aż strona się załaduje.. Czekamy, czekamy, znowu czekamy… Po jakimś czasie stwierdzamy, że jednak nic z tego nie wyjdzie, mając na uwadze cały nasz harmonogram przemieszczania się w sieci, przechodzimy do kolejnego punktu czyli sprawdzamy pocztę..
Bardzo realistyczna sytuacja i jak się okazuje dość często spotykana. Efekt osiągnięty 😉 Przekierowanie użytkownika na inny kanał tematyczny.
Ktoś mógłby powiedzieć CZYŚ TY CZŁOWIEKU ZGŁUPIAŁ! PRZECIEŻ TO ŻADNA CENZURA! I TAK ODWIEDZE MOJE STRONY!
Warto pamiętać, że cenzura to nie tylko bezpośrednie zakazanie przeglądania danej treści, dożo lepszy efekt osiąga się poprzez wpływanie na użytkownika w taki sposób aby on sam stwierdził, że nie potrzebuje przeglądania danych treści. Zachaczamy już o techniki manipulacji tłumem, więc tu się zatrzymamy.
Ten artykuł miał tylko uzmysłowić, że cenzura internetu odbywa się całkowicie z innej strony niż się tego spodziewamy 😉 A dobrym sposobem aby to osiągnać są kody umieszczane coraz częściej na witrynach.
W kolejnych artykułach postaramy się pokazać inne techniki cenzurowania internetu.
Słowa kluczowe: blog webmasterski, webmaster porady, tworzenie stron www, wtyczki do stron www